🏷 浏览器书签分割美化工具
Bookmark Separator Pro 为你的书签栏注入秩序与美感
包含纵横两种分隔符类型,内置多种分隔符样式!
在这之前我一直用的是 separator.mayastudios.com ,现在可以考虑换一下了
📮投稿 📢频道 💬群聊 🔎索引
via 极客分享 - Telegram Channel
AMD显卡可以本地玩DeepSeek了 附简单部署教程
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
DeepMind 的 AI 系统在几何问题中表现优于国际数学奥林匹克金牌得主
Google DeepMind 开发的人工智能系统 AlphaGeometry2 是去年 1 月发布的 AlphaGeometry 系统的改进版。在一项新发表的研究中,该模型可以解决过去 25 年来国际数学奥林匹克 (IMO)中 84% 的几何问题。该系统解决了 50 道题中的 42 道,超过了金牌得主的平均得分 40.9。测试中还发现系统能够产生人类通常无法想到的、既有创意又高效的解法。
AlphaGeometry2 包括来自谷歌 Gemini 的语言模型和“符号引擎”。Gemini 模型帮助符号引擎使用数学规则推断问题的解决方案,得出给定几何定理的可行证明。这或许证明了符号操作和神经网络这两种方法的结合是探索可通用人工智能的一条有希望的道路。根据论文,仅具有神经网络架构的 OpenAI o1 无法解决 AlphaGeometry2 能够解答的任何 IMO 问题。
—— TechCrunch
via 风向旗参考快讯 - Telegram Channel
Google DeepMind 开发的人工智能系统 AlphaGeometry2 是去年 1 月发布的 AlphaGeometry 系统的改进版。在一项新发表的研究中,该模型可以解决过去 25 年来国际数学奥林匹克 (IMO)中 84% 的几何问题。该系统解决了 50 道题中的 42 道,超过了金牌得主的平均得分 40.9。测试中还发现系统能够产生人类通常无法想到的、既有创意又高效的解法。
AlphaGeometry2 包括来自谷歌 Gemini 的语言模型和“符号引擎”。Gemini 模型帮助符号引擎使用数学规则推断问题的解决方案,得出给定几何定理的可行证明。这或许证明了符号操作和神经网络这两种方法的结合是探索可通用人工智能的一条有希望的道路。根据论文,仅具有神经网络架构的 OpenAI o1 无法解决 AlphaGeometry2 能够解答的任何 IMO 问题。
—— TechCrunch
via 风向旗参考快讯 - Telegram Channel