🏷 浏览器书签分割美化工具
Bookmark Separator Pro 为你的书签栏注入秩序与美感
包含纵横两种分隔符类型,内置多种分隔符样式!
在这之前我一直用的是 separator.mayastudios.com ,现在可以考虑换一下了
📮投稿 📢频道 💬群聊 🔎索引
via 极客分享 - Telegram Channel
AMD显卡可以本地玩DeepSeek了 附简单部署教程
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel