主流AI状态页通知 | 汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🤖微软Edge浏览器深度集成Copilot:设置故障排除、启动时自动开启

微软正在Edge浏览器中测试更深入的Copilot集成,包括在设置中加入由Copilot支持的故障排除程序。实验显示,在Windows 11和Windows 10上启动浏览器时,Copilot侧边栏将自动启动。Edge浏览器设置中将新增“询问Copilot”按钮,帮助用户查找并修复设置问题。此外,Copilot还可能在新标签页或启动浏览器时自动打开。Edge Canary中还提到了名为“Edge Companion”的新功能,可能与Copilot Vision有关,允许用户用语音与网页内容进行交互。Edge 133版本在Windows 11上推出了“恐吓软件拦截器”,利用人工智能理解网页内容并实时阻止访问,以保护用户免受在线诈骗。

(IT业界资讯)

via 茶馆 - Telegram Channel
🤖奥特曼:OpenAI内部模型已达GPT-4.5,升级5.5无需百倍算力🚀

OpenAI CEO 奥特曼在东京大学的对话中透露:
* OpenAI 内部模型已达 GPT-4.5 水平,升级至 GPT-5.5 不再需要 100 倍算力,这得益于 o1 系列推理模型的新突破。
* OpenAI 计划继续推进 GPT-6/7 等大型模型,同时推动小型、快速的推理模型。
* OpenAI 正在开发“深度研究”功能,并计划发布更多智能体,包括编程智能体。目标是年底推出能处理复杂问题的模型。
* OpenAI 计划朝着开源前进,但具体开源内容和时间尚未确定。
* 内部模型在编程能力基准测试中排名约为 TOP50,预计年底登顶。

(IT业界资讯)

via 茶馆 - Telegram Channel
#书签

🏷 浏览器书签分割美化工具

Bookmark Separator Pro 为你的书签栏注入秩序与美感

包含纵横两种分隔符类型,内置多种分隔符样式!

在这之前我一直用的是 separator.mayastudios.com ,现在可以考虑换一下了

📮投稿 📢频道 💬群聊 🔎索引

via 极客分享 - Telegram Channel
AMD显卡可以本地玩DeepSeek了 附简单部署教程

AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host  --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined  --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate  -H "Content-Type: application/json"  -d '{  "text": "Once upon a time,",  "sampling_params": {  "max_new_tokens": 16,  "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...

PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm

via cnBeta.COM中文业界资讯站 - Telegram Channel
Back to Top