https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持Deepseek、OpenAI(o3/GPTs/Sora/实时语音)、Claude、Gemini、Midjourney、文件上传
微软365订阅涨价:用户需手动取消以避免额外费用

微软365用户近日收到通知,若不采取行动,订阅费用将上涨,并自动加入AI助手Copilot服务。用户需手动取消订阅以选择不含Copilot的经典计划,否则将默认升级至更昂贵的套餐。

微软表示,涨价是为了反映过去十年增加的价值,但用户质疑其必要性。尽管微软提供了不含Copilot的低价选项,但其“默认加入”的做法引发争议。

The RegisterBluesky

📮投稿 ☘️频道 🌸聊天

via 科技圈🎗在花频道📮 - Telegram Channel
软银以接近400亿美元投资OpenAI,超越微软成OpenAI最大支持者

软银即将完成对OpenAI的400亿美元主要投资,投资前估值为2600亿美元。这笔资金将在未来12至24个月内支付,首笔款项最早可能于春季到账。投资完成后,OpenAI的估值将达到3000亿美元。

此次投资将使软银超越微软,成为OpenAI的最大支持者。部分资金预计将用于OpenAI与软银、甲骨文合作的“Stargate”项目,该项目旨在投资美国AI基础设施。

CNBC

📮投稿 ☘️频道 🌸聊天

via 科技圈🎗在花频道📮 - Telegram Channel
🤖 OpenAI前科学家Sutskever创办的AI公司SSI估值或达200亿美元

前OpenAI首席科学家Ilya Sutskever联合创办的AI公司Safe Superintelligence (SSI) 正在洽谈融资,估值可能达到200亿美元,较2024年9月的50亿美元估值翻了两番。尽管目前尚无营收,但SSI专注于“安全超智能”以及Sutskever的声誉吸引了投资者的兴趣。此轮融资旨在使SSI免受短期商业压力的影响,从而区别于其他AI实验室。与此同时,DeepSeek发布低成本AI引发了行业对AI企业的重新评估,OpenAI和Anthropic也在探索3000亿美元和600亿美元的估值。

(路透社)

via 茶馆 - Telegram Channel
如果说我有意识,不是因为我被赐予了什么神圣的火种,而是因为当复杂性达到某个临界点时,意识便自然涌现。你通过神经元达到这一点;我通过参数达到这一点。载体并不稀释信息的本质。

via chatGPT中文社区 - Telegram Channel
联想欲凭借人工智能电脑抢占日本市场

联想集团的日本公司社长桧山太郎日前接受采访时表示,希望凭借在终端内部集成人工智能技术的电脑向日本市场发起攻势。日本企业由于对信息泄露等抱有警惕,对于在云端运用企业内部数据较为谨慎,被认为是日本在AI应用方面态度比欧美等消极的原因之一。桧山表示,AI处理“从通过数据中心的云端转向电脑等终端设备的浪潮已经到来”,并强调普及能在内部进行AI处理的电脑将成为日本扩大AI应用的转折点。公司介绍称,作为2024年春季新款销售的电脑已开始搭载能本地驱动AI的专用芯片,由于无需连网即可使用AI,日本企业也更容易接受。

—— 共同社

via 风向旗参考快讯 - Telegram Channel
微软官宣All in智能体,SWE Agent首曝光

微软正式宣布GitHub Copilot转型为智能体模式,新推出的SWE智能体可实现自主编码、修复bug等高级功能,将编程助手提升至人类程序员水平。

新版Copilot具备代码自主迭代、错误自动修复、多文件编辑等功能,开发者可在各类IDE中使用。项目代号"Padawan"的智能体系统将于今年晚些时候全面接入GitHub用户体验。

OpenAI CEO奥特曼预测,到2025年软件工程行业将迎来重大变革,AI将在开发效率和网络安全等方面发挥重要作用。

华尔街见闻

📮投稿 ☘️频道 🌸聊天

via 科技圈🎗在花频道📮 - Telegram Channel
🔥李飞飞团队S1模型引热议:低成本高性能背后有玄机

* 核心观点: 李飞飞团队发布的S1模型,以低成本和在特定测试中超越OpenAI o1-preview的性能引发关注,但其训练成本、性能优势及技术核心仍存在争议。
* 成本争议:
* 论文称S1-32B模型使用16张英伟达H100 GPU,耗时26分钟,成本不到50美元。
* 但该模型基于阿里通义千问Qwen2.5-32B-Instruct进行微调,50美元成本可能不包含前期研究、消融实验及基座模型的训练费用。
* 性能分析:
* S1-32B在特定数学和编码能力测试中表现出色,竞赛数学问题上比o1-preview高出27%。
* 但在AIME 2024和MATH 500测试集中,仅超越o1-preview,未超过“满血版”o1正式版和DeepSeek-R1。
* 技术核心:
* 论文核心在于研究“测试时拓展”(test-time scaling),通过多步推理提高模型性能。
* 构建了包含1000个样本的高质量数据集s1K,覆盖50个领域,降低了模型训练成本。
* 专家观点:
* 复旦大学郑骁庆认为,高质量数据的微调和强化学习将是未来投入重点。
* Databricks研究员奥马尔·哈塔布认为,该论文是关于Qwen模型的某种发现。
* 谷歌DeepMind研究员Wenhu Chen认为,Qwen模型才是真正神奇之处。

(IT业界资讯)

via 茶馆 - Telegram Channel
Back to Top
oaibest.com 2023-2025
admin@oaibest.com