ChatGPT / AI新闻聚合
16:09 · 2024年11月5日 · 周二
腾讯发布目前最大开源MoE模型:腾讯混元大模型(Hunyuan-Large) 具有 3890 亿参数
via
XiaoHu.AI学院
(author: 小互)
Telegraph
腾讯发布目前最大开源MoE模型:腾讯混元大模型(Hunyuan-Large) 具有 3890 亿参数
腾讯发布开源 Mixture of Experts(MoE)模型:腾讯混元大模型(Hunyuan-Large),这是目前在业界是规模最大的开源 Transformer 专家模型,具有 3890 亿参数,其中活跃的参数为 520 亿。 它专为提升自然语言处理、计算机视觉和科学任务而设计,在长文本处理、常识推理、数学能力等方面表现出色。 腾讯混元大模型(Hunyuan-Large)训练过程中使用了大量合成数据,使其可以学习到更丰富的语言表达方式。这种数据增强技术帮助 Hunyuan-Large 更好地泛化未…
Home
Tags
Links
免费GPT聊天
AI API中转2.8折起
服务状态
电报频道
Powered by
BroadcastChannel
&
Sepia
oaibest.com
2023-2024
admin@g4f.icu
|
服务状态