DeepSeek发布高性能大模型,低预算实现突破性成果

中国人工智能公司DeepSeek近日发布了一款前沿级大语言模型(LLM),并开放了其权重。据悉,该模型的训练预算仅为2048块GPU运行两个月,总费用约600万美元,而同级别模型通常需消耗16,000至100,000块GPU的算力资源。

以对比为例,Meta的Llama 3 405B模型消耗了3080万GPU小时,而DeepSeek-V3仅用了280万GPU小时,计算量减少约11倍,同时性能似乎更强。目前,该模型正在LLM竞技场排名测试中,初步表现优异。

专家指出,这一成果展示了在资源受限情况下,通过优化数据和算法仍有巨大潜力可挖,但并不意味着前沿模型完全可以摆脱大型GPU集群的需求。DeepSeek的技术报告也受到广泛关注,被评价为细致且富有价值。

X

📮投稿 ☘️频道 🌸聊天

via 科技圈🎗在花频道📮 - Telegram Channel
 
 
Back to Top