LLM

DeepSeek V4 發布:1兆參數MoE模型,訓練成本低至520萬美元

新一代大型語言模型 DeepSeek V4 亮相,採用1兆參數稀疏專家模型(MoE),開放 Apache 2.0 授權權重,訓練花費僅520萬美元,展現與美國前沿模型媲美的競爭力。

DeepSeek 团队今日宣布推出 DeepSeek V4,這是一款擁有1兆參數的稀疏專家模型(MoE),其訓練成本僅為520萬美元,遠低於市場上多數同級別模組。

此外,DeepSeek V4 採用Apache 2.0開源授權,公開全部模型權重,促進全球研究社群共創與共享。

儘管成本低廉,DeepSeek V4 在多項基準測試中展現了媲美美國前沿AI模型的強大性能,有望成為開源AI生態系的新基石。

研究人員及開發者均可從官方平台下載使用,期待深化多人合作與應用開發。