文章重點
- 深度學習三巨頭之一Yann LeCun在Meta工作12年後離開,創辦AMI Labs
- AMI Labs以5億歐元融資、30億歐元估值起步,總部設在巴黎
- LeCun認為大型語言模型「有用但根本上有限」,無法實現通用智能
- AMI Labs將基於JEPA(聯合嵌入預測架構)開發理解物理世界的AI系統
- LeCun的離開源於Meta在Zuckerberg主導下放棄長期基礎研究、轉向短期產品競爭
十二年的句號
2013年,當Mark Zuckerberg邀請Yann LeCun創建Facebook AI Research(FAIR)時,這是科技巨頭進軍AI研究的開創性時刻。FAIR在LeCun的帶領下,成為全球最受尊敬的AI研究實驗室之一,與Google DeepMind和OpenAI並列。
十二年後的今天,LeCun宣布離開。他在聲明中寫道:「我正在創建一家創業公司,繼續我過去幾年在FAIR、紐約大學和其他地方開展的高級機器智能(AMI)研究項目。」
這不是一次平靜的退休。這是AI領域最有影響力的人物之一,對當前AI主流技術路線的一次公開挑戰。
為什麼離開Meta
導火索是Meta CEO Mark Zuckerberg的戰略轉向。Zuckerberg將公司的AI重心從LeCun倡導的長期基礎研究,轉向由新任領導Alexandr Wang(前Scale AI CEO)主導的「超級智能實驗室」——優先開發可以立即與OpenAI和Google競爭的AI產品。
LeCun公開表達了他的不滿。他多次在社交媒體上批評大型語言模型(LLM)的局限性,稱它們「有用但根本上有限」,無法像人類那樣推理和規劃。對於一家正在將數百億美元投入LLM的公司的首席AI科學家來說,這種公開分歧顯然是不可持續的。
LeCun是誰?
Yann LeCun是2018年圖靈獎得主,與Geoffrey Hinton和Yoshua Bengio並稱為「深度學習三巨頭」。他發明了卷積神經網絡(CNN),這一架構至今仍是圖像識別的基石。LeCun同時擔任紐約大學計算機科學教授,他的學術影響力跨越了數十年。
世界模型 vs 語言模型
AMI Labs的核心論點可以簡單概括為:大型語言模型永遠無法實現通用人工智能,因為它們只是在預測文字序列——不理解物理世界的因果關係。
LeCun提出的替代方案是「世界模型」——AI系統通過觀察和互動來理解物理世界的運作規律,就像人類嬰兒和動物通過觀察環境來學習一樣。這種學習方式不依賴於文字,而是建立在對空間、時間和因果關係的直覺理解之上。
具體而言,AMI Labs將基於LeCun在Meta期間開發的JEPA(Joint Embedding Predictive Architecture,聯合嵌入預測架構)進行研發。JEPA是一種從視頻和空間數據中學習的框架,訓練模型預測未來狀態而非像素。
融資與團隊
AMI Labs以5億歐元的首輪融資和30億歐元的估值起步,在AI創業史上這是一個令人矚目的數字。據Bloomberg報道,投資者包括Cathay Innovation、Greycroft和Hiro Capital,此外還有20VC、Bpifrance、Daphni和HV Capital。
值得注意的是,LeCun擔任的是執行主席而非CEO。CEO由Alex LeBrun出任——他此前是健康AI公司Nabla的聯合創始人兼CEO。AMI Labs的總部設在巴黎,在蒙特利爾、紐約和新加坡也設有辦公室。巴黎的選擇進一步鞏固了法國作為歐洲AI中心的地位。
對AI行業的深遠影響
LeCun的離開和AMI Labs的創立,是對當前AI行業「LLM至上」路線的一次重大質疑。全球AI行業正在將數千億美元投入更大的語言模型,而AI領域最受尊敬的學者之一卻在用自己的職業生涯押注這條路是錯的。
LeCun坦率地說:「我們將擁有具有人類水平智能的AI系統,但它們不會建立在LLM之上,也不會在明年或後年實現。這需要時間,需要重大的概念性突破。」AMI Labs就是在追求這些突破。
世界模型賽道升溫
LeCun並不孤獨。2026年正在成為「世界模型之年」。Google DeepMind推出了Genie 3互動式世界模型;Stanford教授李飛飛的World Labs推出了首個商業化世界模型Marble;整個行業正在重新關注純文字預測之外的AI架構。
對於投資者和技術決策者而言,AMI Labs代表了一個重要信號:即使LLM繼續主導短期市場,長期的AI技術路線仍然充滿不確定性。多元化的技術佈局可能比押注單一路線更為明智。