「你不能指揮像我這樣的研究者」:Yann LeCun出走Meta,$50億AMI Labs要證明LLM是死胡同

文章重點

  • 圖靈獎得主、「AI教父」Yann LeCun正式離開Meta,創辦AMI Labs(Advanced Machine Intelligence Labs),總部設於巴黎,在產品面世前即尋求超過$50億美元估值
  • 離職導火索:Zuckerberg以$140億收購Scale AI 49%股權後,要求LeCun向Scale AI創辦人Alexandr Wang匯報,LeCun拒絕並選擇出走
  • LeCun公開將大型語言模型(LLM)定性為「死胡同」,認為逐字預測的範式永遠無法實現通用人工智能,世界模型才是正途
  • AMI Labs核心技術為LeCun在Meta期間開發的JEPA(聯合嵌入預測架構),以抽象表徵取代逐token預測,從視覺和物理數據中學習因果關係
  • CEO由前Nabla聯合創辦人Alex LeBrun出任,LeCun任執行主席——他自嘲「太無組織、太老了」不適合當CEO

一、權力鬥爭:一位圖靈獎得主為何無法留在Meta

表面上看,Yann LeCun離開Meta是一位學者選擇追求學術自由的故事。但內幕遠比這複雜。2025年末,Mark Zuckerberg完成了一筆震動業界的交易——以$140億美元收購數據標註巨頭Scale AI的49%股權,並將Scale AI年僅27歲的創辦人兼CEO Alexandr Wang招入Meta,負責統籌公司的AI產品戰略。這意味着在Meta工作了超過12年、一手創建FAIR實驗室的LeCun,突然被要求向一個比他年輕四十多歲的產品導向管理者匯報。

對於一位在AI領域耕耘超過三十年、手握圖靈獎的科學家而言,這種安排不僅是職級調整,更是對基礎研究價值的根本否定。LeCun在離開後的訪談中半開玩笑半認真地說:「你不能指揮像我這樣的研究者該做什麼。」但笑聲背後的訊息是嚴肅的——Meta在Zuckerberg的主導下,已從一家願意為長期基礎研究投入耐心資本的科技巨頭,轉型為一台追求短期產品競爭力的LLM軍備競賽機器。

Wang的到來代表了Meta AI戰略的根本轉向。Scale AI的核心能力在於數據標註和模型評測——這些都是服務於LLM訓練流程的基礎設施。將Wang置於LeCun之上,等於向整個組織宣告:Meta的AI未來屬於更大、更快的語言模型,而非LeCun所倡導的、可能需要十年才能結果的世界模型研究。LeCun選擇了用腳投票。

二、AMI Labs:法語裡的「朋友」,AI界的異端

AMI Labs的全稱是Advanced Machine Intelligence Labs,但LeCun刻意選擇了「AMI」這個縮寫——在法語中,「ami」意為「朋友」。對於這位出生在巴黎、在法國完成本科教育的科學家而言,將公司總部設在巴黎既是回歸故里,也是一個戰略選擇。巴黎已經是歐洲AI研究的重鎮,Mistral AI和Hugging Face的崛起證明了法國AI生態的活力,而法國政府對AI研究的慷慨資助更為AMI Labs提供了有利的政策環境。

更引人注目的是AMI Labs的估值野心。在尚未發佈任何產品的情況下,LeCun正在尋求超過$50億美元的估值。這個數字在2026年的AI融資環境中並非史無前例——Ilya Sutskever的Safe Superintelligence和李飛飛的World Labs都在零產品階段獲得了類似量級的估值——但它依然反映了一個獨特的現象:在AI領域,一位頂級科學家的願景和聲譽本身就是價值數十億美元的資產。

AMI Labs的組織架構也頗具特色。LeCun出任執行主席而非CEO,CEO一職由Alex LeBrun擔任。LeBrun此前是健康AI公司Nabla的聯合創辦人兼CEO,具備豐富的創業和營運經驗。LeCun對此安排的解釋坦率得令人莞爾:「我太無組織、太老了,不適合當CEO。我需要一個能處理日常事務的人,讓我專心做研究。」這種自我認知的清醒,或許正是LeCun作為科學家最可貴的特質之一。

$50億+
目標估值
巴黎
全球總部
JEPA
核心技術架構
30+
LeCun AI研究年資

三、JEPA:超越逐字預測的AI架構

AMI Labs的技術基石是JEPA——Joint Embedding Predictive Architecture(聯合嵌入預測架構)。要理解JEPA為何重要,首先需要理解它與當前主流LLM架構的根本差異。GPT、Claude、Gemini等大型語言模型的運作原理本質上是「給定前文,預測下一個token」。這種逐token預測的方法在語言任務上取得了驚人成就,但LeCun認為它存在一個致命缺陷:它永遠只在符號層面運作,無法建立對物理世界的真正理解。

JEPA的方法截然不同。它不是在像素或token層面進行預測,而是在抽象表徵(abstract representation)層面運作。具體而言,JEPA訓練兩個編碼器——一個處理輸入,一個處理目標——讓模型學會在高維語義空間中預測未來狀態。舉個例子:當JEPA觀看一段物體墜落的視頻時,它不會嘗試預測每一個像素如何變化,而是學習「重力會使物體加速下落」這一抽象規律。這種學習方式更接近人類嬰兒理解世界的方式——我們不需要精確記住每一個視覺細節,但我們直覺地理解物理定律。

LeCun在多次學術演講中強調,JEPA的目標不僅僅是視覺理解,而是構建一個能夠進行心理模擬(mental simulation)的系統——讓AI像人類一樣,能夠在腦海中「想像」行動的後果,然後基於這種想像進行規劃和決策。如果這個願景能夠實現,它將代表AI從「統計模式匹配」到「因果推理」的質變。

世界模型 vs 大型語言模型:兩種通往AGI的路徑

大型語言模型(LLM):通過預測文本序列中的下一個token來學習,擅長語言理解和生成,但本質上是統計模式匹配——不理解物理因果關係。代表:GPT、Claude、Gemini。

世界模型(World Models):通過觀察物理世界的視覺和感官數據來學習因果規律,目標是讓AI像人類一樣理解空間、時間和物理定律。代表:JEPA(LeCun/AMI Labs)、Marble(李飛飛/World Labs)、Genie 3(Google DeepMind)。

核心分歧:LLM陣營認為語言是智能的充分基礎,規模擴大即可逼近AGI;世界模型陣營認為純語言系統缺乏「接地」(grounding),永遠無法實現真正的理解和推理。LeCun的立場是後者中最激進的——他認為LLM在通往AGI的路上是一條「死胡同」,而非僅僅是「不完整」。

四、「LLM是死胡同」:一個孤獨但越來越不孤獨的論斷

LeCun將LLM稱為「死胡同」(dead end)的論斷,在2024年首次提出時被許多人視為極端。當時ChatGPT剛剛突破一億用戶,OpenAI估值飆升至千億美元級別,整個產業都在為更大的語言模型傾注資源。一位仍在Meta擔任首席AI科學家的人公開唱衰公司及整個行業的核心技術路線,這種行為在企業政治中幾乎等同於自我放逐。

但LeCun的論據並非空穴來風。他指出LLM的幾個結構性局限:第一,LLM沒有持久記憶,每次對話都從零開始;第二,LLM無法進行真正的規劃——它們可以生成看起來像計劃的文本,但這本質上只是基於訓練數據中的計劃範例進行模式匹配;第三,也是最根本的一點,LLM對世界的「理解」完全來自文本,而人類智能的絕大部分建立在非語言的感知和互動之上。一個從未見過蘋果、從未感受過重力的系統,真的能「理解」蘋果從樹上掉落意味着什麼嗎?

到了2026年,LeCun的立場看起來越來越不像異端,而更像是先見之明。Scaling laws(規模定律)的邊際回報正在遞減——GPT-5系列的進步幅度明顯小於GPT-3到GPT-4的飛躍。越來越多的研究者開始承認,單純增加模型規模和訓練數據可能不足以突破LLM的根本局限。世界模型作為替代或補充路線,正在獲得主流認可。

「你不能指揮像我這樣的研究者該做什麼。我已經研究這個問題三十多年了。我們會擁有具備人類水平智能的AI系統,但它們不會建立在LLM之上,也不會在明年或後年實現。這需要時間,需要根本性的概念突破——而這正是AMI Labs存在的意義。」——Yann LeCun,AMI Labs執行主席

五、世界模型賽道:從邊緣走向主流

LeCun並非世界模型賽道上的唯一玩家。2026年正在見證一場「世界模型競賽」的全面爆發。史丹福大學教授李飛飛創辦的World Labs已經推出了名為Marble的商業化空間AI產品,能夠從2D圖像生成可互動的3D環境,估值突破$50億。Google DeepMind的Genie 3能夠從文字描述生成可探索的虛擬世界。甚至OpenAI也在Sora視頻生成模型的基礎上,悄然投入世界模型的研究。

但AMI Labs與這些競爭者有一個關鍵區別。World Labs和Genie 3的世界模型更偏向「視覺生成」——它們創造看起來像真實世界的環境,但不一定真正理解物理規律。LeCun的野心更大:他想要構建的是一個能夠進行因果推理的內部世界模型,讓AI不僅能「看到」世界,更能「理解」世界為何如此運作。這是一個遠比視覺生成更困難、但也更根本的研究目標。

這場世界模型競賽的興起,對全球AI研究方向有着深遠的影響。它意味着AI行業正在從「LLM一枝獨秀」轉向「多範式並行」的新階段。對於投資者而言,這是一個重要的風險分散信號;對於研究者而言,這意味着被LLM浪潮暫時遮蔽的其他技術路線正在重新獲得資金和關注。

六、$140億的背叛:Zuckerberg的Scale AI豪賭

要完整理解LeCun出走的背景,必須審視Zuckerberg收購Scale AI股權的戰略邏輯。Scale AI的核心業務是數據標註和AI模型評測——這些是LLM訓練流程的關鍵基礎設施。Zuckerberg以$140億收購其49%股權,並將Alexandr Wang納入Meta的AI領導層,等於公開宣告:Meta的AI未來押注在更強大的LLM上,基礎研究讓位於產品化競爭。

Wang的背景與LeCun形成了鮮明對比。Wang在19歲時從MIT輟學創辦Scale AI,靠着為OpenAI、美國國防部等客戶提供數據標註服務將公司做到獨角獸規模。他是一位出色的商業執行者,但並非基礎研究者。讓一位數據標註公司的CEO來主導一家科技巨頭的AI戰略,在學術界看來幾乎是一種侮辱——這意味着AI研究被簡化為「更多數據 + 更大模型 = 更好結果」的工業化流程。

但從Zuckerberg的角度看,這個選擇有其殘酷的商業邏輯。Meta在AI產品層面已經落後於OpenAI和Google。Llama系列模型雖然在開源社區廣受歡迎,但在商業市場上的競爭力不及ChatGPT和Gemini。Zuckerberg需要的是一位能夠快速將AI研究轉化為產品的執行者,而非一位堅持世界模型可能需要十年才能開花結果的理論家。LeCun與Zuckerberg的分歧,本質上是「科學家的時間線」與「CEO的時間線」之間不可調和的矛盾。

七、與World Labs的對比:兩位AI先驅的不同棋局

LeCun的AMI Labs與李飛飛的World Labs是2026年世界模型賽道上最受矚目的兩家公司,但它們的策略存在顯著差異。World Labs採取了更務實的路線——先從3D場景生成和空間理解切入,迅速推出了Marble等可商業化的產品,然後在商業收入的支撐下逐步深化基礎研究。這種「先落地、後深入」的策略降低了投資者的風險,也為公司爭取了更多的研究時間。

AMI Labs的策略則更接近純研究實驗室的模式。LeCun明確表示,AMI Labs的首要任務不是推出產品,而是解決世界模型的基礎理論問題。JEPA目前仍處於研究階段,從論文到原型再到產品的路徑尚不明確。這種「先突破、後商業化」的策略風險更高,但如果成功,其技術護城河也將遠比應用層面的創新更深。

兩者之間的差異也反映了創辦人背景的不同。李飛飛在學術界和業界都有豐富經驗,深諳「學術成果商業化」的節奏;LeCun則是一位純粹的基礎研究者,他的CNN論文經歷了十餘年才被業界廣泛採用。AMI Labs的投資者必須做好準備:LeCun的突破可能來得很慢,但一旦到來,影響將是範式級的。

八、香港視角:世界模型浪潮對本地AI研究的啟示

對香港的學術界和科技業而言,世界模型賽道的崛起既是機遇也是警示。香港在AI研究方面有不容忽視的基礎——香港科技大學、香港大學和香港中文大學在計算機視覺和機器人領域都有國際水準的研究團隊。世界模型研究需要跨學科的能力,涵蓋計算機視覺、機器人學、認知科學和物理模擬,這恰恰是香港大學體系中多個強勢學科的交匯點。

然而,現實的挑戰同樣嚴峻。世界模型的訓練需要大規模GPU算力,而香港在數據中心基礎設施方面遠不及北美和歐洲。此外,AMI Labs選擇巴黎、World Labs選擇舊金山,反映了世界模型研究的人才和資本仍然高度集中在少數城市。香港若要在這一賽道上佔有一席之地,需要在算力基礎設施投入和國際人才吸引方面做出更積極的政策安排。

從投資角度看,LeCun離開Meta創辦AMI Labs、李飛飛的World Labs估值突破$50億、David Silver的Ineffable Intelligence以$40億估值融資——這一系列事件清晰地表明,全球最聰明的資本正在從「LLM獨大」轉向「多範式佈局」。對香港投資者而言,僅僅追蹤OpenAI和Anthropic的融資輪次已經不夠,還需要建立對世界模型、強化學習等替代技術路線的評估能力。在AI技術路線尚未蓋棺定論的2026年,過早押注單一範式的風險,可能比看似保守的多元化佈局更大。