Demis Hassabis:AGI將在5至8年內到來——諾貝爾獎得主的預測為何值得認真對待

文章重點

  • Google DeepMind CEO Hassabis在印度AI影響力峰會上聲稱「AGI已在地平線上,可能在未來5至8年內實現」
  • 他將AI的影響比作「工業革命10倍的衝擊力,以10倍的速度發生」,強調社會需提前準備
  • Hassabis指出「持續學習」是當前AI系統缺失的關鍵拼圖,也是通往AGI的核心技術瓶頸
  • 他呼籲國際社會緊急建立AI風險合作框架,警告缺乏協調可能導致災難性後果

一、一個不尋常的預測者

AI領域從不缺乏「AGI即將到來」的預言。從自媒體的標題黨到初創公司創辦人的營銷話術,這類宣稱早已泛濫到讓人免疫。但2月19日在印度AI影響力峰會(India AI Impact Summit)上,當Google DeepMind CEO Demis Hassabis說出「AGI已在地平線上,可能在未來5至8年內實現」時,情況有所不同。

原因在於預測者本人的身份。Hassabis不是矽谷的連續創業者,也不是需要為下一輪融資製造話題的初創CEO。他是2024年諾貝爾化學獎得主——因為AlphaFold在蛋白質結構預測上的突破性工作而獲獎。他是國際象棋神童出身,在21歲時就開發了暢銷電子遊戲,隨後在UCL完成了認知神經科學博士學位。2010年,他創辦DeepMind,開發出了AlphaGo和AlphaFold等里程碑式的AI系統。

換言之,Hassabis是極少數既具有深厚科學背景、又擁有將基礎研究轉化為實際系統經驗的AI領袖。當這樣一個人給出具體的時間表時,科學界和產業界的耳朵都會豎起來。

5-8年
Hassabis的
AGI時間預測
10x
AI影響力
vs 工業革命
10x
AI變革速度
vs 工業革命
2024
諾貝爾化學獎
(AlphaFold)

二、「AGI」到底意味著什麼?

在深入討論Hassabis的預測之前,我們必須首先釐清一個關鍵問題:他所說的「AGI」究竟是什麼意思?這不是一個學究式的咬文嚼字——AGI的定義直接決定了「5至8年」這個時間表的含義和可信度。

AGI(Artificial General Intelligence,通用人工智能)的定義在AI領域一直存在廣泛分歧。最常見的幾種理解包括:

  • 狹義定義:能在大多數認知任務上達到或超越人類水平的AI系統。這是OpenAI章程中使用的定義,也是業界最常引用的版本。
  • 廣義定義:具有完全自主學習能力、能在任何新領域快速掌握技能、並展現創造性思維的AI系統——本質上與人類智能無異或超越之。
  • Google DeepMind的分級定義:DeepMind在2023年發布了一個AGI成熟度框架,將AGI分為六個級別——從「新興」(Emerging)到「超人」(Superhuman)。在這個框架中,當前的大型語言模型已被歸類為「Level 1: 新興AGI」。

Hassabis在峰會上的表述刻意保持了一定的模糊性。他沒有使用DeepMind自己的分級框架來精確定義,而是使用了更直觀的「AGI on the horizon」這個短語。結合他的發言上下文和此前的公開聲明,他所指的很可能是Level 3至Level 4之間的AGI——即在大多數認知任務上達到「專家級」人類水平,但不一定是「超人」水平。

DeepMind的AGI成熟度框架

根據DeepMind在2023年提出的框架:Level 0是「無AI」;Level 1是「新興」(等同於或略超ChatGPT水平);Level 2是「勝任」(相當於50%成年人的水平);Level 3是「專家」(相當於90%成年人的水平);Level 4是「大師」(相當於99%成年人的水平);Level 5是「超人」(超越所有人類)。按照這個框架,我們目前大致處於Level 1到Level 2之間。Hassabis預測的「5至8年」可能指向Level 3至4。

三、「持續學習」:缺失的關鍵拼圖

Hassabis在峰會上最具技術洞察力的發言,或許是他對「持續學習」(Continual Learning)的強調。他明確表示,持續學習是當前AI系統和真正AGI之間「缺失的拼圖」。

什麼是持續學習?簡單來說,當前的AI模型——包括最先進的GPT系列、Claude和Gemini——本質上是「靜態」系統。它們在訓練階段學習大量數據,然後在部署後基本凍結。它們不能從與用戶的互動中真正學習新知識,不能像人類那樣在每一次經歷後更新自己的認知模型。

人類的大腦則完全不同。我們每時每刻都在學習——從一次對話、一個錯誤、一個新體驗中不斷更新我們的知識和技能。這種能力的缺失,是當前AI系統最根本的局限之一。

Hassabis的觀點並非憑空而來。作為認知神經科學博士,他的研究背景正是人類記憶和學習機制。他在DeepMind的許多關鍵研究——從AlphaGo的自我對弈學習到AlphaFold的迭代改進——都涉及某種形式的持續學習。他指出這個問題,暗示DeepMind可能在這個方向上已有重要的內部研究進展。

持續學習面臨的核心技術挑戰包括:

  • 災難性遺忘:當模型學習新知識時,往往會「忘記」舊知識。這是神經網絡的固有特性,至今沒有完美的解決方案。
  • 知識整合:如何將新學習的知識與既有知識體系有機融合,而非簡單堆積,是一個深層的架構問題。
  • 計算效率:持續學習意味著模型需要不斷更新,但重新訓練大型模型的成本是天文數字級的。如何實現高效的增量學習是關鍵。
  • 安全對齊:如果AI系統能自主學習和更新,如何確保其行為始終與人類價值觀對齊?這是一個尚未解決的安全問題。

四、橫向比較:其他AI領袖怎麼說?

Hassabis的「5至8年」預測並非孤立存在。近年來,AI領域的領軍人物紛紛給出了自己的AGI時間表,形成了一幅引人入勝的「預測光譜」。

Sam Altman(OpenAI CEO):Altman一直是最樂觀的預測者之一。他在2024年底曾表示「AGI可能比大多數人想像的更近」,並在OpenAI的內部文件中暗示2027至2028年可能是實現的時間窗口。OpenAI章程中對AGI的定義是「在最具經濟價值的工作中超越人類的高度自主系統」。

Dario Amodei(Anthropic CEO):Amodei在2025年發布的長篇論文《Machines of Loving Grace》中,描繪了一個「強大AI」(他避免使用AGI一詞)在5至10年內到來的圖景。他的時間表與Hassabis接近,但語氣更加審慎,強調了不確定性和潛在風險。

Yann LeCun(Meta首席AI科學家):LeCun是業界最知名的「AGI懷疑論者」。他反覆指出,當前的大型語言模型缺乏對物理世界的基本理解,真正的AGI可能需要全新的架構範式。他雖然沒有給出具體時間表,但暗示數十年的時間框架更為合理。

Geoffrey Hinton(「深度學習教父」):2024年諾貝爾物理學獎得主Hinton對AGI的態度經歷了巨大轉變。他曾在Google工作數十年,但在2023年離職時警告說AI的發展速度超出了他的預期。他現在認為AGI可能在5至20年內實現,但更關注其帶來的風險。

2-3年
Sam Altman
(最樂觀)
5-8年
Demis Hassabis
(本次預測)
5-10年
Dario Amodei
(審慎樂觀)
數十年
Yann LeCun
(懷疑論)

綜合來看,業界正在形成一個粗略的共識區間:大多數頂尖研究者認為某種形式的AGI可能在2030年至2035年之間出現。Hassabis的「5至8年」(即2031至2034年)恰好落在這個共識區間的中間位置。

值得注意的是,隨著時間推移,這些預測整體上在向更近的方向收斂。五年前,AGI被廣泛認為是「至少幾十年後」的事情。如今,連最保守的主流研究者也不再排除十年內實現的可能性。

五、「工業革命的10倍衝擊」:誇大其詞還是嚴肅預判?

Hassabis在峰會上的另一個引人注目的表述是將AI的影響比作「工業革命10倍的衝擊力,以10倍的速度發生」。這個比喻在社交媒體上引發了廣泛討論——有人認為這是嚴肅的預判,也有人認為這是典型的矽谷誇張。

讓我們嘗試用數據來評估這個說法。工業革命(通常指1760至1840年的第一次工業革命)在約80年的時間裡,將全球人均GDP從不到1,000美元(按2011年國際美元計算)提升到了約1,500美元,增幅約50%。如果AI的影響真的是「10倍」,那意味著它需要將全球經濟規模提升5倍以上。

McKinsey的研究估計,生成式AI到2030年可能為全球經濟貢獻2.6至4.4兆美元的年產值。Goldman Sachs的預測更為激進,估計AI可能在未來十年內將全球GDP提升7%。但即使是最樂觀的預測,也遠未達到「10倍工業革命」的水平。

不過,Hassabis的比喻可能不應被當作精確的量化預測來解讀。他更可能想表達的是:AI作為一種「通用目的技術」(General Purpose Technology),其變革的廣度和深度將超越工業革命——從知識工作到科學發現,從醫療到教育,從藝術到治理,幾乎沒有人類活動的領域能不受影響。

而「10倍速度」的部分或許更有說服力。工業革命的影響花了近一個世紀才完全展開。AI的影響——如果我們以ChatGPT 2022年底發布為起點——已經在不到四年的時間內重塑了多個行業。這種壓縮的時間尺度本身就是一個巨大的挑戰:社會制度、教育體系和監管框架可能來不及適應。

速度問題為何比規模問題更緊迫

歷史上,技術革命的社會衝擊往往不是由變革的最終規模決定,而是由變革的速度決定。19世紀的工業革命雖然最終提升了全球生活水平,但其過程中的急速轉型導致了大規模失業、社會動盪和政治革命。如果AI的變革速度真的是工業革命的10倍,那麼社會適應的時間窗口將從數十年壓縮到數年——這對政策制定者、教育體系和社會安全網提出了前所未有的挑戰。

六、技術差距盤點:AGI還缺什麼?

即使接受Hassabis的時間預測,我們仍需清醒地認識到:從當前最先進的AI系統到AGI,中間仍有多個重大的技術鴻溝需要跨越。

1. 持續學習(如上所述):當前模型是「訓練一次,部署後凍結」的靜態系統。AGI需要能像人類一樣從每次互動中不斷學習和自我改進。

2. 因果推理:目前的大型語言模型本質上是極其精密的「相關性機器」——它們擅長識別數據中的統計模式,但對因果關係的理解非常有限。真正的AGI需要能像人類一樣思考「為什麼」,而不僅是「什麼」。圖靈獎得主Judea Pearl多年來一直強調因果推理對於真正智能的根本重要性。

3. 世界模型:人類對物理世界有直覺性的理解——我們知道球會落地,水會往下流,推一個杯子到桌邊它會掉下去。當前的AI系統缺乏這種對物理世界的內在模型。Yann LeCun將此視為通往AGI最大的障礙之一,並在Meta主導了相關的基礎研究。

4. 長期規劃與目標管理:當前的AI代理在處理需要數小時甚至數天的複雜多步驟任務時,表現仍然不穩定。AGI需要能像人類一樣制定長期計劃、管理子目標、並在遇到障礙時靈活調整策略。

5. 元認知:人類能「思考自己的思考」——我們知道自己知道什麼、不知道什麼,能評估自己的確信程度。當前的AI系統在「自我認知」方面極為薄弱,經常在不確定時給出過度自信的回答(即所謂的「幻覺」問題)。

6. 遷移學習:人類學會騎腳踏車後,學習騎摩托車會容易很多——我們能把一個領域的知識遷移到相關領域。當前的AI模型雖然展現了一定的遷移能力,但與人類的靈活遷移相比仍有巨大差距。

七、為什麼Hassabis選擇在印度說這番話

Hassabis選擇在印度AI影響力峰會上發表這番預測,絕非偶然。印度正迅速成為全球AI地緣政治格局中的關鍵角色。

印度擁有全球最大的年輕科技人才庫——超過500萬軟體開發者,每年培養超過150萬理工科畢業生。Google在印度的研發中心是其全球最大的海外研發設施之一,而DeepMind也在班加羅爾設有重要的研究團隊。

更重要的是,印度正在成為全球AI監管格局中的一個獨特力量。莫迪政府的AI政策走了一條介於美國放任自由和歐盟嚴格監管之間的「第三條路」——在積極推動AI發展的同時,試圖建立適度的防護框架。印度的13億人口市場也是所有AI公司覬覦的增長引擎。

Hassabis在印度談論AGI時間表和國際合作,可以被解讀為Google在AI地緣政治中的戰略佈局——爭取全球南方國家的支持,建立在AI治理議題上的話語權。

八、對社會和政策的迫切啟示

如果Hassabis的預測哪怕只是大致準確,其政策含義都是深遠的。

勞動力轉型:5至8年的時間窗口意味著當前正在接受教育的一代年輕人,將在踏入職場時面對一個截然不同的就業景觀。教育體系是否有時間做出調整?大多數國家的答案可能是:來不及。大學課程改革通常需要3至5年的週期,而職業培訓體系的轉型更為緩慢。

監管準備:歐盟的AI法案從提案到生效花了超過三年。如果AGI的時間框架是5至8年,那麼全球社會可能只有1至2輪完整的立法週期來建立必要的監管框架。Hassabis在峰會上強調「緊急國際合作」,正是針對這個時間壓力。

國際協調:AI不認國界。如果AGI首先在一個國家或一家公司實現,其影響將立即波及全球。缺乏國際協調的AGI開發,可能導致地緣政治緊張和「AI軍備競賽」的加劇。Hassabis呼籲建立類似國際原子能機構(IAEA)的AI監管機構,這個呼籲正在獲得越來越多的支持。

財富分配:如果AI真的能自動化大量知識工作,由此產生的經濟價值將集中在少數擁有AI技術的公司和國家手中。如何確保AI的經濟紅利被廣泛分享,而非加劇現有的不平等,是一個迫切需要解答的問題。

Hassabis的具體政策建議

在峰會上,Hassabis提出了幾項具體建議:(1)建立國際AI安全評估標準,類似於藥物上市前的臨床試驗流程;(2)設立全球AI風險監測機制,持續追蹤前沿模型的能力發展;(3)在主要AI開發國之間建立信息共享渠道,確保任何國家不會在缺乏國際監督的情況下單方面推進高風險的AI實驗。這些建議的核心邏輯是:AI的風險是全球性的,應對措施也必須是全球性的。

九、結語:認真對待這個時間表

Demis Hassabis的「5至8年」預測之所以值得認真對待,不僅僅是因為他的諾貝爾獎光環或DeepMind的技術實力。更重要的是,這個預測與AI領域正在發生的實際進展高度吻合。

過去兩年中,AI系統在推理、編程、科學發現和多模態理解方面的進步速度,超出了大多數專家的預期。AlphaFold解決了蛋白質折疊問題;AI代理開始自主完成複雜的軟體開發任務;多模態模型能同時理解文字、圖像、音頻和視頻。每一項突破都在縮小當前AI與AGI之間的距離。

當然,歷史上不乏過度樂觀的AI預測。1960年代,AI先驅Herbert Simon曾預言「20年內機器將能完成人類能做的任何工作」。60年過去了,這個預言仍未完全實現。技術進步往往不是線性的——它會遇到意想不到的瓶頸、進入漫長的平台期,然後在某個時刻突然加速。

但或許更危險的錯誤是對這些預測不夠認真。如果我們按照「AGI永遠不會到來」的假設來規劃社會政策,而AGI卻在2031年到來,代價將是災難性的——數以億計的人將毫無準備地面對一場根本性的經濟和社會轉型。

Hassabis自己在峰會結尾時的一句話或許最值得銘記:「最好按照AGI即將到來的假設來做準備。如果它來得比預期慢,我們只是提前做了些有益的準備。但如果它來得比預期快,而我們毫無準備——那才是真正的災難。」

這不是一個關於技術的問題,而是一個關於風險管理的問題。在5至8年的時間窗口裡,社會準備好了嗎?