Meta與NVIDIA締結史詩級AI戰略聯盟:數百萬GPU、7000億美元基建競賽與WhatsApp隱私革命

文章重點

  • NVIDIA宣布與Meta建立多年期、跨世代戰略合作,涵蓋本地部署、雲端及AI基礎設施全方位領域
  • Meta將部署數以百萬計的Blackwell及下一代Rubin GPU,打造全球最大規模的AI運算叢集之一
  • NVIDIA機密運算(Confidential Computing)技術被WhatsApp採用,用於私密AI處理,保障20億用戶隱私
  • 科技巨頭2026年AI基礎設施總支出逼近7000億美元,Llama 4 Behemoth(2萬億參數MoE模型)即將面世

前所未有的規模:當兩大巨頭聯手重塑AI版圖

2026年2月19日,NVIDIA與Meta同時宣布了一項被業界形容為「史詩級」的多年期、跨世代戰略合作協議。這不僅僅是一份普通的硬體採購合約——它標誌著全球最大的社交媒體公司與最具統治力的AI晶片製造商,正式將彼此的命運深度綁定在一起。

合作的核心條款令人咋舌:Meta將在未來數年內部署「數以百萬計」的NVIDIA Blackwell GPU,並在Blackwell的後繼架構Rubin問世時率先採用。這個規模遠超過任何先前公開的GPU部署計劃。作為參考,截至2025年底,全球已部署的NVIDIA數據中心GPU總量估計約為400萬至600萬顆。Meta單一公司的採購量,就可能佔據未來全球產能的相當比例。

NVIDIA CEO黃仁勳在聲明中表示:「Meta正在建造世界上最大的AI工廠之一。我們的合作將橫跨多個世代的技術,從今天的Blackwell到明天的Rubin,確保Meta始終站在AI能力的最前沿。」Meta CEO朱克伯格則回應:「要實現我們對AI的願景——從全球最先進的開源模型到為30億用戶提供智能服務——我們需要前所未有的運算能力。」

數百萬
Blackwell及Rubin
GPU部署量
~$700B
科技巨頭2026年
AI基建總支出
2萬億
Llama 4 Behemoth
參數量(MoE)
20億+
WhatsApp用戶
受惠於機密運算

7000億美元AI基建競賽:一場沒有人敢退出的豪賭

Meta與NVIDIA的合作必須放在更宏觀的背景下理解。2026年,全球科技巨頭在AI基礎設施上的集體支出正逼近一個令人瞠目的數字:近7000億美元。這個數字比2025年增長了約60%,比2024年更是翻了將近三倍。

讓我們拆解這個天文數字。Meta自身在2026年的資本支出預算已上調至600億至650億美元,其中絕大部分用於AI數據中心建設。Microsoft在AI相關基礎設施的年度投入已超過800億美元。Google母公司Alphabet的資本支出突破750億美元。Amazon AWS的投入也在700億美元量級。加上Oracle、Tesla/xAI等玩家,總數輕鬆逼近7000億美元。

這場基建競賽的本質是一個經典的囚徒困境:沒有人確定如此巨額的投入是否會獲得對等回報,但更沒有人敢停下來。正如一位華爾街分析師所言:「這是一場你可能輸的賭博,但不參與的話,你一定會輸。」每家公司都擔心,如果自己減緩投資,而競爭對手持續投入,最終將在AI能力上被不可逆轉地甩開。

AI基建支出的規模對比

7000億美元是什麼概念?這個數字超過了挪威的GDP(約5900億美元),相當於全球半導體產業2024年總營收的1.2倍,也超過了NASA自1958年成立以來的累計預算總和(經通脹調整後約7500億美元)。換言之,科技產業正在以堪比太空探索的尺度投資AI。

值得注意的是,這場競賽正在重塑全球供應鏈和電力基礎設施。NVIDIA的產能已經成為制約AI發展的關鍵瓶頸。據報導,Blackwell GPU的交貨等候時間仍長達6至12個月,而Meta的「數百萬顆」訂單無疑會進一步加劇供應緊張。同時,數據中心對電力的龐大需求正在引發一場能源危機——美國多個州已出現因AI數據中心建設而導致的電網壓力,部分公用事業公司開始對新數據中心連接施加限制。

Blackwell到Rubin:跨世代承諾的深層含義

這份合作協議最不尋常之處,在於它明確提及了「跨世代」的承諾。NVIDIA的產品路線圖已經公開到Rubin(預計2026年下半年至2027年初量產)甚至更遠的Feynman架構。Meta不僅在購買當前最強的Blackwell晶片,更鎖定了尚未量產的下一代技術。

Blackwell架構本身已是一個工程奇蹟。基於台積電4NP製程的B200 GPU擁有2080億個電晶體,配備192GB HBM3e記憶體,單晶片AI推理性能是前代H100的30倍。而Rubin架構預計將採用台積電3nm級製程,搭載HBM4記憶體,性能和能源效率都將再上一個台階。

對Meta而言,鎖定跨世代供應的戰略意義在於確保其模型訓練不會因硬體供應中斷而延誤。訓練一個如Llama 4 Behemoth這樣的2萬億參數MoE(混合專家)模型,需要持續數月佔用數以十萬計的GPU。中途切換硬體架構或面臨供應短缺,成本將是災難性的。

對NVIDIA而言,這份合作鞏固了其在超大規模客戶群中的壟斷地位。儘管AMD的MI300系列和Google的自研TPU v6正在侵蝕NVIDIA的市場份額,但能獲得Meta這種規模的長期承諾,意味著NVIDIA在AI訓練市場的統治地位至少在未來2至3年內難以撼動。根據最新估計,NVIDIA在AI訓練晶片市場的份額仍然超過80%。

WhatsApp機密運算:隱私與AI的終極平衡

這次合作中最引人注目的技術突破,或許是NVIDIA機密運算(Confidential Computing)技術在WhatsApp上的應用。WhatsApp擁有超過20億月活躍用戶,是全球使用最廣泛的通訊應用。如何在不犧牲端到端加密承諾的前提下,為用戶提供AI功能,一直是Meta面臨的核心技術難題。

NVIDIA的機密運算技術提供了一種優雅的解決方案。其核心原理是利用硬體級的可信執行環境(TEE),在GPU內部創建一個加密隔離的「飛地」(enclave)。用戶數據在進入GPU進行AI處理時自動加密,處理結果返回後即銷毀原始數據。整個過程中,即使是Meta的工程師或系統管理員,也無法查看用戶數據的明文內容。

這解決了AI時代通訊隱私的一個根本矛盾:要讓AI理解你的訊息並提供智能回覆建議,AI模型就必須「看到」你的訊息。但端到端加密的承諾是,除了你和接收者,沒有人——包括平台本身——能看到訊息內容。機密運算技術讓這兩個看似矛盾的目標得以共存:AI可以處理數據,但處理過程是在一個連Meta自己都無法窺探的硬體隔離區域中進行的。

什麼是NVIDIA機密運算?

NVIDIA Confidential Computing基於H100及後續GPU的硬體安全特性,利用ARM CCA(Confidential Compute Architecture)和專用的安全處理器,在GPU記憶體中建立加密隔離區。數據在傳輸和計算過程中始終保持加密狀態,只有在GPU的安全飛地內才會被解密處理。該技術已通過多項獨立安全審計,支援遠程認證(Remote Attestation),允許第三方驗證程式碼的完整性而無需查看數據內容。

然而,隱私專家對此持謹慎態度。電子前哨基金會(EFF)的一位研究員指出:「機密運算是一個重大進步,但它不是萬靈丹。硬體漏洞、側信道攻擊以及供應鏈風險仍然存在。更根本的問題是,用戶是否真正理解他們的訊息正在被AI處理,即使這個處理過程是在加密環境中進行的?」

這個擔憂並非空穴來風。歐盟的《數碼市場法》(DMA)和《AI法案》都對基於通訊內容的AI處理設有嚴格規定,即使數據處理在技術上是「機密」的。Meta將需要非常小心地設計WhatsApp AI功能的使用者同意流程和資料處理合規框架,特別是在監管環境最嚴格的歐洲市場。

Llama 4 Behemoth:開源AI的「核武級」升級

Meta與NVIDIA戰略合作的最終產出之一,將是Llama 4 Behemoth——一個預計擁有2萬億參數的混合專家(MoE)模型。如果這個數字準確,它將是目前已知最大的開源(或準開源)語言模型,參數量是其前代Llama 4 Maverick的約3倍。

Llama 4系列的架構已經與早期版本截然不同。從Llama 4 Scout開始,Meta採用了MoE架構——模型包含大量「專家」子網絡,每次推理只激活其中一部分。這使得模型在擁有龐大參數量的同時,推理成本不會線性增長。Behemoth的2萬億參數中,每次推理可能只激活數千億參數,使其實際運行成本遠低於一個同等規模的密集模型。

但訓練這樣一個模型所需的運算量仍然是天文數字。業界估計,訓練一個2萬億參數MoE模型需要數十萬顆Blackwell GPU運行數月,電力消耗可能達到數十兆瓦時。這正是Meta需要「數百萬顆」GPU的原因之一——不僅是為了Behemoth的訓練,還要同時支撐推理服務、研究實驗和下一代模型的開發。

2T
Behemoth
總參數量
MoE
混合專家
架構類型
30億+
Meta應用
月活躍用戶
開源
模型權重
公開策略

Meta堅持開源Llama系列的策略一直備受爭議。批評者認為,這是在免費贈送價值數十億美元的研發成果。但Meta的邏輯其實非常清晰:通過開源,Meta確保了整個AI生態系統圍繞其架構和格式標準建設,從模型微調工具到推理框架,Llama已經成為事實上的行業標準之一。這就像Android之於Google——產品本身是免費的,但它創造的生態系統價值是不可估量的。

NVIDIA在這個策略中扮演著關鍵角色。每一個下載Llama模型並進行微調或部署的開發者和企業,大概率是在NVIDIA的GPU上進行操作的。Meta的開源模型實質上為NVIDIA創造了需求——訓練需要NVIDIA的GPU,微調需要NVIDIA的GPU,推理也需要NVIDIA的GPU。這是一個完美的共生關係:Meta的開源策略擴大了整個AI市場的規模,而NVIDIA作為AI基礎設施的「賣鏟人」,從中獲取了巨大的商業利益。

AI運算市場的權力重組

這次合作對整個AI運算市場的競爭格局將產生深遠影響。首先,它進一步鞏固了NVIDIA的壟斷地位。當全球最大的AI消費者之一以「跨世代」的方式鎖定NVIDIA平台,這對試圖挑戰NVIDIA地位的競爭者——無論是AMD、Intel還是各種AI晶片初創公司——都是一個沉重的打擊。

其次,它可能加速「自研晶片」趨勢的分化。Google一直在推進其TPU系列,目前已迭代到第六代。Amazon有自己的Trainium和Inferentia晶片。Microsoft也在開發代號「Maia」的自研AI加速器。但Meta此次選擇全面擁抱NVIDIA而非自研晶片,傳遞了一個重要信號:在AI硬體這個極度資本密集的領域,即使是Meta這樣的巨頭,也認為依靠NVIDIA是更理性的選擇。自研晶片的前期投入巨大、迭代週期漫長,且在軟體生態(CUDA)方面的差距幾乎不可能在短時間內彌合。

第三,這份合作可能引發連鎖反應。當Meta鎖定了大量NVIDIA產能後,其他超大規模客戶會擔心自己的供應被擠壓,進而可能加速自己的採購決策或尋求替代供應商。這種「搶購效應」在2023至2024年的GPU短缺期間已經上演過一次,而Meta的這份大單可能再次觸發類似的市場動態。

NVIDIA的市場統治力

根據2026年初的最新數據,NVIDIA在AI訓練晶片市場的份額約為82%,在AI推理晶片市場的份額約為65%。其CUDA軟體生態系統擁有超過500萬名註冊開發者,幾乎所有主流AI框架(PyTorch、JAX等)都針對NVIDIA GPU進行了深度優化。AMD的ROCm生態系統雖然在快速追趕,但在穩定性和功能完整度方面仍有明顯差距。

對香港及亞太地區的啟示

Meta與NVIDIA的合作對香港和更廣泛的亞太地區有幾個直接的啟示。首先,WhatsApp是香港最主要的通訊工具之一,機密運算技術在WhatsApp上的部署,意味著香港用戶將是最早體驗「隱私保護AI通訊」的群體之一。然而,這也引發了關於《個人資料(私隱)條例》下數據處理合規性的問題——即使數據在技術上是加密處理的,是否仍需要獲得用戶的明確同意?

其次,7000億美元的AI基建投資浪潮正在外溢到亞太地區。Meta已宣布在東南亞和日本擴建數據中心,NVIDIA也在新加坡和日本設立了區域AI研究中心。香港作為亞太金融科技中心,如何在這波AI基建浪潮中定位自己——是成為區域AI數據中心樞紐,還是專注於AI應用層創新——將是政策制定者需要認真思考的問題。

第三,Llama 4 Behemoth的開源對香港的AI初創公司和研究機構是一個巨大的利好。一個2萬億參數的開源模型,將使這些機構能夠以極低的成本獲取世界級的AI基礎能力,專注於在此之上構建特定領域的應用——無論是粵語自然語言處理、金融風控模型還是醫療診斷系統。

前路展望:合作之下的暗流

儘管這次合作在表面上是一個雙贏的結果,但它也隱藏著一些潛在的風險和張力。

對Meta而言,將如此龐大的基礎設施投資押注在單一供應商上是有風險的。如果NVIDIA因任何原因(供應鏈中斷、地緣政治風險、技術延誤)無法按時交付,Meta的整個AI路線圖都會受到影響。朱克伯格可能記得2023年的GPU短缺如何延誤了Llama 2的訓練計劃。多元化供應鏈通常是更穩健的策略,但Meta顯然認為NVIDIA的技術優勢值得承擔集中風險。

對NVIDIA而言,過度依賴少數超大規模客戶也是一個隱憂。如果Meta、Microsoft、Google和Amazon中的任何一家大幅削減AI投資(雖然短期內不太可能),NVIDIA的營收將受到嚴重衝擊。黃仁勳近年來一直在推動NVIDIA向軟體和服務轉型——從CUDA到Omniverse到NIM微服務——部分原因就是為了減少對硬體銷售的過度依賴。

更宏觀地看,7000億美元的集體AI基建支出能否產生對等的經濟回報,仍是一個巨大的未知數。目前,AI產業的直接收入(主要來自雲端AI服務和AI軟體訂閱)估計約為2000至3000億美元,遠低於基建投入。如果AI應用的貨幣化速度不能加快,這場基建競賽最終可能被證明是歷史上最大的資本錯配之一。但反過來說,如果AI真的如其支持者所預言的那樣,成為「比電力更具變革性的通用技術」,那麼7000億美元可能只是開始。

無論如何,Meta與NVIDIA的這份戰略合作已經為2026年的AI競賽定下了基調:規模即壁壘,速度即生存,而猶豫即死亡。接下來的問題是,其他玩家將如何回應。