NVIDIA第四季業績:657億美元營收背後的AI引擎全解析

文章重點

  • NVIDIA於2月25日盤後公佈FY2026第四季業績,預期每股盈利1.53美元(按年增71.9%),營收657億美元(按年增67%),數據中心收入預計607億美元,佔總營收逾九成
  • Blackwell架構晶片貢獻數據中心營收約三分之二,推理性能較前代提升25倍;下一代Vera Rubin平台已於CES發佈,推理成本僅為Blackwell的十分之一
  • 四大超大規模客戶(Alphabet、Microsoft、Meta、Amazon)2026年AI資本開支合計達7,000億美元,NVIDIA累積訂單積壓達5,000億美元,但記憶體供應短缺構成產能瓶頸
  • Meta擴大合作部署Blackwell與Rubin處理器,並成為Grace CPU首個大規模商用客戶;FY2027第一季指引預計約725億美元(按年增64%)
  • 地緣政治風險加劇:北京阻止H200進口、Google TPU與AMD搶佔市場份額、超大規模客戶自研晶片加速,NVIDIA的壟斷地位面臨多方位挑戰

一、657億美元的季度:AI軍備競賽的「軍火商」有多賺錢

2026年2月25日美股收市後,全球市值最高的上市公司NVIDIA發佈了FY2026第四季度業績報告。華爾街預期這將是又一份打破紀錄的成績單:營收657億美元,按年增長67%;每股盈利1.53美元,按年飆升71.9%。即使以NVIDIA過去兩年持續「超預期」的標準來衡量,這組數字仍然令人驚嘆——一家半導體公司在單一季度實現的營收,已經超過了絕大多數科技巨頭的全年收入。

但真正揭示NVIDIA商業模式核心的,不是總營收的增幅,而是業務結構的極端集中度。數據中心業務預計貢獻607億美元,佔總營收的92%以上,按年增長約70%。這意味着NVIDIA的遊戲顯卡、專業可視化、汽車業務等傳統部門,在公司整體版圖中已經接近邊緣化。NVIDIA不再是一家「GPU公司」,它已經徹底蛻變為一家「AI基礎設施壟斷者」——而這個壟斷者恰好也賣顯卡。

這種業務集中度在半導體行業史上幾乎找不到先例。即使在Intel最鼎盛的時期,其伺服器晶片業務佔總營收的比例也從未超過35%。NVIDIA超過90%的營收依賴單一業務線,表面上看是一種危險的「孤注一擲」,但在AI基礎設施需求呈指數增長的當下,這更像是一種精準的戰略聚焦——問題在於,這種增長能持續多久。

$657億
Q4預期營收
+67%
營收按年增長
$607億
數據中心收入
~92%
數據中心佔比

二、Blackwell的統治力:為何三分之二的數據中心收入來自同一架構

本季業績中最值得深入分析的數據點,是Blackwell架構晶片預計貢獻了數據中心營收的三分之二——約400億美元的季度收入來自一款在2024年下半年才開始規模出貨的產品。這種產品世代轉換的速度,在半導體行業中前所未見。

Blackwell的商業成功源於一個簡單但威力巨大的技術事實:它的AI推理性能是前代Hopper架構的25倍。「25倍」不是營銷噱頭,而是意味着企業客戶用同樣的硬件預算,可以運行25倍規模的AI推理工作負載。對於每天處理數十億次AI查詢的超大規模雲端服務商而言,這種性能跨代提升直接轉化為數十億美元級別的運營成本節省。

更深層的戰略意義在於,Blackwell的成功驗證了NVIDIA的「平台鎖定」策略。NVIDIA不僅銷售晶片,還提供CUDA軟件生態系統、NVLink高速互連技術、以及完整的AI訓練和推理軟件棧。當企業客戶在Blackwell平台上投入數十億美元建設AI基礎設施後,轉換到其他廠商(無論是AMD、Google TPU還是自研晶片)的遷移成本就會變得極為高昂。這就是為什麼即使市場上已經出現了多個替代方案,NVIDIA仍然能夠維持超過70%的毛利率——它賣的不是晶片,而是一整套不可輕易替代的技術棧。

但Blackwell的主導地位也引發了一個供應鏈層面的關鍵問題。Blackwell採用了台積電的先進封裝技術CoWoS(Chip on Wafer on Substrate),這種封裝工藝的產能在全球範圍內極為稀缺。當三分之二的數據中心收入依賴一款需要特定封裝工藝的產品時,任何CoWoS產能的波動都可能直接衝擊NVIDIA的營收軌跡。這不是假設性的風險——台積電已多次表示CoWoS產能「供不應求」,而NVIDIA的訂單量還在持續攀升。

三、5,000億美元訂單積壓與記憶體荒:增長的天花板在哪裡

NVIDIA截至2026年底的訂單積壓據報達到5,000億美元——這是一個令人難以消化的數字,相當於公司接近兩年的營收。在正常的商業邏輯下,巨額訂單積壓是業績確定性的保障;但在AI晶片市場,它同時也暴露了一個令投資者不安的現實:NVIDIA的增長瓶頸可能不在需求端,而在供應端。

記憶體供應短缺是當前最突出的產能限制因素。AI加速器需要搭配大量的高頻寬記憶體(HBM),而全球HBM的生產幾乎完全由三家韓國和美國廠商掌控——三星、SK海力士和Micron。Micron的管理層已在近期財報電話會議中明確表示,HBM的需求「遠遠超過了供應」。這意味着即使NVIDIA的GPU晶片本身產能充裕,缺少配套的HBM記憶體,成品系統也無法交付給客戶。

這個瓶頸的嚴重性在於它不受NVIDIA自身的控制。NVIDIA可以與台積電談判增加晶圓產能,可以優化封裝工藝的良率,但它無法命令記憶體廠商在短期內大幅擴充HBM產線——因為HBM的製造需要專門的設備和工藝,產能擴充的前置時間長達18-24個月。這意味着到2026年底之前,記憶體短缺很可能持續制約NVIDIA的出貨量。

從投資者的角度看,5,000億美元的訂單積壓是一把雙刃劍。一方面,它提供了極高的營收可見性——即使AI投資周期出現短期波動,NVIDIA也有足夠的訂單緩衝。另一方面,過長的交付等待時間可能促使客戶加速評估替代方案。當一家超大規模客戶被告知NVIDIA的交付週期長達6-9個月時,它會更認真地考慮Google TPU、AMD MI系列、甚至自研晶片的可能性。壟斷的護城河最脆弱的時刻,往往不是產品不夠好的時候,而是供應跟不上需求的時候。

「HBM記憶體的需求遠遠超過了供應。我們正在與所有主要AI晶片客戶合作,盡一切努力加速產能擴充,但短期內的供需缺口仍然顯著。」——Micron Technology管理層,2026年2月

四、7,000億美元資本開支:超大規模客戶的「無限預算」能持續多久

理解NVIDIA業績的核心,離不開對其客戶群的分析。Alphabet、Microsoft、Meta和Amazon四大超大規模客戶在2026年的AI資本開支合計預計達到7,000億美元。這個數字的規模感需要一些對比才能充分體會:它超過了全球大多數國家的年度國防預算,相當於台灣半導體產業年產值的近四倍,也超過了整個東盟地區的年度基礎設施投資總額。

Meta的動向尤其值得關注。這家公司不僅大幅擴大了與NVIDIA的合作——部署Blackwell和下一代Rubin處理器——還成為了Grace CPU的首個大規模商用客戶。Grace是NVIDIA基於ARM架構自研的伺服器CPU,其戰略意義在於讓NVIDIA從GPU加速器擴展到了完整的伺服器計算平台。Meta率先採用Grace CPU,意味着NVIDIA正在從「賣零件」向「賣整機」轉型,這將進一步壓縮AMD和Intel在伺服器CPU市場的空間。

但7,000億美元的資本開支浪潮也引發了一個市場一直在迴避的根本性問題:這些投資的回報率是否足以支撐持續的支出增長?目前,四大超大規模客戶的AI相關收入增長確實強勁——Microsoft的Azure AI服務、Google Cloud的Vertex AI平台、Amazon的Bedrock和AWS AI服務都在快速擴張。但7,000億美元的年度資本開支意味着,這些公司需要從AI業務中獲取數千億美元的增量收入才能實現合理的投資回報。

歷史上,科技行業的大規模基礎設施投資周期(如2000年代的光纖建設潮、2010年代的雲端數據中心擴張)都經歷過「過度投資—產能過剩—支出收縮」的周期性調整。AI基礎設施投資是否會重蹈覆轍?樂觀者認為AI的應用場景遠比過去的技術周期更加廣泛,因此投資回報的可持續性更強;悲觀者則指出,當所有人都在同時建設AI基礎設施時,產能過剩只是時間問題。對NVIDIA而言,這場辯論的結論將直接決定其營收增長曲線的形態——是持續的指數增長,還是終將到來的S型收斂。

$7,000億
四大客戶AI資本開支
$5,000億
NVIDIA訂單積壓
$725億
Q1 FY2027指引
25倍
Blackwell推理性能提升

五、Vera Rubin與GTC 2026:下一個增長飛輪已經啟動

在華爾街聚焦於Blackwell的當下表現時,NVIDIA的產品路線圖已經指向了更遠的未來。2026年1月在CES上發佈的Vera Rubin平台,代表着NVIDIA對AI晶片「下一個十年」的戰略佈局。Vera Rubin最核心的技術承諾是:推理成本降至Blackwell的十分之一。

「十分之一」的推理成本意味着什麼?如果Blackwell已經將AI推理的經濟性提升了25倍,那麼Vera Rubin將在此基礎上再削減90%的成本。這將使AI推理從目前主要由大型科技公司承擔的昂貴計算任務,轉變為幾乎任何規模的企業都能負擔的基礎能力。這不僅僅是量的變化,而是質的躍遷——它意味着AI推理將真正實現「普及化」,從雲端大型集群延伸到邊緣設備、工業場景甚至消費者終端。

NVIDIA對Vera Rubin的定位揭示了黃仁勳的長期戰略思維。在AI行業的當前階段,訓練(Training)仍然是GPU需求的主要驅動力——大型語言模型的預訓練需要消耗海量的計算資源。但隨着基礎模型逐漸成熟,行業的重心將不可避免地從訓練轉向推理(Inference)——即利用訓練好的模型來處理實際的用戶請求。推理的計算需求在規模上遠超訓練:一個模型只需要訓練一次,但可能需要處理數萬億次推理查詢。NVIDIA通過Vera Rubin提前佈局推理經濟性,本質上是在為AI產業的「第二階段」——從建設基礎設施到大規模應用落地——搶佔先機。

更值得關注的是即將於2026年春季舉行的GTC大會上,NVIDIA據悉將發佈一款「特別晶片」。市場猜測這可能是針對特定AI工作負載(如大模型推理或科學計算)的專用加速器,也可能是Vera Rubin平台的早期工程樣品。無論具體內容為何,GTC的晶片發佈將為投資者提供關於NVIDIA未來12-18個月產品競爭力的關鍵信號。

NVIDIA AI晶片架構演進路線

Hopper(H100/H200):2022-2024年主力架構,開創了AI訓練大規模部署時代,目前仍在中國市場受出口管制限制
Blackwell(B100/B200/GB200):2024-2026年主力架構,推理性能較Hopper提升25倍,貢獻Q4數據中心收入三分之二
Vera Rubin:下一代平台,推理成本降至Blackwell十分之一,預計2026年下半年開始出貨
Grace CPU:NVIDIA首款ARM架構伺服器CPU,Meta成為首個大規模商用客戶,標誌NVIDIA從GPU廠商向完整伺服器平台供應商轉型
GTC 2026特別發佈:預計將公佈針對特定AI工作負載的專用晶片,進一步擴展產品矩陣

六、地緣政治與競爭格局:壟斷者的三面圍攻

NVIDIA的財報數字令人眩目,但在光鮮的業績背後,這家公司面臨着來自地緣政治、競爭對手和客戶自研三個方向的同步壓力,且每一個壓力源都在持續升溫。

中國市場:從限制到封鎖。美國對華AI晶片出口管制已經從2022年的「精準限制」升級為2026年的「全面封鎖」。北京方面更進一步,直接阻止NVIDIA的H200晶片進口——這意味着即使是符合美國出口管制門檻的「閹割版」產品,也無法進入中國市場。中國曾經佔NVIDIA數據中心收入的20-25%,這一市場的實質性關閉,意味着每年數百億美元的潛在收入損失。雖然NVIDIA近期的營收增長足以抵消中國市場的缺失,但從長期來看,一個擁有全球最多AI研究人員和最強政策驅動力的市場被永久排除在客戶名單之外,對任何企業而言都不是小事。

技術競爭:多路夾擊。Google的TPU(Tensor Processing Unit)已經發展到第六代,在大模型訓練和推理方面展現出與NVIDIA GPU可比擬的性能。更重要的是,Google為TPU打造了一套完整的軟件生態(JAX/XLA),這使得在Google Cloud上使用TPU的開發體驗已經接近CUDA的水平。AMD則通過與OpenAI的重大合作協議,首次在最頂級的AI客戶中打入了NVIDIA的腹地——OpenAI選擇在部分工作負載上使用AMD的MI系列加速器,這是對NVIDIA「唯一選擇」地位的一次象徵性突破。

客戶自研:最深層的威脅。四大超大規模客戶——Google(TPU)、Amazon(Trainium/Inferentia)、Microsoft(Maia)、Meta(MTIA)——都在積極開發自研AI晶片。這種「客戶變競爭對手」的動態,是NVIDIA面臨的最深層結構性風險。當你最大的客戶同時也在研發替代你產品的方案時,商業關係中的權力天平就會發生微妙但持續的傾斜。短期內,自研晶片的性能和生態成熟度仍然無法與NVIDIA抗衡;但長期來看,當超大規模客戶每年投入數十億美元研發自研晶片時,技術差距的收窄只是時間問題。

對NVIDIA而言,應對這三重壓力的核心策略是「跑得比追趕者更快」——通過不斷加速產品迭代(從Hopper到Blackwell到Vera Rubin,每一代的性能跨越都是數量級的),維持足夠大的技術領先優勢,使追趕者永遠處於「追上上一代、但追不上最新一代」的狀態。到目前為止,這個策略運作良好,但它的風險在於:一旦NVIDIA的產品迭代速度放緩,或者某個競爭對手實現了真正的架構性突破,追趕者可能會突然縮小差距。

七、香港與亞洲半導體生態:657億美元流向了誰

NVIDIA每季度數百億美元的營收,最終都轉化為對全球半導體供應鏈的巨額採購。而亞洲——特別是台灣、韓國、日本和香港——在這條供應鏈中佔據着不可或缺的位置。理解NVIDIA的業績,也就是理解亞洲半導體生態的脈搏。

台積電是NVIDIA最核心的供應鏈夥伴。Blackwell和Vera Rubin的晶片製造、CoWoS先進封裝,幾乎完全依賴台積電的產能。NVIDIA每季度超過600億美元的數據中心收入中,相當一部分以代工費和封裝費的形式流向了台積電。這種深度依賴使台積電成為AI晶片繁榮的最大受益者之一,但也使NVIDIA暴露在台海地緣政治風險之下——儘管這是一個業界普遍面臨但鮮少公開討論的風險因素。

韓國的三星和SK海力士則是HBM記憶體的關鍵供應商。如前文所述,HBM供應短缺是NVIDIA當前最大的產能瓶頸,而解決這一瓶頸的鑰匙掌握在首爾而非矽谷手中。SK海力士目前在HBM市場佔據約50%的份額,其在韓國利川和中國無錫的工廠正在全力擴產,但新產能要到2027年才能大規模釋放。

對香港而言,NVIDIA的業績繁榮帶來了多層面的影響。首先,香港作為亞太區最重要的科技股交易中心之一,NVIDIA及其供應鏈公司的股價表現直接影響港股半導體板塊的估值。其次,香港的數據中心產業正處於快速擴張期——多家國際雲端服務商正在香港擴建AI就緒型數據中心,這些設施的核心計算設備正是NVIDIA的GPU集群。第三,香港的金融機構是NVIDIA晶片的間接但重要的終端用戶——投資銀行的量化交易、風險建模、以及日益普及的AI輔助研究分析,都依賴NVIDIA的GPU算力。

更宏觀地看,NVIDIA的營收增長軌跡是亞洲半導體產業鏈「從製造走向價值鏈上游」的一面鏡子。當AI晶片的價值中樞從硬件本身轉向軟件生態和平台服務時,那些僅僅提供製造和封裝服務的亞洲供應商,能否在NVIDIA的價值鏈中獲取更高的利潤份額,將是決定亞洲半導體產業未來十年競爭力的關鍵問題。

八、前瞻展望:725億美元指引與AI晶片的下一章

市場對NVIDIA FY2027第一季度的營收指引預期約為725億美元,按年增長約64%。如果這一指引得到確認,它將傳達兩個關鍵信息:第一,AI基礎設施的需求動能在2026年上半年仍然強勁,沒有出現放緩跡象;第二,從67%到64%的增速微降,可能暗示NVIDIA正在接近某種增長率的「正常化」——不是衰退,而是從超高速增長過渡到高速增長。

725億美元的季度指引意味着NVIDIA的年化營收運行率已接近3,000億美元。作為對比,Intel在其巔峰時期的年營收約為800億美元。NVIDIA已經成為半導體行業歷史上最大的營收創造者,且其增長曲線仍未顯示出見頂跡象。這種規模的增長對整個半導體產業鏈的意涵是深遠的:從矽晶圓供應、晶片設計工具、光罩製造、到先進封裝和測試,幾乎每一個環節都需要為NVIDIA不斷膨脹的產能需求進行擴容。

然而,高增長永遠伴隨着高風險。對NVIDIA未來四到六個季度的業績軌跡而言,以下幾個變數最值得追蹤。其一,Vera Rubin的量產進度——如果這款下一代平台能夠按計劃在2026年下半年開始出貨,它將為NVIDIA打開一個全新的推理市場空間;如果量產延遲,則可能出現Blackwell到Vera Rubin之間的產品世代「青黃不接」期。其二,超大規模客戶的資本開支節奏——7,000億美元的年度AI投資是否會在2027年繼續增長,還是將進入一個消化期?其三,自研晶片的替代效應——Google、Amazon等客戶的自研晶片在內部部署的比例如果顯著提升,將直接侵蝕NVIDIA的可觸達市場規模。

「我們正處於一場計算領域的產業革命之中。每一家公司、每一個行業都在重新思考如何利用AI加速其核心業務。這不是一個周期性現象,而是一個持久的結構性轉變。」——黃仁勳,NVIDIA創始人兼CEO

黃仁勳的這番話,既是對NVIDIA商業敘事的濃縮,也是對市場的一種期望管理。「結構性轉變」這個定性判斷至關重要:如果AI確實代表一場持久的產業革命(類似互聯網或電力的普及),那麼NVIDIA當前的估值和增長預期就是合理的;如果AI投資最終被證明是一個周期性泡沫(類似2000年的互聯網泡沫),那麼NVIDIA作為「軍火商」的營收將在泡沫破裂後劇烈收縮。

作為全球市值最高的上市公司,NVIDIA的業績報告已經不僅僅是一家公司的財務事件——它是全球AI產業的晴雨表、半導體供應鏈的健康指標、以及科技投資情緒的風向標。657億美元的季度營收和725億美元的前瞻指引告訴我們,至少在2026年上半年,這台AI引擎仍在全速運轉。但在引擎的轟鳴聲中,記憶體短缺的吱嘎聲、地緣政治的暗流、以及客戶自研晶片的腳步聲,正在變得越來越清晰。NVIDIA的下一章故事,將在這些力量的交匯處書寫。