AI硬體

Google 發布第八代 TPU:訓練專用 8t 與推論專用 8i 分工,正面挑戰英偉達

Google 在 Cloud Next 2026 上發布第八代 TPU,首次推出訓練專用 TPU 8t 與推論專用 TPU 8i 兩款獨立架構晶片,8t 較上代提升 2.8 倍訓練性能,8i 推論每美元性能提升 80%,預計今年底正式供應。

首次訓練推論分工:TPU 8t 與 TPU 8i

Google 在 Cloud Next 2026 大會上發布第八代張量處理單元(TPU),首次推出兩款架構截然不同的獨立晶片:訓練專用的 TPU 8t,以及推論專用的 TPU 8i。這是 Google TPU 歷史上首次將單一世代分拆為兩個針對不同工作負載深度優化的 SKU。

TPU 8t 專為大規模模型訓練而設計,單個超級集群(superpod)可擴展至 9,600 枚晶片,配備高達 2 拍位元組(petabyte)的共享高頻寬記憶體,運算性能較上代 Ironwood 提升約 2.8 倍,訓練週期有望從數月縮短至數週。TPU 8t 由 Broadcom 設計,支援 JAX、PyTorch 及裸金屬存取,大幅降低框架鎖定風險。

TPU 8i:為代理時代而生的推論晶片

TPU 8i 專攻低延遲推論場景,由 MediaTek 設計,配備 384 MB 片上 SRAM,較上代增加三倍,確保模型活躍工作集常駐片上以消除記憶體瓶頸。其晶片間互連頻寬達 19.2 Tb/s,同時引入新型 Boardfly 拓撲,令混合專家(MoE)與推理工作負載的網路直徑縮短約 56%。整體而言,TPU 8i 的推論性價比較上代提升 80%,意味著相同成本可服務約兩倍用量。

兩款晶片均搭載 Google 自研 Axion ARM 架構 CPU 主機,並支援 JAX、vLLM、SGLang 及 PyTorch(TorchTPU 預覽版),預計今年底正式推出。目前 Anthropic 已承諾使用最多 100 萬枚 Google TPU,Meta 亦傳洽購,顯示 TPU 生態正快速擴展至 Alphabet 以外的客戶群。