AI硬體
Meta 與 Broadcom 共研自訂 AI 晶片:MTIA 路線圖瞄準推薦與生成式推論
Meta 擴大與 Broadcom 的合作,共同開發多代自訂加速器與網路技術,提升 AI 叢集效率與成本表現。
自訂加速器成為平台公司的關鍵戰略
Meta 宣布擴大與 Broadcom 的合作,共同開發多代自訂 AI 晶片與相關封裝、網路方案。對大型平台而言,自訂加速器的目的不是全面取代 GPU,而是針對特定工作負載取得更佳的效能與總擁有成本。以推薦系統與大規模推論為例,運算型態、記憶體存取與網路通訊都有固定特徵,若能在晶片架構、互連與封裝層面做更深的協同設計,就有機會以更少能源與更高吞吐量支撐同等服務規模。這也解釋了為何近年雲端與平台公司紛紛投入自研或共研晶片,並把「算力供應鏈」視為長期競爭護城河。
從晶片到網路:叢集效率取決於整體系統
值得注意的是,合作範圍並不只在加速器本體,還涵蓋資料中心網路與叢集擴張。當模型越來越大,訓練與推論往往需要多節點協同,網路延遲與頻寬會直接影響實際效能。透過在 Ethernet 與叢集互連上做優化,能降低通訊開銷,讓同一批硬體發揮更高利用率。對企業採購者而言,未來評估 AI 基礎設施不能只看單顆晶片規格,而要把加速器、網路拓撲、儲存與軟體堆疊一起看,並以每單位推論成本、每瓦吞吐量與可擴展性作為核心指標。