AI硬體

Meta加速自研MTIA AI晶片:兩年推四代、主攻生成式推理

Meta把自研MTIA定位為AI基礎設施核心,並在兩年內規劃四代迭代,以更高效率支援推薦系統與生成式AI推理。

Meta宣布把自研的Meta Training and Inference Accelerator(MTIA)視為AI基礎設施策略的核心,並以「更貼合自身工作負載」為目標,透過硬件與軟件全棧協同來提升成本效益。公司表示,現時已在旗下應用的內容分發與廣告等場景部署大量MTIA作推理用途,並強調其設計聚焦於效率與可擴展性,務求在大規模流量下維持穩定吞吐與能耗表現。

兩年四代的迭代節奏

Meta透露將在未來兩年內開發及部署四個新世代:MTIA 300、400、450、500,迭代速度遠快於傳統晶片週期。當中MTIA 300已投入量產,主要用於推薦與排序系統的訓練;其後的MTIA 400/450/500則被定位為更通用的加速器,可處理多類型AI工作負載,但短期內會優先支援生成式AI推理的生產環境,以應付日益增加的即時互動需求。

從推薦到生成式AI的算力布局

Meta指出,生成式AI推理在延遲、記憶體頻寬與成本控制上有更嚴苛要求,因此自研晶片會採取「推理優先」策略,並以模組化方式設計,讓新晶片可直接沿用既有機櫃與資料中心基礎設施,降低導入摩擦。同時,系統軟件層面亦以主流生態為依托,讓模型部署與效能調校可沿用熟悉工具鏈。對企業而言,這反映大型平台正把AI算力從單純採購轉向自研與混合供應,以在成本、供應鏈與性能之間取得更可控的平衡。