AI硬體

Meta加速自研AI晶片路線圖:兩年四代MTIA瞄準GenAI推理成本

Meta公布MTIA自研晶片將在兩年內推出四代,並把重心放在生成式AI推理工作負載。

從GPU依賴走向自研加速器組合

隨著生成式AI推理需求長期化,雲端與大型平台面臈的核心問題不只是「買到更多GPU」,而是如何把每一次推理的單位成本壓到可持續的水平。Meta宣布在既有自研加速器MTIA基礎上,於未來兩年內推出四個世代的晶片,並強調模組化設計可直接沿用既有機架與系統基礎設施,縮短從研發到上線的週期。這類策略顯示大型平台正把晶片視為基礎能力,而非單純採購品,目標是把演算法、框架與硬體協同優化。

推理優先的設計取向與產業外溢

在工作負載定位上,Meta指出後續世代將更偏向支援生成式AI推理的量產需求,先把推理做好,再延伸到其他訓練或推薦系統。這種「推理優先」的路線意味平台更在意實際服務大量用戶的吞吐與能效,而非只追逐訓練峰值。對香港及區內企業而言,影響可能體現在兩個方向:其一,平台若能以自研晶片降低推理成本,會更願意把AI能力下放到更多產品線與地區;其二,供應鏈將更重視軟硬整合、機架級系統與資料中心設計,相關零組件、散熱與電力管理的需求也可能同步上升。