AI硬體

AMD 推出 AI Endpoint APIs:以 MI350X 提供 OpenAI 相容介面,搶攻開發者入口

新 API 由合作夥伴提供託管算力,主打 OpenAI 相容與大量免費額度,降低模型切換成本。

用「相容介面」降低遷移門檻

AMD 在 AI DevDay 2026 公布 AI Endpoint APIs,主打以 OpenAI 相容的介面形式,讓開發者能以熟悉的呼叫方式使用託管推理服務。對企業與團隊而言,介面相容意味著較少的 SDK 重寫與系統改造,能把更多成本放在模型選型、提示工程、工具調用與安全治理,而不是陷入供應商綁定。

此舉亦反映推理市場競爭由「模型能力」擴展到「入口與生態」:誰能提供更穩定的吞吐、更可預期的成本與更易整合的 API,誰就更容易在代理式工作流程與企業應用中成為預設選項。

MI350X 與多模型選項:把硬體優勢轉成服務

AI Endpoint APIs 以 AMD Instinct MI350X GPU 作為算力基礎,並透過合作夥伴提供託管部署。平台同時提到多個可用模型,涵蓋多模態代理流程與工具使用優化的 MoE 架構,並支援 LoRA 微調、無伺服器使用與專用 GPU 佈署等模式。

對香港的 SaaS 與系統整合商而言,這提供了新的算力供應路線:在成本與供應不確定性上,企業可透過多雲與多供應商策略降低風險,並把同一套應用同時部署在不同推理平台,以提升議價能力與可用性。

大額免費額度背後的策略訊號

AMD 同步提供開發者計畫的 2,500 萬免費 API tokens,顯示其策略是先用額度與相容性換取試用與遷移,再以長期工作負載沉澱營收。對開發者來說,真正關鍵在於:推理價格、延遲與可用區域是否能滿足生產需求,以及在資料隔離、日誌、權限與合規上能否提供企業級工具。