OpenAI攜手Cerebras打破NVIDIA壟斷:GPT-5.3-Codex-Spark實現「即時」編程

文章重點

  • OpenAI推出GPT-5.3-Codex-Spark,首次在Cerebras Systems硬體上運行主力AI模型
  • Spark模型在超低延遲硬體上實現每秒超過1,000個Token的生成速度
  • 這是OpenAI首次在NVIDIA以外的基礎設施上進行重大推理部署
  • 同步推出的GPT-5.3-Codex則在NVIDIA Blackwell GB200 NVL72系統上運行
  • ChatGPT Pro用戶率先體驗Spark模型的研究預覽版

打破壟斷的第一槍

OpenAI在2月12日做出了一個可能重塑AI產業格局的決定:將其最新的程式碼生成模型GPT-5.3-Codex-Spark部署在Cerebras Systems的硬體上,而非長期依賴的NVIDIA GPU。這是OpenAI歷史上首次在非NVIDIA基礎設施上進行重大推理部署。

這一舉動的象徵意義遠大於技術本身。長期以來,OpenAI一直被視為NVIDIA最重要的客戶之一,兩家公司的命運深度綁定。現在,OpenAI正公開展示其多元化硬體策略,這對NVIDIA在AI推理市場的主導地位是一個明確的挑戰。

雙模型策略:深度vs速度

OpenAI此次實際上同時推出了兩個程式碼生成模型,形成互補的「雙模型」策略:

1,000+
Spark每秒Token數
25%
比GPT-5.2速度提升
100億+
Cerebras合約規模(美元)
750MW
三年計算電力
  • GPT-5.3-Codex(完整版):OpenAI最強大的代理式編程模型,在NVIDIA Blackwell GB200 NVL72系統上運行。適合複雜的多步驟程式碼生成和重構任務,比GPT-5.2快25%。OpenAI甚至透露,這個模型「在創建自身的過程中發揮了重要作用」。
  • GPT-5.3-Codex-Spark(精簡版):專為即時回應設計的精簡模型,在Cerebras硬體上運行。適合快速代碼補全、即時問答和互動式編程,生成速度超過每秒1,000個Token。

Cerebras的技術優勢

Cerebras Systems的核心產品是全球最大的AI晶片——Wafer Scale Engine(WSE)。與NVIDIA的GPU不同,Cerebras的晶片佔據整片晶圓,擁有超過4萬億個電晶體和數百萬個AI計算核心。這種設計消除了傳統系統中晶片間通信的瓶頸,特別適合需要低延遲的推理任務。

OpenAI與Cerebras的合約規模

據報導,OpenAI與Cerebras簽署了一份超過100億美元的合約,涵蓋三年內750兆瓦的計算電力。這是Cerebras迄今最大的商業合約,也將OpenAI從NVIDIA的單一供應商模式中解放出來。

「自我創造」的模型

GPT-5.3-Codex的一個引人注目的細節是:OpenAI透露這個模型「在創建自身的過程中發揮了重要作用」(was instrumental in creating itself)。這意味著AI已經開始參與自身的設計和優化過程,這是通往自我改進AI系統的一個重要步驟。

雖然OpenAI沒有詳細解釋具體細節,但業界推測這可能涉及模型在訓練數據策劃、超參數調整和架構搜索等環節中的應用。如果屬實,這標誌著AI開發從完全由人類主導的過程,正在向人機協作甚至AI自主開發的方向演進。

與Anthropic的15分鐘之爭

值得一提的是,GPT-5.3-Codex的發布時間本身就是一段軼事。據TechCrunch報導,OpenAI和Anthropic原本都計劃在2月5日太平洋時間上午10點發布各自的代理式編程模型。然而,Anthropic在最後一刻將發布時間提前了15分鐘。

這15分鐘的搶跑,生動地體現了AI編程工具市場的激烈競爭。兩家公司的產品在功能上高度重疊,都瞄準了「AI自主編寫和維護軟體」的願景。

對開發者的影響

對於日常使用AI編程工具的開發者而言,Spark模型的最大吸引力在於其「即時」回應體驗。每秒超過1,000個Token意味著一段數百行的程式碼可以在不到一秒內生成,這將從根本上改變程式碼補全和互動式編程的體驗。

目前,GPT-5.3-Codex-Spark以研究預覽版的形式向ChatGPT Pro用戶開放。OpenAI預計在未來數週內向更多用戶群開放,並在之後向API開發者提供存取權限。