LLM

Anthropic 與 SpaceX 達成算力合作,上調 Claude 使用上限

透過新增大型算力來源,Claude Code 與 API 的速率與用量限制同步調整,並把焦點放在重度用戶的穩定體驗。

算力擴張帶動用量上調

近期大型模型供應商的競爭,已從模型能力延伸到可持續的推理與訓練算力。Anthropic 表示,因為新增了關鍵算力來源,現已把 Claude Code 以及 Claude API 的多項使用限制上調,並針對最頻繁使用的付費客戶改善高峰期體驗。對開發者而言,這代表在長時間編碼協作、批次任務與多回合推理等情境下,更不容易因額度不足而被迫中斷工作流程。

與 SpaceX 的資料中心合作重點

這次合作的核心,是 Anthropic 簽署協議使用 SpaceX 位於 Colossus 1 的資料中心算力,預期在短期內為其服務增加超過 300MW 的新容量,並涉及超過 22 萬張 NVIDIA GPU。Anthropic 指出,新增的容量會直接改善 Claude Pro 與 Claude Max 等訂閱方案的可用性;同時也把 Claude Opus 等模型在 API 端的速率上限提高,讓企業與工具開發者更容易把 Claude 置入生產系統。

對市場與企業採用的含意

大模型的商業化不只看能力,也取決於「供應能否跟上需求」。在算力供應更穩定後,平台有空間把更多限制從「保守控制」轉為「體驗優先」,並把差異化放在方案分級與企業服務上。對香港與區內企業而言,若使用者量與任務量持續擴大,供應商的算力佈局與地區推理能力,將成為評估採用哪個模型平台的重要因素。