Anthropic起訴美國國防部,反對被列為「國家安全供應鏈風險」
Anthropic就美國政府將其列為「供應鏈風險」一事向聯邦法院申請初步禁令。衝突源於Pentagon要求無限制使用Claude AI進行軍事用途,包括自主武器決策,Anthropic拒絕後遭到封殺,CEO Dario Amodei表示公司別無選擇,必須訴諸法律途徑。
2026年3月24日,Anthropic在聯邦法院就美國國防部(Department of War)及白宮將其列為「國家安全供應鏈風險」一事,正式申請初步禁令,標誌著美國AI行業與政府之間最重大的法律對抗正式展開。
衝突的根源
爭端起源於今年2月。美國總統川普與國防部長Pete Hegseth公開宣布切斷與Anthropic的合作關係,原因是Anthropic拒絕允許政府無限制地使用Claude AI模型進行:
- 致命自主武器的決策(無人工監督)
- 對美國公民的大規模監控
Anthropic認為上述用途違背了其「負責任AI發展」的核心原則,因此拒絕配合。
政府的反應與「黑名單」
在談判破裂後,美國政府採取了前所未有的措施,將Anthropic列為「供應鏈風險」,並命令所有聯邦機構停止使用Claude。Anthropic指出,這一「黑名單」制度在歷史上僅用於外國對手企業(如華為),從未被用於針對因政策分歧而拒絕配合的本土美國企業。
Anthropic的法律立場
Anthropic CEO Dario Amodei表示,公司對這一裁定提出了堅決反對:
「我們的公司被列為威脅,不是因為我們做錯了什麼,而是因為我們拒絕讓AI被用於可能造成嚴重傷害的用途。這是前所未有的、也是違法的。我們別無選擇,必須在法庭上挑戰這一決定。」
Anthropic的法律團隊認為,此次政府行為構成對言論自由及企業自主權的侵害,違反了美國《行政程序法》的正當程序要求。
行業的深遠影響
這場法律戰的判決結果,將從根本上界定一個關鍵問題:美國政府能否以「供應鏈風險」為由,懲罰拒絕配合軍事AI用途的本土科技公司? 其影響將遠遠超出Anthropic一家,為整個AI行業與政府的合作邊界設立重要先例。