五角大樓vs Anthropic:AI軍事化的倫理紅線之爭,一場重塑科技-國防關係的對峙

文章重點

  • 國防部長Pete Hegseth據報「接近」與Anthropic斷絕關係,並考慮將其列為「供應鏈風險」
  • 爭議核心:Anthropic堅持兩條紅線——禁止大規模國內監控和全自主武器
  • 五角大樓要求四家AI公司(Anthropic、OpenAI、Google、xAI)允許軍方「合法用途」的全面使用
  • Claude是目前唯一部署在軍方機密系統中的AI模型,合同價值高達2億美元
  • 「供應鏈風險」標籤通常用於外國對手,若施加於美國公司將是前所未有的

一場不對等的對峙

2026年2月16日,據Axios率先報道,美國國防部長Pete Hegseth「接近」切斷與Anthropic的業務關係。更令人震驚的是,五角大樓正在考慮將Anthropic列為「供應鏈風險」——這種標籤通常保留給外國對手,意味著所有希望與美國軍方合作的公司都必須斷絕與Anthropic的關係。

五角大樓首席發言人Sean Parnell的聲明措辭嚴厲:「國防部與Anthropic的關係正在接受審查。我們的國家要求合作夥伴願意幫助我們的戰士在任何戰鬥中獲勝。歸根結底,這關乎我們的部隊和美國人民的安全。」

爭議的核心:兩條紅線

矛盾的根源可以追溯到數月前。五角大樓要求Anthropic、OpenAI、Google和xAI四家AI公司允許軍方將其AI工具用於「所有合法用途」,包括武器開發、情報收集和戰場作戰。

其他三家公司的立場相對靈活,但Anthropic堅持了兩條不可觸碰的紅線:禁止Claude被用於大規模國內監控美國公民,以及禁止用於開發全自主武器(即不需要人類參與決策即可發起攻擊的系統)。

Anthropic發言人表示:「我們正在與國防部進行善意的、有建設性的對話,討論如何繼續合作並正確處理這些新的複雜問題。」

Claude在軍方的特殊地位

這場對峙的複雜性在於Claude在美國軍方中的特殊地位。Claude是目前唯一部署在軍方機密系統中的AI模型。Anthropic去年夏天與五角大樓簽署了一份價值高達2億美元的合同。

一位官員承認,軍方很難迅速替換Claude,因為「其他模型公司在專業政府應用方面仍然落後」。這意味著五角大樓在威脅Anthropic的同時,實際上也在威脅自己的AI能力。

什麼是「供應鏈風險」標籤?

在國防採購體系中,被列為「供應鏈風險」意味著該實體被視為對軍事供應鏈的潛在威脅。任何希望與美國軍方合作的公司都必須切斷與被標記實體的業務關係。這一措施此前主要用於中國和俄羅斯的企業。將其應用於一家美國公司將是前所未有的,也將引發嚴重的法律和政治後果。

委內瑞拉事件的陰影

據華爾街日報報道,Claude曾被用於美國軍方捕獲前委內瑞拉總統Nicolás Maduro的行動。這一報道揭示了AI在軍事行動中的實際應用已經比公眾認知的更為深入,也解釋了為什麼五角大樓如此重視確保AI工具的不受限使用。

然而,這也恰恰是Anthropic擔憂的核心——當AI被用於高風險的軍事和情報行動時,缺乏明確的使用邊界可能導致不可預見的後果。

Anthropic內部的張力

除了CEO Dario Amodei對AI風險的公開擔憂之外,Anthropic還面臨來自內部工程師的壓力。有報道稱,公司內部對與五角大樓的合作存在「不安」。在矽谷,科技公司與軍方的合作長期以來都是一個敏感議題——Google在2018年就因員工抗議而退出了五角大樓的Project Maven。

財務影響有限,戰略影響深遠

從財務角度看,失去五角大樓的合同不會對Anthropic造成致命打擊——公司的年化收入率已超過90億美元,其中80%以上來自企業客戶。但「供應鏈風險」標籤的影響遠比失去一份合同嚴重得多。

如果任何與五角大樓合作的公司都不能使用Claude,這將直接影響Anthropic在國防承包商、航空航天企業和政府服務公司中的市場機會——這些客戶群的規模遠超五角大樓本身的合同價值。

$2億
Anthropic五角大樓合同價值
唯一
部署在軍方機密系統的AI
$90億+
Anthropic年化收入率
4家
被要求開放軍用的AI公司

更廣泛的行業影響

這場對峙的結果將為整個AI行業設定先例。如果五角大樓成功迫使Anthropic放棄其安全紅線,那麼所有AI公司在面對政府壓力時都將失去談判籌碼。反之,如果Anthropic成功守住立場,它將確立AI公司可以在政府合作中設定倫理邊界的原則。

與此同時,Elon Musk的xAI及其Grok模型正在積極爭取軍方的青睞——這增添了額外的政治維度。在一個AI越來越與國家安全掛鉤的時代,技術公司的倫理立場和政治關係的交織正變得前所未有的複雜。

對全球AI治理的啟示

五角大樓與Anthropic的對峙發生在印度AI Impact Summit舉行的同一週——後者正在討論全球AI治理框架。這個時間上的巧合凸顯了一個核心矛盾:在國家層面,政府希望不受限地使用AI來增強軍事和情報能力;在全球層面,各國都在呼籲AI的負責任使用和倫理治理。

對於香港而言,這場事件提醒我們,AI的發展已經不僅僅是技術和商業問題——它正深度捲入地緣政治和國家安全的漩渦。企業在選擇AI合作夥伴和部署方案時,需要將這些宏觀因素納入考量。