五角大樓對決Anthropic:Hegseth設週五最後期限要求撤除AI護欄

文章重點

  • 美國國防部長Pete Hegseth向Anthropic CEO Dario Amodei發出最後通牒:須在2月27日(週五)下午5:01前簽署文件,授予軍方對Claude模型的完全無限制存取權,否則將動用《國防生產法》強制徵用
  • 五角大樓威脅將Anthropic列為「供應鏈風險」——此標籤通常僅用於外國敵對實體,這是美國政府首次以此施壓本國AI企業,標誌着軍方對科技行業施壓手段的根本性升級
  • 事件導火索為2026年1月3日加拉加斯「馬杜羅突襲」行動:美軍特種部隊透過Palantir平台使用Claude進行情報分析,Anthropic事後向Palantir查詢安全政策合規情況,五角大樓認定此舉構成對機密行動的「審計」
  • OpenAI、Google和xAI已先後同意撤除針對軍事用途的民用護欄,xAI本週更獲批進入機密環境運作,Anthropic成為四大AI合約商中唯一堅持倫理紅線的企業
  • Amodei在會面中重申Anthropic在自主武器和大規模監控方面的絕對紅線,但面對2億美元國防合約與《國防生產法》的雙重壓力,這條紅線正承受前所未有的考驗

一、最後通牒的構造:一場精心設計的施壓行動

2026年2月25日,一場可能重塑全球AI治理格局的對峙正在華盛頓上演。美國國防部長Pete Hegseth親自向Anthropic CEO Dario Amodei提出了一個措辭明確、時間精準的要求:在2月27日(週五)東部時間下午5:01之前,簽署一份授權文件,賦予美國軍方對Claude AI系統的「完全且無限制的存取權」。

這份要求的每一個細節都經過精密計算。5:01 PM的截止時間意味着Anthropic幾乎沒有任何法律上的迴旋空間——週五下班後啟動法律程序,意味着任何司法挑戰都必須等到下週一才能推進,而五角大樓在週末即可採取行政行動。這不是一場談判,而是一場精心設計的施壓行動。

Hegseth的威脅工具同樣經過深思熟慮:動用《國防生產法》(Defense Production Act, DPA)。DPA最初制定於1950年朝鮮戰爭期間,賦予總統在國家緊急狀態下命令私營企業優先生產國防物資的權力。歷史上,DPA被用於要求鋼鐵廠為軍事訂單排期、命令藥廠生產疫苗。但將其應用於強制一家AI公司撤除產品安全護欄,這在美國法律史上完全沒有先例。

更具威懾力的是第二層威脅:將Anthropic列為「供應鏈風險」。在國防採購體系中,「供應鏈風險」標籤是一項極其嚴厲的制裁手段,其效果接近於商業封鎖——被標記的實體將被排除在所有聯邦政府合約之外,其商業合作夥伴也會面臨連帶風險。歷史上,這一標籤幾乎專門用於中國、俄羅斯等被視為戰略競爭對手的國家的企業——華為和中興就是最廣為人知的案例。將一家總部位於舊金山的美國公司列為「供應鏈風險」,其政治象徵意義不亞於其法律後果。

5:01 PM
2月27日最後期限
$2億
各公司國防合約金額
4家
AI國防合約商
1家
仍堅持護欄的企業

二、加拉加斯的迴響:「馬杜羅突襲」引爆的信任危機

這場對峙的直接導火索,可以追溯到2026年1月3日發生在委內瑞拉首都加拉加斯的一場軍事行動——外界稱之為「馬杜羅突襲」(Maduro Raid)。在這次行動中,美軍特種部隊透過國防承包商Palantir的整合平台,使用了Anthropic的Claude模型進行即時情報分析和態勢評估。

行動本身的細節仍屬機密,但其後續效應卻引發了一場波及整個國防科技產業的風暴。事件的關鍵轉折點在於:Anthropic在偵測到Claude的使用模式出現異常後,向其國防整合夥伴Palantir提出了查詢,要求確認這些使用行為是否符合Anthropic的安全使用政策。從Anthropic的角度看,這是企業對自身產品進行合規監控的正當行為——其使用政策明確禁止將Claude用於武器生產和戰場管理。

但五角大樓的解讀截然不同。國防部官員認為,一家民營企業向國防承包商查詢涉及機密軍事行動的使用數據,本質上構成了對機密行動的「審計」——這不僅觸碰了軍方對行動安全的絕對底線,更被視為民間企業試圖對國家安全決策行使「否決權」。一位未具名的五角大樓高級官員表示:「我們不能容許任何實體——無論是盟國政府還是矽谷公司——對美軍的行動能力設置門檻。」

這場衝突的本質,是兩套根本不同的權力邏輯之間的碰撞。在Anthropic的框架中,AI公司對其產品的使用方式承擔不可推卸的倫理責任——即使客戶是美國軍方。在五角大樓的框架中,國家安全享有絕對優先權,任何限制軍方使用關鍵技術的行為都是對國防能力的潛在威脅。兩種立場都有其內在邏輯,但在「馬杜羅突襲」之後,它們之間已經沒有調和的空間。

三、同業的選擇:為何只剩Anthropic一個「孤島」

理解Hegseth最後通牒的壓力之大,必須將視野擴展到整個AI產業的軍事合作格局。在五角大樓為四家AI公司——Anthropic、OpenAI、Google和xAI——分別授予2億美元國防合約的體系中,Anthropic如今已成為唯一一家尚未同意撤除民用護欄以供軍事用途的企業。

OpenAI的轉變最具戲劇性。2023年,OpenAI還在其使用政策中明確禁止軍事用途;到2024年初,它悄然刪除了相關條款;到2026年,它已經全面擁抱國防市場,並將軍事合約視為其商業化戰略的重要支柱。Google的DeepMind最初同樣對軍事應用持謹慎態度,其前CEO Demis Hassabis曾多次公開反對將AI用於致命武器系統。但在商業壓力和政府壓力的雙重作用下,Google也逐步放寬了限制。

最值得關注的是xAI的崛起。Elon Musk旗下的xAI不僅迅速同意了五角大樓的所有條件,更在本週獲批進入機密運作環境——這意味着xAI的Grok模型可以直接處理最高密級的軍事情報。考慮到Musk與特朗普政府的密切關係,以及白宮AI與加密貨幣事務顧問David Sacks公開指責Anthropic推行「woke AI」,xAI在國防市場的快速崛起帶有明顯的政治色彩。

Sacks的「woke AI」指控值得深入解讀。在美國當前的政治語境中,「woke」已經從一個描述社會正義意識的中性詞彙,演變為保守派用來攻擊一切被視為「政治正確」立場的政治武器。將AI安全護欄等同於「woke」,實質上是將一個複雜的技術倫理問題簡化為一個政治忠誠問題——你要麼「支持軍隊」,要麼就是「woke」。這種二元對立的修辭策略極為有效,因為它將Anthropic置於一個無法辯護的位置:任何關於AI安全的技術性辯論都會被轉化為一場政治立場的審判。

「會面的氣氛是友好的。Hegseth部長讚賞了Anthropic的產品。但他同時明確表示,國家安全不容妥協,軍方需要的是無障礙的工具,而不是附帶道德說教的軟件。」——匿名五角大樓官員

這段對會面氛圍的描述本身就充滿矛盾。「友好」的會面中包含了動用戰時法律的威脅;「讚賞產品」的同時要求撤除使產品安全的核心機制。這種「鐵拳裹天鵝絨手套」的談判策略,精準地展現了五角大樓對這場對峙的態度:我們尊重你的技術能力,但你的價值觀不在我們的考慮範圍之內。

四、紅線的定義:Amodei的倫理底線與商業現實

面對空前的壓力,Dario Amodei在會面中重申了Anthropic的兩條絕對紅線:自主武器(autonomous weapons)和大規模監控(mass surveillance)。這兩條紅線並非即興之舉,而是根植於Anthropic創立以來一直堅持的「負責任AI開發」理念。

Anthropic的使用政策長期以來明確禁止將Claude用於「武器生產」和「戰場管理」。這些限制不是行銷口號,而是嵌入模型行為的技術性約束——Claude會主動拒絕涉及武器設計、軍事目標分析等請求。五角大樓要求的「完全且無限制的存取權」,實質上就是要求Anthropic從技術層面移除這些約束,使Claude在軍事場景中的行為不再受到任何來自開發者的限制。

Amodei的困境在於,他所堅持的紅線正在從三個方向被同時侵蝕。第一是商業壓力:2億美元的國防合約本身可能不足以動搖一家估值數千億美元的公司,但被列為「供應鏈風險」所帶來的連鎖效應可能是致命的——聯邦政府合約的喪失、企業客戶的信心動搖、國防產業生態中的合作夥伴關係斷裂。第二是競爭壓力:當OpenAI、Google和xAI都已進入軍事市場時,Anthropic的「拒絕」只會讓競爭對手搶走份額,而不會阻止AI被用於軍事目的。第三是政治壓力:在「woke AI」的標籤下,Anthropic的立場正在從「技術倫理選擇」被重新定義為「政治對抗行為」。

但Amodei的堅持也有其深層商業邏輯。Anthropic的品牌價值很大程度上建立在「AI安全領導者」的定位之上。其企業客戶——特別是金融、醫療、法律等對風險極度敏感的行業——選擇Claude的一個重要原因,正是因為Anthropic對安全和倫理的承諾。如果Anthropic在軍方壓力下徹底放棄護欄,這種品牌信任的崩塌可能造成的商業損失,遠超一份國防合約的價值。

什麼是《國防生產法》(Defense Production Act)?

《國防生產法》於1950年朝鮮戰爭期間頒佈,是美國總統在國家安全緊急狀態下最強大的經濟動員工具之一。該法律授權總統命令私營企業優先履行國防合約、擴大戰略物資生產、實施價格管制,並可對違反命令的企業施加刑事處罰。歷史上,DPA曾用於鋼鐵、藥品、半導體等傳統工業領域的國防動員。特朗普政府在COVID-19疫情期間曾援引DPA要求通用汽車生產呼吸機。若此次將DPA應用於AI模型的安全護欄——要求企業撤除產品安全限制而非增加產能——將開創一個全新的法律先例,其影響可能遠超AI行業本身。

五、AI倫理的根本張力:技術中立論的破產

五角大樓與Anthropic的對峙,暴露了AI產業長期迴避的一個根本性問題:AI倫理究竟是開發者的責任,還是使用者的責任?

科技行業長期信奉「技術中立論」——技術本身沒有善惡,責任在於使用者。這一論述為矽谷提供了長達數十年的道德保護傘:社交媒體平台不為虛假資訊負責,搜索引擎不為仇恨內容負責,雲端服務商不為客戶的違法行為負責。但AI——特別是具備推理和決策能力的大型語言模型——正在從根本上瓦解技術中立論的基礎。

當一個AI系統能夠自主分析戰場情報、識別軍事目標、甚至生成打擊方案時,「技術只是工具」的說法就變得蒼白無力。Claude在「馬杜羅突襲」中扮演的角色——即時情報分析和態勢評估——意味着它已經深度嵌入了軍事決策鏈。在這種場景中,AI不再是被動的工具,而是主動的參與者。開發者對模型行為的設計選擇——包括護欄的設置或撤除——直接影響了軍事行動的結果。

Anthropic的護欄政策,本質上是對技術中立論的一種否定:我們認為開發者對AI的使用方式承擔責任,因此我們主動限制了模型在某些場景中的能力。五角大樓的要求,則是對技術中立論的一種極端回歸:AI只是工具,軍方決定如何使用它,開發者無權過問。

這場辯論的深遠意義在於,它的結果將為全球AI治理建立一個關鍵先例。如果美國政府能夠透過法律手段強制AI公司撤除安全護欄,那麼其他國家的政府——無論是民主政體還是威權政體——都將獲得一個現成的模板。如果世界上最具影響力的民主國家都無法在AI倫理問題上對軍事需求設限,那麼指望全球AI治理建立在「負責任開發」的共識之上,就只是一廂情願。

六、地緣政治棋局:從華盛頓到亞太的連鎖反應

五角大樓對Anthropic的施壓,表面上是美國國內政軍關係的一個章節,但其地緣政治影響遠遠超出美國邊界——特別是對香港所處的亞太安全格局而言。

首先是軍事AI競賽的加速效應。美國四大AI公司中有三家已經完全向軍方開放,第四家正面臨前所未有的壓力。這發出了一個明確的信號:在國家安全面前,商業倫理承諾的約束力是有限的。這一先例將激勵其他軍事大國——特別是中國和俄羅斯——加速自身的軍事AI發展計劃。如果美國不再對軍事AI的使用設置任何民間護欄,那麼要求其他國家接受軍事AI的國際規範就失去了道德基礎。

其次是「供應鏈風險」標籤的武器化問題。將這一通常用於外國敵對實體的標籤威脅用於本國企業,意味着供應鏈安全的邏輯正在從「防範外部威脅」擴展到「懲罰內部不服從」。對於在全球供應鏈中佔據關鍵節點的香港企業而言,這是一個值得警惕的趨勢——如果美國政府願意對自己的科技企業使用這種手段,那麼對外國企業使用的門檻只會更低。

第三是AI出口管制的潛在升級。如果美國軍方成功獲得對Claude的完全存取權,並將其深度整合到機密軍事系統中,那麼Claude——以及Anthropic的核心技術——將不可避免地受到更嚴格的出口管制。這可能影響Anthropic向亞太地區企業客戶提供服務的能力,也可能迫使使用Claude的亞太企業重新評估其AI供應商策略。

3家
已撤除軍事護欄的AI公司
$8億
四大AI國防合約總額
1950年
《國防生產法》頒佈年份
48小時
Anthropic的抉擇窗口

七、香港視角:一個國際金融中心的AI安全困境

作為亞洲最重要的國際金融中心和中西方之間的獨特橋樑,香港對這場對峙的觀察角度有其特殊性。五角大樓與Anthropic的衝突不僅是美國國內事務,更可能直接影響香港企業和機構的AI使用策略。

香港的金融機構、法律事務所和專業服務公司是Claude的重要用戶群體。Anthropic的AI安全承諾——包括對敏感數據的保護、對模型行為的可預測性保證——是這些機構選擇Claude的重要原因。如果Anthropic在軍方壓力下撤除護欄,這些企業客戶面臨的問題不僅是「產品是否仍然安全」,更是「我們是否仍然信任這家供應商的承諾」。對於處理大量跨境敏感數據的香港金融機構而言,供應商的可信度是AI採購決策中的核心考量。

從更宏觀的層面看,這場對峙折射出一個香港必須正視的結構性問題:在中美科技脫鉤持續深化的背景下,依賴美國AI企業的產品是否存在系統性風險?如果美國政府能夠要求AI公司為軍事目的撤除安全護欄,它同樣可以要求AI公司在其他議題上配合政府政策——包括對特定地區用戶的服務限制。這不是理論上的推演,而是已經在半導體、社交媒體等領域反覆上演的現實。

香港金融管理局和創新科技及工業局在制定AI治理框架時,應該將這種「地緣政治供應商風險」納入考量。這意味着不僅要評估AI產品的技術性能和數據安全性,還要評估供應商在其本國政治壓力下的行為可預測性。從這個角度看,發展自主的AI能力——或至少建立多元化的AI供應商組合——對於香港的長期利益至關重要。

此外,香港作為國際仲裁和法律服務中心的角色也值得關注。如果《國防生產法》被用於強制AI公司撤除安全護欄,這一先例將為國際商業法和國際人道法提出新的課題。香港的法律專業人士和學術機構可以在AI軍事應用的國際規範制定中發揮獨特的橋樑作用——特別是在聯合國《特定常規武器公約》關於自主武器的討論中,提供兼顧東西方觀點的專業意見。

八、未來48小時與長期博弈:Anthropic的三條路徑

距離Hegseth設定的週五截止時間已不足48小時。Anthropic面前有三條可能的路徑,每一條都將產生深遠的後果。

路徑一:全面妥協。簽署文件,撤除軍事場景中的所有護欄。這是阻力最小的選擇,可以保住2億美元國防合約,避免「供應鏈風險」標籤的災難性後果,也與同業的選擇保持一致。但代價是Anthropic「AI安全領導者」品牌定位的根本動搖,以及對「負責任AI開發」這一敘事的致命打擊。Anthropic的數千名員工中有許多人正是因為公司的安全使命而加入,全面妥協可能引發嚴重的人才流失。

路徑二:法律對抗。拒絕簽署文件,並在法院挑戰《國防生產法》在AI護欄領域的適用性。這將是一場史詩級的憲法訴訟,涉及第一修正案(言論自由是否涵蓋代碼)、行政權力的邊界、以及國家安全與私營企業自主權之間的平衡。但法律對抗的代價極高:在訴訟結果出來之前,Anthropic可能已經被排除在聯邦政府合約之外,「供應鏈風險」標籤的商業損害也可能已經不可逆轉。

路徑三:結構性妥協。在不觸碰自主武器和大規模監控兩條絕對紅線的前提下,為軍方提供某種「受控開放」的存取方案。例如,撤除部分戰場管理限制,但保留對致命決策環節的人類監督要求;允許軍方在情報分析和後勤規劃中不受限地使用Claude,但在涉及目標選擇和武器部署的場景中維持護欄。這種「分級授權」的方案在技術上是可行的,但政治上可能不被接受——Hegseth要求的是「完全且無限制的存取權」,而非「有條件的合作深化」。

「我們不會構建一個能夠在沒有人類監督的情況下自主決定生殺的系統。這不是政治立場,這是工程倫理的基本底線。」——Dario Amodei對Anthropic員工的內部通訊(據報導)

無論Anthropic選擇哪條路徑,這場對峙都已經產生了不可逆的影響。它向全球科技產業發出了一個清晰的信號:AI倫理承諾在國家權力面前的脆弱性。它也向全球AI治理的討論注入了一個無法迴避的議題:如果最先進的AI系統都不受任何來自開發者的倫理約束,那麼防止AI濫用的最後防線在哪裡?

從更長遠的歷史視角看,五角大樓與Anthropic的這場對峙,可能成為AI時代「軍工複合體」演變的一個標誌性事件。在核武器時代,曼哈頓計劃的科學家們在事後才意識到自己創造的毀滅性力量;在AI時代,開發者第一次有能力——也被要求有勇氣——在技術投入使用之前就設定倫理邊界。Anthropic是否能夠守住這些邊界,不僅關乎一家公司的命運,更關乎人類社會能否在擁有越來越強大技術的同時,保留對這些技術的有意義控制。

週五5:01 PM的鐘聲響起時,我們將知道這場考驗的第一個答案。