OpenAI與五角大樓達成機密網絡AI部署協議:Altman的「安全堆疊」能否經受考驗?

文章重點

  • OpenAI行政總裁Sam Altman於2026年2月28日宣佈,OpenAI已與五角大樓達成協議,將AI模型部署於美國國防部的機密網絡(classified network),標誌着AI技術正式全面進入美國最高安全等級的軍事基礎設施
  • Altman強調協議包含「兩項最重要的安全原則」:明確禁止將AI用於國內大規模監控,以及確保人類對武力使用和自主武器承擔最終責任——但合約同時載有允許五角大樓將技術用於「任何合法用途」的條款,批評者質疑兩者如何邏輯並存
  • 五角大樓同意OpenAI自行構建其「安全堆疊」(safety stack),並承諾若模型拒絕執行特定任務,政府不會強制OpenAI令其就範——這一安排在技術治理層面前所未有
  • 協議宣佈的時機引發廣泛關注:僅數小時前,特朗普政府剛宣佈禁止Anthropic與聯邦政府合作,令外界質疑OpenAI是否在競爭對手被排除後才獲得有利談判條件
  • Altman呼籲將同等條款擴展至所有AI公司,並主張各方應降低對抗姿態——但在Anthropic禁令的背景下,這番「去升級化」言論是否真誠,成為業界激烈辯論的焦點

一、一份改變遊戲規則的機密協議

2026年2月28日,OpenAI行政總裁Sam Altman向外界宣佈,OpenAI已與美國國防部達成正式協議,將旗下AI模型部署於五角大樓的機密網絡。所謂機密網絡,是美國國防部處理最高級別敏感資訊的封閉系統——部署於此意味着OpenAI的AI模型將直接參與情報分析、戰略規劃乃至作戰決策支援等核心軍事功能。

這份協議的宣佈時間極為敏感。就在數小時之前,特朗普政府剛宣佈全面禁止Anthropic與聯邦政府的合作關係。Anthropic旗下的Claude長期以來是唯一部署在軍方機密系統中的AI模型,其被禁事件為OpenAI騰出了一個巨大的市場真空。在這樣的時間節點上宣佈協議,無論Altman如何解釋,都不可避免地被外界解讀為一場精準的商業佈局——而非單純的技術合作里程碑。

二、兩大安全原則:紅線還是裝飾?

Altman在公佈協議時,着重強調了他所稱的「兩項最重要的安全原則」。第一,明確禁止將OpenAI的AI模型用於美國國內的大規模監控活動。第二,確保人類在武力使用和自主武器系統中承擔最終決策責任——換言之,AI可以輔助分析和推薦,但扣下扳機的決定必須由人類作出。

這兩項原則在表述上與Anthropic此前堅持的「紅線」幾乎完全一致。然而,關鍵區別在於執行機制。Anthropic的紅線政策建立在公司拒絕修改其使用條款的基礎上,最終導致了與五角大樓的決裂。而OpenAI的策略則是在接受合作的框架內嵌入安全條款——這種「合作中的制約」模式在理論上更具可操作性,但同時也更容易在實踐中被逐步削弱。

三、「安全堆疊」:技術治理的創新實驗

協議中最具技術意義的條款,是五角大樓同意OpenAI自行構建並維護其「安全堆疊」(safety stack)。在AI工程語境中,「堆疊」指的是一套層層疊加的技術組件——在此語境下,safety stack涵蓋了模型的對齊機制(alignment)、輸出過濾器(output filters)、使用場景分類器(use-case classifiers)、以及拒絕服務的觸發條件(refusal triggers)。

更關鍵的是合約中的一項具體承諾:「如果模型拒絕執行某項任務,政府不會強制OpenAI令其執行該任務。」這一條款在技術治理層面堪稱前所未有。它意味着模型層面的安全機制——而非僅是合約條文——被賦予了某種「否決權」。換言之,即使五角大樓的操作人員試圖讓AI執行某些敏感任務,若模型的安全層判定該任務超出允許範圍並予以拒絕,五角大樓無權要求OpenAI修改模型行為以配合。

但批評者指出,safety stack的有效性完全取決於OpenAI如何設定其邊界。模型的拒絕閾值由誰決定?在機密環境中,外部審計如何進行?如果五角大樓對拒絕率不滿意,OpenAI是否會面臨間接壓力去調整其安全參數?這些問題在目前的公開資訊中均未獲得充分回答。

五角大樓與AI公司合作時間線

2025年夏季:Anthropic與五角大樓簽署價值約2億美元的合約,Claude成為首個部署在軍方機密系統的AI模型。

2026年2月中旬:五角大樓威脅與Anthropic斷絕關係,國防部長Hegseth考慮將其列為「供應鏈風險」,要求AI公司允許軍方「所有合法用途」。

2026年2月下旬:逾450名Google及OpenAI員工聯署公開信支持Anthropic堅守安全紅線;xAI Grok獲得機密系統部署合約。

2026年2月28日:特朗普政府正式禁止Anthropic與聯邦政府合作。數小時後,Altman宣佈OpenAI與五角大樓達成機密網絡部署協議。

四、「任何合法用途」vs 安全原則:合約語言的深層矛盾

協議中最具爭議的條款,是合約同時載有兩組看似互相矛盾的語言。一方面,合約明確禁止國內大規模監控和無人類監督的自主武器。另一方面,合約允許五角大樓將OpenAI的技術用於「任何合法用途」(any lawful purpose)。

法律學者和AI政策研究者迅速指出了其中的邏輯張力。在美國現行法律框架下,國內監控在獲得FISA法院授權後即屬「合法」;特定類型的自主武器系統在目前的國際法和美國國內法中亦不存在全面禁止。那麼,當「合法用途」的範疇涵蓋了安全原則試圖排除的活動時,究竟哪一組條款佔據優先地位?

Altman在公開聲明中並未直接回應這一矛盾,僅表示安全原則和safety stack為合約的「核心」,暗示它們應凌駕於通用的授權條款之上。但在合約法層面,除非這些安全條款被明確規定為優先適用且不可因其他條款而被削弱,否則「任何合法用途」的語言完全可能在實際操作中成為繞過安全限制的依據。這種合約架構的模糊性,與其說是疏忽,不如說更像是一種刻意的建設性模糊——為未來的靈活詮釋預留空間。

「如果模型拒絕執行某項任務,政府不會強制OpenAI令其執行。我們相信這是正確的框架。我們也認為,所有AI公司都應該獲得同樣的條款——我們呼籲降低對抗,共同建立一個對所有人都公平的合作架構。」——Sam Altman,OpenAI行政總裁

五、Anthropic禁令的陰影:誰是真正的受益者?

在OpenAI協議的光環之下,Anthropic禁令的陰影不容忽視。特朗普政府禁止Anthropic與聯邦政府合作的決定,結束了持續數週的對峙——但其結果卻令Anthropic此前堅守的安全原則在政策層面遭到懲罰,而選擇合作的OpenAI則獲得了巨大的市場和戰略收益。

這種「配合者得獎、堅守者受罰」的格局,向整個AI行業發出了一個令人不安的信號:在與政府的合作中,倫理立場不僅不是資產,反而可能成為商業負債。即使OpenAI的協議確實包含了有意義的安全條款,但這些條款的存在是OpenAI主動爭取的結果,還是在競爭對手被清除後的戰略裝飾,外界難以判斷。批評者認為,Altman呼籲「將同等條款擴展至所有AI公司」的表態,在Anthropic已被禁的事實面前顯得格外空洞——因為這種呼籲最容易在競爭者不在場時提出。

六、Altman的「去升級化」訴求:戰略還是真誠?

Altman在宣佈協議的同時,特別呼籲業界和政府「降低對抗」(de-escalation),主張所有AI公司都應獲得與OpenAI相同的合作條款和安全保障。這番言論在表面上體現了行業領袖的格局,但在Anthropic被禁數小時後發出,不免令人質疑其真誠性。

從博弈論的角度分析,Altman的去升級化訴求具有精妙的雙重功能。對外,它塑造了OpenAI作為行業調解者而非機會主義者的形象。對內,它為OpenAI與五角大樓的合約提供了道德合法性——如果OpenAI主張所有公司都應獲得同等條款,那麼OpenAI自身接受這些條款的決定就不能被視為對安全原則的出賣,而是一種務實的合作策略。然而,去升級化的真正考驗不在言語,而在行動。OpenAI是否會公開要求特朗普政府撤銷對Anthropic的禁令?在Anthropic恢復聯邦合作資格之前,OpenAI的呼籲只是修辭上的姿態,還是會轉化為實質性的倡議行動?

機密級別
OpenAI模型部署的網絡等級
自建
OpenAI獲准構建的safety stack
「任何合法用途」
合約中的通用授權條款
全行業適用
Altman呼籲的統一條款

七、AI軍事化治理的深層挑戰

OpenAI與五角大樓的協議,折射出AI軍事化治理面臨的一個根本性結構問題:在缺乏獨立監督機制的環境中,技術公司的自我約束能否真正替代制度化的外部問責?OpenAI的safety stack本質上是一種企業自治機制——其設計、測試和調整完全由OpenAI內部決定。在機密網絡的封閉環境中,獨立第三方的審計幾乎不可能實現;而五角大樓作為客戶方,其動機天然偏向擴大而非限制AI的使用範圍。

與歐盟的《人工智能法案》相比,美國在AI軍事應用的制度化監管方面仍處於幾乎空白的狀態。歐盟法案至少在民用AI領域建立了高風險應用的分類制度和合規要求,但美國目前的AI軍事治理幾乎完全依賴行政部門的自行裁量和技術公司的自律承諾——二者在持續性和可執行性方面都存在根本缺陷。

八、香港視角:地緣政治夾縫中的AI風險評估

對於香港科技業界和投資者,這場事件提供了三層重要的風險認知更新。第一,AI公司的政府關係風險已成為投資評估中不可迴避的核心維度——Anthropic從軍方首選合作夥伴到被全面禁止的轉變,僅用了不到兩週時間,這種政策波動性在傳統科技投資框架中是前所未有的。

第二,OpenAI的safety stack概念對香港企業在構建AI治理架構時具有直接的參考價值。在香港特區政府積極推動AI發展的政策環境下,企業在部署AI系統時建立自主的安全機制,並以書面形式明確其不可妥協的使用邊界,將成為未來合規要求和商業談判中的必要條件。

第三,美國AI產業正以前所未有的速度被捲入地緣政治博弈。從Anthropic被禁到OpenAI獲得機密合約,這場重組不僅是商業競爭的結果,更是政治忠誠度測試的體現。對於在中美科技競爭中需要同時維繫兩方關係的香港企業而言,理解美國AI政策的政治化趨勢,以及在選擇AI技術合作夥伴時預判政策風險,已從「加分項」變成了「存亡線」。在AI日益成為國家安全資產的時代,技術中立的幻想正在加速破碎——香港企業唯有直面這一現實,方能在夾縫中找到可持續的戰略定位。