科技業最大規模員工反抗:450+人聯署,阻止AI成為國家監控武器

文章重點

  • 逾450名來自Google(約400人)及OpenAI(逾50人)的員工聯署題為「我們不會被分裂」(We Will Not Be Divided)的公開信,表態支持Anthropic拒絕五角大樓提出的將Claude用於國內大規模監控及自主武器系統的要求,此舉被視為AI行業員工集體表態的歷史性時刻
  • Anthropic已公開宣佈其「紅線」(Red Lines)政策,明確禁止旗下Claude AI模型被用於任何形式的國內大規模監控、針對平民的自主致命武器系統,以及未經適當人工監督的核武器管理,強調AI安全必須凌駕於商業合約之上
  • 美國國防部長Pete Hegseth以強硬態度回應,威脅可能援引《國防生產法》(Defense Production Act, DPA)強制徵用Anthropic的技術,或將Anthropic列為「供應鏈風險」企業,此舉引發業界對政府強制干預AI商業決策的廣泛憂慮
  • 在爭議白熱化之際,五角大樓已悄然與馬斯克旗下xAI簽署合約,將Grok大型語言模型部署於機密政府系統,此舉令外界質疑五角大樓的AI採購決策是否受到政治關係左右,而非純粹以技術實力和安全標準為依歸
  • OpenAI行政總裁Sam Altman公開表示不認為五角大樓應以DPA威脅AI公司,Google DeepMind首席科學家Jeff Dean亦反對將AI用於大規模監控,業界領袖的紛紛表態令這場爭議演變為一場關乎AI時代公民自由與國家安全邊界的根本性辯論

一、「我們不會被分裂」:一封史無前例的員工聯署公開信

2026年2月下旬,一封題為「We Will Not Be Divided」(我們不會被分裂)的公開信在科技業引發震動。公開信的聯署者並非來自同一家公司,而是橫跨Google和OpenAI兩大AI巨頭的逾450名員工——其中約400人來自Google,另有超過50人來自OpenAI。這種跨越競爭對手邊界的員工聯合行動,在科技業發展史上極為罕見,充分說明這場爭議所觸及的,是業界人士認為不可妥協的核心原則。

公開信的核心訴求是支持Anthropic拒絕五角大樓的特定要求。據悉,美國國防部希望取得Anthropic旗下Claude AI模型的使用授權,用途涵蓋國內大規模監控系統及部分自主武器系統的決策輔助。Anthropic的創辦人及管理層在審視這些要求後,決定以公司既定的安全原則為由,明確拒絕這些被視為逾越道德紅線的應用場景。公開信的聯署員工表示,Anthropic的立場體現了負責任的AI發展應有的態度,是整個行業的楷模。

值得注意的是,公開信中約88%的聯署者選擇以匿名方式參與——這個比例既反映了員工對於公開與僱主或政府產生衝突的顧慮,也反映了這場聯署行動的高度組織性:組織者顯然在設計聯署機制時已考慮到保護參與者的職業安全。即便如此,仍有超過60名員工選擇公開實名聯署,展示出願意承擔個人風險的決心。這封信迅速在社交媒體上廣泛流傳,成為2026年初AI政策討論中最具影響力的民間聲音之一。

450+
公開信聯署人數
~400
Google員工聯署數
50+
OpenAI員工聯署數
~88%
選擇匿名聯署比例

二、Anthropic的「紅線」:AI公司能拒絕政府要求嗎?

Anthropic在這場爭議中的立場,建立在其長期以來公開倡導的「負責任擴展政策」(Responsible Scaling Policy)之上。公司明確劃定了Claude不可用於的應用範疇,統稱為「紅線」(Red Lines)。根據Anthropic公開的聲明,這些紅線包括:一、任何形式的國內大規模監控系統,尤其是針對特定族裔、宗教或政治群體的系統性監控;二、以AI模型作為核心決策組件、缺乏有效人工監督的自主致命武器系統;三、核武器及其他大規模殺傷性武器的管理與部署決策輔助。

Anthropic的理據不僅是道德立場,更有技術層面的考量。公司指出,目前的大型語言模型在面對高度複雜、涉及人命的決策場景時,仍存在幻覺(Hallucination)、推理錯誤及缺乏上下文感知等根本性缺陷。將這類系統部署於自主武器或大規模監控,不僅可能侵犯公民自由,更可能因模型錯誤而導致無可挽回的後果。從技術誠信的角度而言,聲稱AI已足夠可靠以支撐上述應用,本身就是一種誤導。

這一立場在商業上需要付出代價。美國聯邦政府——尤其是國防和情報機構——是全球最龐大的企業軟件採購方之一。拒絕五角大樓的特定要求,意味着Anthropic放棄了潛在的巨額合約收入。然而,Anthropic的管理層顯然判斷,若在核心安全原則上妥協,所失去的——包括公司聲譽、頂尖研究人才的信任、以及未來商業生態中的品牌差異化優勢——遠比短期合約收益更為珍貴。這是一個極具爭議性但值得深思的商業倫理選擇。

五角大樓與Anthropic爭議背景

爭議核心:美國國防部希望取得Claude的使用授權,用於國內監控及自主武器相關應用。Anthropic依據其「負責任擴展政策」中的紅線條款予以拒絕,認為上述用途違反公司的AI安全承諾。

Anthropic的地位:Anthropic由前OpenAI研究人員於2021年創立,是全球最具影響力的AI安全研究公司之一,其Claude系列模型被廣泛用於企業和個人應用場景,同時在AI安全研究領域享有極高聲譽。

時代背景:此次爭議發生於特朗普第二任期初期。Hegseth接任國防部長後積極尋求擴大軍方對AI技術的控制,而AI公司的商業化競爭亦令政府更容易以合約為籌碼施壓。

行業影響:此案被視為AI行業「商業與倫理邊界」的標誌性事件,其結果可能為日後政府與AI公司的合作框架設定先例。

三、五角大樓的威脅:《國防生產法》能強制AI公司就範嗎?

面對Anthropic的拒絕,國防部長Pete Hegseth採取了強硬姿態,提出兩項潛在的強制措施。第一,援引《國防生產法》(Defense Production Act, DPA)。這是一部源自冷戰時期的美國聯邦法律,授權政府在國家安全需要時強制要求私人企業優先為政府生產特定物資或提供服務。歷史上,DPA曾被用於確保疫情期間醫療物資的供應,以及關鍵半導體的生產優先序。但將DPA適用於軟件公司和AI模型授權,在法律上存在前所未有的爭議性解釋空間。第二,將Anthropic列為「供應鏈風險」(Supply Chain Risk)企業。這一標籤在實際操作上可能令Anthropic在聯邦採購市場上遭受系統性排斥,對其商業前景產生深遠影響。

法律學者對Hegseth的DPA威脅普遍持懷疑態度。DPA的立法原意是確保有形物資的戰時供應,其適用範圍延伸至AI模型授權是否具有法律依據,目前尚無先例可循。更根本的問題在於:政府能否以法律手段強迫一家私人公司將其技術用於該公司認為違反道德的用途?這一問題牽涉言論自由、企業自主經營權以及技術產品的倫理責任等多個層面,任何一個維度都可能成為法院審查的焦點。

部分分析人士指出,Hegseth的威脅更多具有政治信號意義,而非立即付諸實施的行動方案。在缺乏國會明確授權和充分法律論據的情況下,強行援引DPA對付AI公司,可能引發廣泛的法律訴訟和政治反彈,適得其反。然而,即便是這種威脅本身,已足以在AI行業製造寒蟬效應——令其他公司在面對政府敏感要求時,不得不重新權衡公開拒絕的風險與代價。

四、xAI Grok搶先入局:馬斯克的政治紅利

在五角大樓與Anthropic的對峙尚未落幕之際,一個耐人尋味的細節浮出水面:五角大樓已與馬斯克旗下的xAI簽署合約,將Grok大型語言模型部署於機密政府系統。這一消息的曝光,令外界對五角大樓的AI採購決策邏輯產生強烈質疑。

xAI成立僅約兩年,在AI安全研究領域的積累與Anthropic、Google DeepMind、或OpenAI相比相差甚遠。Grok模型在多項公開基準測試中的表現,亦難以與Claude或GPT-4系列並駕齊驅。若以純粹的技術實力和安全評估標準衡量,Grok獲得機密政府合約的理由並不充分。然而,馬斯克與特朗普政府的緊密政治關係——馬斯克同時擔任「政府效率部」(DOGE)負責人——令業界廣泛猜測這份合約的背後邏輯究竟是技術甄選還是政治酬庸。

這種對比產生了一種刺耳的諷刺:Anthropic因為堅守AI安全原則而遭到政府威脅,而一家在安全研究方面投入明顯較少的公司,卻因為其創辦人的政治關係而獲得優先進入最敏感政府系統的機會。這種獎懲錯位,不僅損害了政府AI採購的公信力,更在整個AI行業發出一個令人憂慮的信號:在現任政府執政期間,政治忠誠度可能比技術能力和安全標準更能決定商業命運。對香港及國際科技投資者而言,這種政策不確定性是評估美國AI公司投資風險時不可忽視的新變量。

「我認為五角大樓不應該以《國防生產法》威脅AI公司。我們需要的是合作,而不是強制。AI的發展需要信任,而信任不能靠脅迫建立。」——Sam Altman,OpenAI行政總裁

五、Altman與Dean發聲:業界領袖如何看待這場對峙

在整個事件發酵過程中,兩位重量級業界人士的公開表態引起廣泛關注。OpenAI行政總裁Sam Altman在公開場合明確表示,他不認為五角大樓應該以DPA威脅AI公司。Altman的表態尤為值得關注,因為OpenAI本身已與美國政府有廣泛的合作關係——包括與微軍方的Azure Government雲端合約,以及多個聯邦機構的ChatGPT企業版部署。Altman的立場並非反對與政府合作,而是明確反對以強制手段迫使AI公司違背其安全承諾。這種劃清界線的姿態,實際上也是在為OpenAI自身未來可能面對的類似壓力預先建立防線。

Google DeepMind首席科學家Jeff Dean的表態同樣具有重要象徵意義。Dean是全球最具影響力的AI研究人員之一,其在Google三十年的技術生涯涵蓋了從搜索算法到TensorFlow框架的無數里程碑。Dean公開表明反對將AI用於大規模監控,為公開信的聯署員工提供了來自技術領袖層面的有力背書。在大型科技公司中,高層研究人員公開就政治敏感議題表態本屬罕見,Dean的發聲因此具有超越個人觀點的信號意義。

這兩位發聲者的共同點,在於他們都選擇在AI行業最有影響力的商業周期——模型競爭白熱化、政府合約大幅增加的時期——公開為AI倫理邊界發聲。這種選擇在商業上並非沒有代價:任何一家AI公司都不希望被華盛頓貼上「不合作」的標籤。但正是因為這種代價的存在,他們的表態才顯得更加值得重視。這場對峙已不再只是Anthropic一家公司的問題,而是整個AI行業正在集體回答一個問題:當商業利益與技術倫理發生衝突時,我們站在哪一邊?

六、AI治理的根本困境:誰有權決定AI的「正當用途」?

五角大樓與Anthropic的衝突,在更宏觀的層面上揭示了AI治理的一個根本性困境:在缺乏完善立法框架的情況下,誰有權決定AI技術的「正當用途」界限?目前,美國並沒有一部專門規範AI應用場景的聯邦法律。AI公司在理論上可以自行決定其技術的授權條款,但政府——尤其是以國家安全為由——擁有多種正式或非正式的槓桿來施壓於企業的商業決策。

這種監管真空帶來了雙重風險。一方面,若AI公司擁有完全不受約束的拒絕權,可能導致關鍵的國家安全需求得不到技術支持;另一方面,若政府可以以強制手段要求AI公司提供任何服務,則AI倫理承諾將淪為空談,而科技公司亦將失去維護其品牌價值的能力。真正負責任的AI治理,需要在這兩極之間找到一個兼顧國家利益與技術倫理的平衡點——而這個平衡點的確立,需要的是立法機關、行政部門、AI公司和公民社會的共同參與,而非任何一方的單方面強制。

從國際視角看,歐盟已通過《人工智能法案》(EU AI Act),對高風險AI應用場景設定了明確的監管要求,包括禁止某些形式的大規模生物特徵識別監控。相比之下,美國目前的AI監管框架仍高度碎片化,缺乏具有約束力的聯邦立法。這種對比令美國AI公司在面對政府壓力時,只能依賴自身的商業判斷和道德承諾,而非清晰的法律保護——這種處境的脆弱性,在Hegseth的DPA威脅面前表露無遺。

0
美國現行AI聯邦專項立法
2021年
Anthropic成立年份
2024年
歐盟AI法案正式生效
3項
Anthropic紅線禁止應用類別

七、香港科技業視角:AI倫理爭議對港企的啟示

對於香港的科技業界和投資者而言,這場發生在大洋彼岸的AI倫理風暴,並非遙不可及的域外事件。香港本身正處於一個獨特的地緣政治夾縫——一方面是深度融入中國內地的科技生態,另一方面是與英美歐等西方市場保持的金融和商業連繫。在這種格局下,全球AI治理的走向對港企有着直接而深刻的影響。

首先,對於有意在香港或透過香港平台開展AI業務的企業而言,Anthropic案例清晰說明了一個現實:AI公司的授權條款和使用政策,正在成為政府合約談判中的關鍵籌碼。企業在設計AI產品的服務條款時,必須前瞻性地考慮「哪些用途是公司絕不妥協的底線」,並以書面形式明確化——因為含糊的政策只會在日後的壓力測試中帶來更大的被動。這對正在構建企業AI服務的港企(包括金融服務、醫療健康、法律科技等行業的AI應用開發商)具有直接的政策設計參考意義。

其次,xAI Grok憑藉政治關係搶佔五角大樓機密合約一事,為投資者提供了一個重要的風險評估框架:在政治化日益嚴重的AI採購環境中,純粹以技術指標評估AI公司的競爭力已經不夠,必須同時評估其與現任政府的政治關係、監管風險敞口,以及政策環境突變時的商業韌性。對於在港上市或考慮赴港上市的AI相關公司,香港投資者在做盡職調查時,「政策風險」應被列為與技術競爭力同等重要的評估維度。香港作為亞太區最重要的國際資本市場,在AI投資熱潮持續升溫的當下,建立這種更為立體的AI公司評估框架,將是本港投資界保持競爭力的關鍵所在。

八、這場對峙的深遠影響:AI行業的「良心時刻」

回顧歷史,每一個重大技術時代都存在一些關鍵的「良心時刻」——科學家、工程師或商業領袖面對外部壓力,選擇為技術的倫理邊界發聲,並以此塑造整個行業的發展軌跡。曼哈頓計劃後的原子彈科學家、越戰期間拒絕配合政府的部分計算機科學家、以及2010年代科技公司員工反對政府大規模監控項目的抗議行動,都是類似的歷史節點。這一次,450+名員工的聯署和多位行業領袖的公開表態,或許正是AI時代的同類節點。

這場爭議的直接後果尚難預料。Anthropic是否會在五角大樓的壓力下最終妥協?DPA威脅是否會付諸法律行動?公開信能否推動立法層面的回應?這些問題的答案,將在未來數月乃至數年內逐步揭曉。但有幾個結構性影響已經清晰可見:AI公司在政府合約談判中的倫理邊界討論,將從幕後走向台前;員工對公司AI應用政策的集體影響力,已被這次聯署行動明確示範;以及AI治理的立法壓力,將因這次公開衝突而在國會層面進一步積聚。

對於關心AI未來走向的香港讀者而言,這場爭議的最大啟示或許是:AI技術的邊界,最終不是由代碼決定的,而是由人——工程師、創辦人、監管者、公民——共同選擇的。在AI以前所未有的速度滲透每個人的日常生活之際,這種選擇的重量,正在以同等的速度加深。我們每一個使用AI的人,都在這場關於AI何去何從的集體決策中,佔有一席之地。