#CancelChatGPT運動爆發:OpenAI五角大樓合約觸發用戶大逃離,Claude成最大贏家

文章重點

  • OpenAI宣佈與五角大樓達成將AI模型部署於機密軍事網絡的協議後,#CancelChatGPT及#QuitGPT標籤在Reddit和X(前Twitter)上病毒式傳播,數以萬計用戶發佈取消ChatGPT Plus訂閱的截圖,形成近年來針對科技公司最大規模的消費者抵制運動之一
  • 大量取消ChatGPT訂閱的用戶公開表示正轉投Anthropic的Claude,認為Anthropic在數日前公開拒絕移除針對大規模監控和自主武器的安全護欄,展現了OpenAI所欠缺的倫理立場
  • 這場消費者反叛的背景極為複雜:特朗普政府因Anthropic堅守紅線而將其列為「供應鏈風險」並下令聯邦系統全面淘汰,而OpenAI則在競爭對手被清除後迅速填補市場真空,兩者的鮮明對比激化了公眾的道德判斷
  • 超過100名OpenAI和Google員工聯署請願書,要求限制AI的軍事用途,同時Google和Microsoft被曝以40萬至60萬美元的報酬支付給網絡創作者推廣AI產品,AI行業的信任危機從技術層面擴展至市場營銷層面
  • 對香港用戶而言,這場運動凸顯了AI平台選擇已不再是純粹的功能比較,而是涉及價值觀認同的消費決策——在全球AI治理框架尚未成熟的當下,消費者正以「用腳投票」的方式重塑行業的倫理底線

一、風暴起源:從五角大樓合約到全民抵制

2026年2月底至3月初,一場始料未及的消費者反叛運動席捲了全球最大的AI產品——ChatGPT。在OpenAI行政總裁Sam Altman宣佈與美國國防部達成將AI模型部署於機密軍事網絡的協議後,#CancelChatGPT和#QuitGPT兩個標籤幾乎同時在Reddit和X(前Twitter)上爆發,在短短48小時內累計觸及數以百萬計的用戶。Reddit的r/technology、r/ChatGPT、r/artificial等多個科技相關版塊被取消訂閱的截圖所淹沒,X上的相關討論更是持續佔據熱門趨勢榜首達數日之久。

這並非AI產品首次遭遇用戶反彈,但其規模和烈度在行業歷史上確屬空前。與過往因技術缺陷或隱私醜聞引發的零星不滿不同,#CancelChatGPT運動有着清晰的政治和倫理驅動力——用戶明確表達的核心訴求是:他們不願意為一家選擇與軍方進行機密合作的公司付費。在Reddit上獲得數萬個讚好的帖文中,一位用戶寫道:「我每月付20美元讓ChatGPT幫我寫程式碼和整理筆記,不是為了資助它去幫五角大樓分析如何更有效率地投下炸彈。」這類直白的情感表達,精準地捕捉了驅動這場運動的核心情緒:一種被背叛的感覺。

運動的傳播速度令人驚訝,但其爆發本身並不令人意外。在此之前,圍繞AI軍事化的爭議已經醞釀數週。Anthropic拒絕五角大樓移除安全護欄的要求、特朗普政府對Anthropic的報復性制裁、以及OpenAI在競爭對手被排除後迅速填補市場空缺——這一系列事件如同不斷累積的火藥,而五角大樓機密合約的正式宣佈,恰好成為點燃一切的火花。

二、轉投Claude:Anthropic意外成為「良心之選」

在#CancelChatGPT運動中最引人注目的現象之一,是大量用戶明確表示他們正在轉投Anthropic的Claude。在Reddit的取消訂閱截圖帖文下,「已經開始用Claude了」「Claude的回答質量其實更好」「至少Anthropic有骨氣」等評論比比皆是。X上亦出現了大量對比ChatGPT和Claude功能的討論串,其中不少帶有明顯的價值判斷——選擇Claude不僅是技術偏好的體現,更被視為一種道德表態。

Anthropic之所以成為這場運動的「受益者」,與其數日前的一個決定直接相關。在五角大樓向Anthropic提出移除安全護欄的要求後,Anthropic行政總裁Dario Amodei公開且堅定地拒絕了這一要求,明確重申了公司的兩條不可觸碰的紅線:禁止Claude被用於大規模國內監控,以及禁止其被整合入無需人類決策的全自主致命武器系統。這一立場最終導致特朗普政府將Anthropic列為「供應鏈風險」實體,但也同時為Anthropic在消費者心目中建立了鮮明的倫理形象。

從消費者心理學的角度看,這場轉投浪潮包含了多層動機。最表層的是「懲罰性消費」——通過取消訂閱來表達對OpenAI決策的不滿;中間層是「獎勵性消費」——通過付費支持Anthropic來認可其倫理立場;最深層的則是「身份認同消費」——在一個AI產品日益成為個人數位生活核心的時代,用戶開始將其AI平台的選擇視為個人價值觀的延伸。正如一位用戶在Reddit上所寫:「我用甚麼AI,說明我是甚麼樣的人。」

然而,也有觀察者指出這場轉投浪潮的諷刺之處。Anthropic被聯邦政府封殺的直接結果,是其在政府和企業市場遭受巨大的商業損失。消費者市場的增長,在規模上遠不足以彌補聯邦市場的流失。從商業現實角度看,Anthropic「堅守原則」的代價極其高昂,而消費者的支持——儘管在輿論上聲勢浩大——在財務報表上的影響可能遠不如其在社交媒體上的聲量那般顯著。

三、OpenAI的身份危機:從非牟利理想到軍事承包商

#CancelChatGPT運動觸及的最深層矛盾,是OpenAI作為一個組織的根本性身份危機。2015年,OpenAI以非牟利組織的形式成立,其創始章程明確宣示了一個崇高的使命:確保通用人工智能(AGI)惠及全人類。早期的OpenAI以安全研究和開放發表為核心定位,甚至將「Open」一詞嵌入其名稱之中,象徵着對透明和公共利益的承諾。

然而,從2019年轉型為「受限牟利」(capped-profit)結構開始,OpenAI的身份定位經歷了一系列令人目不暇給的轉變。ChatGPT的爆紅為其帶來了數十億美元的收入,同時也將其推向了一條越來越難以回頭的商業化道路。到2026年,OpenAI已成為估值超過7,000億美元的商業帝國,而現在,它更成為了美國國防部的機密網絡承包商。對於那些從一開始就因為OpenAI的理想主義使命而選擇支持它的用戶而言,從「安全至上的非牟利」到「五角大樓承包商」的軌跡,構成了一種難以消化的認知失調。

Altman在宣佈五角大樓合約時試圖緩解這種認知失調。他強調五角大樓已同意OpenAI提出的兩項核心安全原則——禁止大規模國內監控、確保人類對武力使用承擔最終責任——並表示合約允許OpenAI自行構建和維護其「安全堆疊」(safety stack),若模型拒絕執行某項任務,政府不會強制OpenAI令其就範。這些條款在技術治理層面確具開創性意義。但批評者迅速指出,同一份合約中「任何合法用途」的通用授權條款,與這些安全原則之間存在無法迴避的邏輯張力。更根本的問題是:在Anthropic因堅守幾乎完全相同的安全原則而被政府全面封殺的背景下,OpenAI聲稱自己「既獲得了合約,又保住了原則」的說法,在批評者看來幾乎缺乏可信度。

「OpenAI成立時承諾要確保AI惠及全人類,現在它卻在幫五角大樓建立機密系統。Anthropic因為拒絕移除安全護欄而被政府封殺,而OpenAI卻在同一天宣佈獲得了軍方合約。這不是甚麼複雜的道德哲學問題——這就是赤裸裸的背叛。」——Reddit用戶在r/technology的熱門帖文

四、員工的良心反抗與行業內部的裂痕

消費者的抵制浪潮並非孤立事件。在此之前和之後,AI行業內部同樣出現了顯著的反對聲音。超過100名來自OpenAI和Google的員工聯署了一份請願書,要求各自的公司限制AI技術的軍事用途。這份請願書雖然未必能直接改變公司決策,但它清晰地表明:即便在這些公司的內部,對AI軍事化的擔憂也絕非邊緣聲音。

事實上,這場員工反抗並非空穴來風。此前數週,超過450名Google和OpenAI員工已經聯署了題為「我們不會被分裂」(We Will Not Be Divided)的公開信,明確支持Anthropic拒絕五角大樓監控要求的立場。OpenAI行政總裁Sam Altman本人甚至一度公開表示,不認為五角大樓應以《國防生產法》威脅AI公司。Google DeepMind首席科學家Jeff Dean亦表態反對將AI用於大規模監控。這些來自行業最高層的表態,在當時被視為整個AI業界罕見的團結時刻。

然而,當OpenAI隨後與五角大樓簽署機密合約時,此前的「團結」敘事便顯得格外脆弱。對於那些曾經聯署公開信支持Anthropic的OpenAI員工而言,他們所在公司的最終決策與自己公開表達的立場形成了尖銳的矛盾。這種內部張力的長期影響不容小覷——在AI人才供應仍然極度稀缺的市場中,公司的倫理立場直接影響其吸引和留住頂尖研究人員的能力。若有顯著數量的員工因價值觀衝突而選擇離開,其對OpenAI技術競爭力的打擊可能遠超消費者取消訂閱所造成的收入損失。

五、信任的商品化:當AI推廣遇上消費者覺醒

#CancelChatGPT運動的爆發,恰好與AI行業市場營銷策略的另一場信任危機相交疊。近期曝光的資料顯示,Google和Microsoft分別以40萬至60萬美元的報酬,支付給網絡內容創作者和意見領袖,用以推廣其AI產品。這些付費推廣安排在合約條款上雖合乎行業慣例,但其金額之巨和覆蓋範圍之廣,令消費者對「獨立評測」和「真實用戶推薦」的可信度產生了根本性質疑。

與此同時,Anthropic在2026年超級碗期間投放了耗資數百萬美元的廣告。超級碗作為美國最大的電視廣告舞台,其單條30秒廣告的價格可達700萬美元以上。Anthropic選擇在如此昂貴的平台進行品牌推廣,一方面反映了其與消費者市場建立直接連結的戰略意圖,另一方面也令部分觀察者質疑:一家以安全研究為使命的AI公司,將如此巨額的資金投入廣告而非研發,是否與其宣稱的優先順序相矛盾?

這些營銷層面的爭議與#CancelChatGPT運動的疊加,折射出AI行業正面臨的一個結構性困境:消費者信任正在被多重因素同時侵蝕。軍事合約損害了產品的道德形象,付費推廣損害了評價體系的獨立性,巨額廣告支出損害了「以使命為先」的品牌敘事。當這些因素匯聚在一起時,消費者開始用一種前所未有的批判眼光審視AI公司的每一個決策——而這種審視的嚴厲程度,遠超這些公司在追求高速增長時所預期的水平。

#1趨勢
#CancelChatGPT在X上的熱門排名
100+
聯署要求限制軍事AI的員工人數
$40-60萬
Google/Microsoft支付創作者推廣AI的費用
數百萬
Anthropic超級碗廣告投放金額(美元)

六、更深層的追問:AI公司應否設定倫理紅線?

在#CancelChatGPT運動的喧囂之下,一個更為根本的問題浮出水面:在全球AI治理體系尚未成熟的當下,AI公司是否有義務——甚至有權利——自行設定倫理紅線?這個問題沒有簡單的答案,但當前的事態發展為不同立場提供了鮮活的案例研究。

支持AI公司設定紅線的論點建立在兩個基礎之上。首先是技術專業性論據:AI公司比政府更深入地理解其技術的能力邊界和潛在風險,因此在判斷哪些應用場景尚不安全或可能造成不可逆損害方面,具有不可替代的專業判斷力。其次是歷史教訓論據:從核能到生化技術,歷史反覆表明,純粹依賴事後監管來約束具有巨大破壞潛力的技術,往往為時已晚;技術開發者的自我約束——儘管不完美——提供了一道寶貴的前置防線。Anthropic的立場正是這一論點的具體實踐:它選擇在政府監管到位之前,主動為自身的技術設定應用邊界。

反對的論點同樣有力。批評者指出,將國家安全決策的實質權力交由私人企業行使,構成了一種未經民主授權的權力僭越——AI公司的管理層既不是民選官員,也不對公眾負有直接的問責義務,由他們來決定哪些軍事應用可以接受、哪些不可以,在本質上繞過了民主治理的基本程序。此外,企業的「倫理紅線」本質上是商業決策而非法律義務,其可以隨着管理層更迭、股東壓力或市場環境變化而被重新劃定——這種不確定性使其作為安全保障的可靠性大打折扣。

對消費者而言,#CancelChatGPT運動提供了一個清晰的信號:無論學術辯論如何結論,市場已經在用行動表明,至少有相當一部分用戶確實在乎AI公司的倫理立場,並願意為此支付「轉換成本」。這種市場力量——消費者通過選擇AI平台來獎懲企業行為——可能成為在正式監管體系建立之前,最具實際效力的約束機制之一。

OpenAI的身份演變時間線

2015年:以非牟利組織形式成立,使命宣言強調「確保通用人工智能(AGI)惠及全人類」,早期投資者包括Elon Musk等科技界知名人物,以開放研究和安全優先為核心定位。

2019年:轉型為「受限牟利」(capped-profit)結構,開始接受大規模商業投資,引發首批「使命偏移」的批評聲音。

2022-2023年:ChatGPT發佈引發全球轟動,Microsoft投資超過130億美元,OpenAI迅速成為全球最具商業價值的AI企業之一。

2025-2026年:估值突破7,000億美元,完成1,100億美元融資,與五角大樓簽署機密網絡部署協議。從非牟利安全研究機構到軍事承包商的轉變,歷時僅十年。

七、批評者的質疑:Altman的安全承諾是否可信?

Sam Altman在五角大樓合約中爭取到的安全條款——禁止國內大規模監控、確保人類對武力使用的最終責任、自建安全堆疊——在文本層面確實具有實質意義。但批評者從多個角度質疑這些承諾的真誠性和持久性。

首先是時機問題。OpenAI宣佈合約的時間,恰好在Anthropic被列為「供應鏈風險」的數小時之後。批評者認為,如果OpenAI真的致力於行業整體的安全標準,它應該在Anthropic被封殺後暫緩宣佈合約,甚至公開要求政府撤銷對Anthropic的制裁。相反,OpenAI選擇在競爭對手倒下的同一天宣佈自己的勝利,這種時機選擇——無論是否出於刻意安排——傳遞的信號與「去升級化」的修辭恰好相反。

其次是結構性質疑。Anthropic堅持同樣的安全原則卻被政府懲罰,而OpenAI聲稱獲得了同樣的安全條款卻得到了合約獎勵——這種「同一原則、相反結果」的現象,要麼意味着OpenAI的安全條款在實際執行層面遠不如其文字表述那般嚴格,要麼意味着政府對兩家公司採取了雙重標準。無論哪種解釋,都對OpenAI安全承諾的可信度構成質疑。有評論者更為直白地指出:「五角大樓不可能因為Anthropic說'不'就把它封殺,然後轉頭獎勵另一家說同樣的話的公司——除非那家公司說的'不'不是真的。」

第三是可執行性問題。在機密網絡的封閉環境中,OpenAI安全堆疊的運作是否能接受獨立審計?如果五角大樓對模型的拒絕率表達不滿,OpenAI是否會在缺乏外部監督的情況下悄然調整其安全參數?這些問題在合約的公開條款中均未獲得充分回答。而在一個競爭對手已因堅守原則而被清除出市場的環境中,OpenAI面臨的合規壓力只會更大,而非更小。

八、香港視角:AI平台選擇的新維度

對於香港用戶和科技業界而言,#CancelChatGPT運動的意義遠不止於一場美國社交媒體上的輿論風暴。它揭示了一個正在全球範圍內形成的新現實:AI平台的選擇正從純粹的技術功能比較,演變為涉及價值觀、信任和地緣政治風險的複合決策。

香港作為國際金融中心和科技應用的前沿城市,其企業和個人用戶在AI平台選擇上面臨獨特的考量。在個人用戶層面,ChatGPT和Claude在香港均擁有龐大的付費用戶群體,主要用途涵蓋專業寫作、程式編碼、學術研究及日常生產力提升。#CancelChatGPT運動中浮現的倫理考量——AI技術被用於軍事目的是否可以接受——對香港用戶而言同樣具有共鳴。尤其是在香港社會經歷了近年來圍繞監控和公民自由的深刻討論之後,「AI被用於大規模監控」這一議題所觸發的敏感度,可能比許多其他地區更為強烈。

在企業層面,香港公司在選擇AI合作夥伴時需要納入一個新的風險維度:AI供應商的政策風險。Anthropic被美國政府列為「供應鏈風險」的事件,清楚表明AI公司的命運可以在數週內因政治因素而發生根本性轉變。對於依賴特定AI平台構建業務流程的香港企業而言,供應商的政策穩定性和地緣政治韌性,已經與技術性能和價格一樣,成為採購決策中不可忽視的評估維度。

更廣泛地看,這場運動為香港科技生態系統提供了一個重要的觀察窗口。當消費者開始將倫理立場納入AI產品的選擇標準,當員工開始公開反對自己公司的軍事合作決策,當社交媒體的集體行動能夠對價值數千億美元的企業施加實質壓力——這些現象共同描繪出AI行業治理的一個新圖景:在正式的法律和監管框架尚未跟上技術發展速度的過渡期,市場力量和公民社會正在填補制度真空,以一種非正式但日益有效的方式,對AI公司的行為施加約束。香港企業和用戶在這一新格局中,既是觀察者,也是參與者——他們的每一次AI平台選擇,都在這場全球性的倫理博弈中投下一票。