AI政策
Anthropic被美國戰爭部指定供應鏈風險,將提出法律挑戰
人工智能公司Anthropic因國家安全考量被美國戰爭部列為供應鏈風險,將依法挑戰此決定,並承諾持續支持軍方過渡期需求。
2026年3月,人工智能公司Anthropic收到美國戰爭部通知,因國家安全理由被指定為供應鏈風險。Anthropic對此決定的法律依據表示質疑,並計劃向法院提出挑戰。
該指定主要針對與戰爭部合同直接相關的Claude AI服務使用,並不影響大多數客戶的正常業務。根據相關法律,戰爭部需採取最少限制措施保障供應鏈安全。
Anthropic強調,過去與戰爭部合作順利,提供包括情報分析、模擬、作戰規劃及網絡作戰等AI支持,並明確反對AI參與自主武器或大規模國內監控。
公司承諾在過渡期間繼續以名義成本提供技術支持,確保前線作戰人員不受影響。Anthropic與戰爭部均致力於推動國家安全及AI應用,未來決策將基於共同目標。
此事件反映出AI技術在國防領域的敏感性及監管挑戰,也顯示企業與政府間在安全與創新之間尋求平衡的複雜性。