AI政策
Anthropic 與歐盟就資安AI模型展開討論,強調風險評估與緩解義務
歐盟表示 Anthropic 正就不同模型(含資安取向模型)與其溝通,相關服務尚未在歐盟提供,並需遵循通用AI行為守則的風險管理要求。
事件重點
歐盟方面表示,AI 公司 Anthropic 正與歐洲委員會就其不同模型進行討論,其中包括資安取向的模型;相關資安模型目前尚未在歐盟市場提供。與此同時,該公司已表態會遵守歐盟針對通用型 AI 的行為守則,當中包含對可能帶來的風險進行評估與緩解的要求。
為何資安模型更敏感
具備強大程式分析、漏洞理解與自動化工具使用能力的模型,既能協助防禦方提升弱點掃描、修補與事件回應效率,也可能降低攻擊者發動入侵的門檻。因此監管機構在面對「可被濫用」的高能力模型時,往往更重視發布節奏、使用者身分驗證、日誌與追溯、以及輸出限制等治理機制。對供應商而言,若要在歐盟落地,除了技術安全措施,也需要在風險管理流程、透明度文件與事故通報機制上投入。
對企業採用的含意
這類討論反映一個趨勢:未來企業引入高能力模型,合規與風險治理將成為與效能同等重要的採購條件。對香港與跨境營運的公司來說,若業務涉及歐盟客戶或資料,需提早建立模型選型與風險評估框架,包括用途界定、資料最小化、權限控管與紅隊測試,避免因監管差異而導致產品上線延誤或合規成本失控。