AI政策

歐盟AI法規修訂談判破局,監管「數位整合方案」引發放寬疑慮

歐盟理事會與歐洲議會未能就AI法規調整達成共識,焦點集中在高風險應用與豁免範圍,後續談判將影響企業合規路線。

談判破局:高風險規範與豁免範圍成焦點

歐盟近期就人工智能法規的調整進行密集協商,但在長時間討論後仍未能達成最終共識。爭議點在於:哪些產業與情境可被視為已受其他法規充分規管,從而獲得豁免;以及在生物識別、公共服務、醫療、信貸評估與執法等「高風險」領域,是否要降低部分義務。對企業而言,這些定義直接影響系統要不要做額外的風險評估、資料治理、可追溯設計與後續監測。

企業影響:合規成本、產品節奏與跨境營運

若監管要求被放寬,短期或可降低中小企業的合規門檻,讓產品更快上線;但若豁免過大,也可能導致市場出現規管落差,令供應鏈上下游難以對齊責任分工,特別是需要跨國部署的金融、醫療與公共部門方案。對香港企業來說,歐盟仍是重要市場與標準制定者,建議把「高風險」框架視作基準:先建立資料血緣、模型版本管理、使用紀錄與人機協作流程,即使規則細節變動,也能用同一套治理骨架應對。

下一步:談判續航,標準化與落地指引仍是關鍵

後續協商將延續,外界關注是否會以「簡化」為名降低核心保障。即使文本最終定案,真正影響企業操作的往往是執行層面的標準、審查流程與監管解釋。企業可提前盤點AI系統用途與風險級別,將合規工作嵌入產品開發流程(需求、測試、上線、監控),以減少到期前臨時補洞的成本。