AI政策
美國《AI問責法案》三月正式通過,要求企業定期發布偏見審計報告
美國《人工智能問責法案(AI Accountability Act)》在2026年3月正式成為法律,要求在招聘、貸款、醫療和刑事司法等重大決策場景中部署AI系統的企業,必須定期進行並公開發布偏見審計報告,終結多年來的自願監管時代。違規者面臨聯邦罰款,並賦予受影響個人提起訴訟的權利。
經過多年的政治角力,美國終於在AI監管領域邁出了具有里程碑意義的一步。**《人工智能問責法案(Artificial Intelligence Accountability Act)》**於2026年3月在國會通過並簽署成為法律,標誌著美國正式告別「AI自我監管時代」,進入強制性問責的新階段。
法案的核心要求
法案的核心是「強制偏見審計與公開透明」原則,主要適用於以下高風險AI應用場景:
| 場景 | 要求 |
|---|---|
| 招聘與就業 | AI篩選系統需定期審計不同種族、性別、年齡群體的差異影響 |
| 信貸與貸款 | 貸款決策AI必須說明拒絕申請的可解釋理由 |
| 醫療診斷 | 輔助診斷AI需報告在不同人口群體中的準確率差異 |
| 刑事司法 | 預測性執法和假釋評估AI必須接受獨立審計 |
企業的合規義務
根據法案,受影響企業需要:
- 委託獨立第三方進行年度AI偏見審計
- 公開發布審計摘要,讓公眾和監管機構可以查閱
- 建立申訴機制,讓受AI決策影響的個人可以質疑和申訴決策
- 向聯邦貿易委員會(FTC)備案,報告AI系統的部署範圍和基本原理
執法與罰則
法案賦予聯邦貿易委員會(FTC)主要執法權,違規企業面臨:
- 最高每次違規5萬美元的民事罰款
- 受歧視影響的個人獲得私人訴訟權
- 反複違規者面臨更嚴厲的制裁和業務限制
行業的挑戰
法案的通過意味著大量使用AI進行自動化決策的企業,需要在未來12至24個月內建立完整的AI審計體系和合規流程,這將催生AI審計、AI可解釋性工具等新興市場的快速增長。
標籤: