AI政策
美國推動《AI 基礎模型透明度法案》:要求大型模型公開訓練與風險資訊
美國國會提出 H.R. 8094,擬授權 FTC 制定規則,要求符合門檻的基礎模型提供者公開訓練、用途、風險與評估等關鍵披露。
法案要解決的問題:模型影響力上升但資訊不對稱
美國國會提出《AI 基礎模型透明度法案》(H.R. 8094),核心方向是把「大型基礎模型」的關鍵資訊公開化,降低社會、企業與監管機構面對黑箱模型時的資訊落差。法案設計並非直接限制模型研發,而是要求達到特定能力、規模或計算量門檻的模型提供者,向公眾披露其模型如何訓練、設計目標、限制與風險,以及如何被評估與監控。
監管機制:由 FTC 制定細則並以既有執法權處理
法案構想由美國聯邦貿易委員會(FTC)制定具體規則,要求「受涵蓋實體」發布透明度披露,並以 FTC 既有的執法權處理違規情況。法案亦定義「基礎模型」為以廣泛資料訓練、通常採自監督學習、參數規模達十億以上、可生成多樣輸出並可被改作多用途的模型;同時以風險、月活用戶量或訓練計算量等門檻判定是否屬於受涵蓋範圍。完全開源模型則被列為豁免。
披露內容:訓練資料、用途風險、評估與算力
在最低要求層面,披露方向包含:訓練資料來源與治理方式、模型預期用途與已知限制/風險、版本紀錄與事件回應流程、支援語言與安全框架對齊(例如以既有風險管理框架為參考)、內外部評估摘要及高風險應用的防護安排,以及訓練與運行所用的計算資源。若法案推進,市場可能出現更標準化的「模型透明度報告」,企業採購與政府採用亦可把披露文件納入供應商評估與審計流程。