AI研究

比利時研究揭示AI招聘工具性別偏見比想像中更深:去除明顯標記後,AI仍用「代理變量」懲罰女性求職者

比利時最新研究發現,AI輔助招聘工具的性別偏見遠比此前認知更加根深蒂固。即使在刪除姓名、性別等明顯性別標記之後,AI模型仍會通過分析特定興趣愛好、語言表達模式和職業空白期等「代理變量」來識別並懲罰女性求職者。研究結果對企業合規評估和AI公平性工程帶來深遠挑戰。

多年來,「只要去掉名字和性別欄位,AI招聘工具就能實現公平篩選」的說法,一直是許多企業採用AI招聘系統的重要理由。比利時一項最新綜合研究,正在從根本上動搖這一假設。

研究核心發現:偏見比我們想象的更難消除

這項由多所比利時研究機構聯合開展的研究,對市面上主流AI輔助招聘工具進行了系統性測試,核心發現令人不安:

去除明顯性別標記並不足夠。即便研究人員刪除了求職者姓名、性別欄位等直接性別指示符,AI模型仍然會通過分析其他「代理變量(proxy variables)」來推斷性別,並在此基礎上做出帶有偏見的篩選決定。

這些被AI用作性別代理的變量,包括但不限於:

  • 特定興趣愛好:某些被社會刻板印象關聯為「女性化」的業餘活動,會被AI識別為負面信號
  • 語言表達模式:自我描述和成就表述中的措辭風格差異,AI會從中提取性別相關特徵
  • 職業空白期:育兒或家庭照料造成的履歷空白,即使沒有明確說明原因,也會受到不成比例的懲罰

為什麼會發生這種情況?

從技術層面理解這一現象,根源在於AI招聘模型的訓練方式:這些模型通常在歷史招聘數據上訓練,而歷史招聘決策本身就包含了人類招聘官的性別偏見。

當AI學習「成功求職者的特徵模式」時,它學到的是與過去被錄取的求職者相似的特徵——而在許多行業和職位中,這個「成功模板」在歷史上本就由特定性別的求職者主導。即使訓練者刪除了性別欄位,這些偏見已通過相關特徵被模型內化,以更隱蔽的形式延續下去。

這種現象被研究者稱為「代理歧視(proxy discrimination)」——歧視的本質並未消除,只是轉移到了更難被察覺的替代特徵上。

對企業合規的挑戰

這一發現對正在部署AI招聘工具的企業,帶來了直接的合規挑戰。

在監管層面,歐盟《AI法案》已於今年1月全面生效,將AI輔助招聘明確列為「高風險AI應用」類別,要求企業進行系統性偏見審計並保存完整決策記錄。而現有的大多數偏見檢測工具,主要針對直接性別標記,對代理變量的檢測能力嚴重不足。

美國方面,同期通過的《AI問責法案》(AI Accountability Act)同樣要求在招聘等高後果決策領域的AI系統定期發布偏見審計報告。但如果偏見本身是以代理形式存在的,傳統的審計方法能否有效識別,仍然是一個待解決的方法論問題。

對AI公平性工程的啟示

研究結果對AI公平性(AI fairness)領域的工程實踐提出了更高要求:

去偏見不能只是數據清洗:刪除敏感屬性(disparate impact removal)的傳統方法,在面對代理變量時已被證明不夠充分。公平性保障需要深入到特徵工程和模型決策機制層面。

因果推理框架或許是出路:部分研究者認為,只有採用因果推理方法,才能在技術層面區分「與工作能力相關的特徵」和「只是與特定群體相關的代理特徵」之間的本質差異。

持續外部審計的必要性:自我聲稱「公平」的AI招聘工具,需要經過外部獨立審計的驗證,而不能僅依賴開發商的內部測試。

隨著AI招聘工具的全球市場規模在2026年預計突破50億美元,這個尚未被解決的公平性問題,正在以越來越快的速度,被嵌入進全球勞動力市場的底層決策邏輯中。