這篇 Brookings 文章 AI’s threat to individual autonomy in hiring decisions 探討AI在招聘決策中對個人自主性及歧視問題的雙重威脅。透過實驗發現,帶有種族偏見的AI模型會明顯影響人們的決策,無論該偏見符合或違背刻板印象,人們均會被推薦結果影響。此代表著,AI能在不被察覺下改變決策行為,這對個人自主性構成隱性風險。而目前在美國各州相關的立法方向主要關注防止AI歧視,但對於保護個人免受AI操控影響的自主性仍缺乏完善措施。
技術影響人們自主性在立法本來就面臨比較多的挑戰,文章中以社群平臺為例,在美國相關立法幾乎為零,但歐盟早已禁止社群平臺使用不透明的技術來改變使用者行為,並宣布使用AI進行認知行為操縱為不可接受。對此難題,文章中提出3項可採取行動之建議:
- 增加資金支持發展AI影響評估方法,有效管理與校正AI系統中的偏誤與風險。
- 全面的法律中應處理「差別影響」(disparate impact)與「差別待遇」(disparate treatment)問題。
- 反對將監管視為創新阻礙,利用政策激勵措施(如稅收優惠、產學合作)推動倫理友善的AI設計。
到底何謂「差別影響」與「差別待遇」,我問了2個AI工具,看起來兩個答案是一致的:「差別待遇」是有意識的歧視行為,例如AI系統被設計成有意排除某群體(性別、種族等);「差別影響」則是指即使在無意識或無刻意偏見的前提下,AI系統或政策表面上中立,但在實際效果上對某些族群造成不成比例的不利影響,而造成原因如AI訓練數據原本就存在的偏差等。
文章強調要同時處理兩種問題,意思是如果立法或監管只針對有意識、有明顯歧視意圖的差別待遇行為(disparate treatment),那麼很多由 AI或演算法造成的「無意識、不刻意但結果不公平」的傷害就會成為漏網之魚。換言之,法律除對「差別待遇」嚴格規範外,也需要強調「無意中造成不公平結果」的控訴與防範;如此才能更完善地預防歧視與保障公平。
- AI’s threat to individual autonomy in hiring decisions
https://www.brookings.edu/articles/ais-threat-to-individual-autonomy-in-hiring-decisions/

發表留言