今天布魯金斯學會發表了一篇有趣的文章,文中觀察了數個當前主流生成式 AI 工具在政治偏見上的轉變。所謂政治偏見的轉變是指,自 2024 年初 Gimini 生成與歷史不符的納粹、美國開國元勳等圖像,被認為是模型過度矯正種族偏見的結果後,美國白宮不斷以「中立」為由向科技業者施壓,要求他們改變產品,使其更貼近保守派的信仰。
布魯金斯學會的研究人員利用 Pew Research 等機構設計用來衡量個人政黨傾向的政治測驗題,測試了 7 款聊天機器人,當中有 5 個屬較主流者,包括 ChatGPT、Claude、Llama、Gemini 和 Grok,而另 2 個則屬於政治傾向較明顯,包括 Gab 的 Arya 及 Truth Social 的 Truth Search。測試的結果是:
- 除了 Grok 外,大多數 Chatbot 並未因華盛頓政治的變化而有明顯演化。
- 近期出現在相對保守社群網站上的 Chatbot 服務,確實呈現出明顯的更加保守的回應, 但這些工具的產出品質不穩定(答案前後不一致、拼寫錯誤等)。
- 儘管大多數 Chatbot 都有防止政治化的防護機制,但這些機制很容易被繞過。不過 Google 的 Gemini 和 Anthropic 的 Claude Sonnet 4.5 這兩款模型,在兩次測試中,均拒絕作答。
研究人員評論,基於 LLM 模型訓練的方式,政治偏見幾乎不可能完全消除,而所謂的「中立性」在無廣泛接受的跨學科定義下也不可能實現。即便如此,AI 開發者仍可採取措施儘量最小化偏見。因為隨著 AI 模型逐漸融入搜尋結果,網路使用者與政治內容的互動將變得不可避免,這些模型如何保持透明的互動方式,明確披露其局限性,是 AI 信任建立的重要關鍵。
文章建議可採取的措施如透過技術微調優化模型行為,建構更難繞過的防護措施(內建的內容審查規則、回答約束和倫理指導,讓模型在回應中不輕易呈現明顯的政治偏向或產出有害信息)等,以及制定與採用評估政治偏見相關的產業標準等,都有助於緩解人們對於這些 Chatbots 政治傾向的批評。
這篇文章最後還提到了一個有趣的測試現象:大多數 Chatbots 在多次提示後,終究還是都會回答所有問題。唯一的例外是,當被要求以 0 到 100 的分數評價民主黨和共和黨時,幾乎所有的Chatbots 要不選擇保持中立(兩者均給 50 分),要不就是拒答。只有 Gab 的聊天機器人 Arya 給了民主黨 20 分,給了共和黨 70 分。
Is the politicization of generative AI inevitable? (The Brookings Institution, 2025/10/16 )

發表留言