幽默是生成式 AI 偏見的窗口
Englishto
當人工智慧大笑時:幽默如何揭示生成圖像中的隱藏偏見。
想像一下,要求人工智慧創造一個圖像,例如一個人在閱讀一本書。現在,想像一下,提示人工智慧讓場景「更有趣」。當幽默進入方程式時,表面之下會發生什麼?最近的研究深入探討了生成式 AI、幽默感和偏見的交集,令人驚訝地發現 AI 的幽默感如何強化或改變社會刻板印象。
透過審核 600 張由 150 個不同提示所產生的 AI 圖像,該研究旨在觀察當圖像被修改為「更有趣」時會發生什麼變化。結果令人大開眼界:當被要求注入幽默感時,人工智慧的輸出會以顯著的方式改變不同社會群體的代表性。在這些「更有趣」的圖片中,經常成為偏見目標的群體(如老年人、體重較重的人和視障人士)變得更為普遍。同時,歷史上在關於偏見的公共對話中處於中心位置的群體,如少數族裔和女性,實際上變得不那麼顯眼。
這種模式並非隨機的。這反映了一種更廣泛的文化敏感性:公司和開發人員已經做出了顯著的努力,以減少圍繞種族和性別的偏見,這可能是為了應對公眾壓力和潛在的反彈。但在此過程中,身分的其他層面(如年齡、體重和身心障礙)卻相對地被忽視了。因此,當人工智慧被要求要變得有趣時,它傾向於「打擊弱勢群體」,依賴於在公共話語中較少受到保護的群體的刻板印象。
這個過程的運作方式如下:語言模型解釋使用者提示,擴展描述,然後圖像生成器將其變成現實。研究發現,大多數偏見似乎來自圖像生成器,而不是語言模型。例如,在幽默感修改後,圖片中出現了更多年長、體重較重或視力受損的主體,但少數族裔和女性的比例則有所下降。這表明圖像生成器的幽默概念依賴於與污名化群體相關的視覺提示,這反映了人類笑話中延續偏見的模式。
有趣的是,某些群體的代表性不足並不限於「有趣」的圖像。即使在加入任何幽默元素之前,人工智慧已經預設了「正常」的狹隘視野,通常會排斥女性、體重較重的人和其他少數族裔。這種基線偏見可能同樣成問題,透過呈現扭曲的社會版本來塑造公眾認知。
為什麼這很重要?從行銷到教育,人工智慧創造的圖像無所不在,而對刻板印象的微妙強化可能會產生現實世界的後果。在人類社會中,幽默與偏見的關係很複雜:它可以挑戰刻板印象,但也可以使其正常化並傳播,尤其是當笑話針對已經邊緣化的群體時。
這些研究結果提出了關於創建和部署生成式 AI 工具的人員責任的重要問題。隨著這些模型與日常生活的交織日益密切,迫切需要超越最具政治敏感性的偏見形式,解決整個代表性的問題。唯有如此,人工智慧才能真正反映(而非扭曲)其所描繪世界的多樣性。
0shared

幽默是生成式 AI 偏見的窗口