L'umorismo come finestra sui pregiudizi dell'IA generativa
Englishto
Quando l'IA ride: come l'umorismo rivela pregiudizi nascosti nelle immagini generative.
Immagina di chiedere a un'IA di creare un'immagine, ad esempio di una persona che legge un libro. Ora, immagina di chiedere all'IA di rendere la scena "più divertente". Cosa succede sotto la superficie quando l'umorismo entra nell'equazione? Una recente ricerca ha approfondito questa intrigante intersezione tra intelligenza artificiale generativa, umorismo e pregiudizio, offrendo uno sguardo sorprendente su come il senso dell'umorismo dell'intelligenza artificiale possa rafforzare o modificare gli stereotipi sociali.
Esaminando 600 immagini generate dall'IA sulla base di 150 diversi suggerimenti, lo studio si è proposto di osservare cosa cambia quando le immagini vengono modificate per essere "più divertenti". I risultati sono illuminanti: quando viene chiesto di aggiungere umorismo, l'output dell'IA modifica in modo significativo la rappresentazione dei diversi gruppi sociali. I gruppi spesso bersaglio di pregiudizi, come gli anziani, le persone in sovrappeso e i non vedenti, diventano più frequenti in queste immagini "più divertenti". Nel frattempo, i gruppi storicamente al centro delle conversazioni pubbliche sui pregiudizi, come le minoranze razziali e le donne, diventano effettivamente meno visibili.
Questo modello non è casuale. Riflette una sensibilità culturale più ampia: aziende e sviluppatori hanno compiuto sforzi notevoli per ridurre i pregiudizi legati a razza e genere, probabilmente in risposta alla pressione pubblica e al potenziale di reazione. Ma così facendo, altre dimensioni dell'identità, come l'età, il peso corporeo e la disabilità, sono state relativamente trascurate. Di conseguenza, quando l'IA ha il compito di essere divertente, tende a “prendere a pugni”, basandosi su stereotipi su gruppi che sono meno protetti nel discorso pubblico.
Il processo funziona così: un prompt utente viene interpretato da un modello linguistico, che espande la descrizione, e poi un generatore di immagini la porta in vita. Lo studio ha rilevato che la maggior parte dei pregiudizi sembra derivare dal generatore di immagini piuttosto che dal modello linguistico. Ad esempio, dopo la modifica umoristica, le immagini hanno mostrato un picco di soggetti più anziani, più pesanti o ipovedenti, ma un calo nelle minoranze razziali e nelle donne. Ciò suggerisce che la concezione dell'umorismo del generatore di immagini si basa su spunti visivi legati a gruppi stigmatizzati, rispecchiando i modelli visti nelle battute umane che perpetuano il pregiudizio.
È interessante notare che la sottorappresentazione di alcuni gruppi non si limita alle immagini "divertenti". Anche prima di aggiungere qualsiasi elemento umoristico, l'IA ha già una visione ristretta di ciò che è "normale", spesso mettendo da parte le donne, le persone in sovrappeso e altre minoranze. Questo pregiudizio di base può essere altrettanto problematico, poiché modella la percezione pubblica presentando una versione distorta della società.
Perché è importante? Le immagini create dall'IA vengono utilizzate ovunque, dal marketing all'istruzione, e il rafforzamento sottile degli stereotipi può avere conseguenze nel mondo reale. Nella società umana, l'umorismo ha una relazione complicata con il pregiudizio: può sfidare gli stereotipi, ma può anche normalizzarli e diffonderli, specialmente quando la battuta prende di mira gruppi già emarginati.
I risultati sollevano importanti interrogativi sulle responsabilità di chi crea e distribuisce strumenti di intelligenza artificiale generativa. Man mano che questi modelli si intrecciano sempre di più con la vita quotidiana, c'è un urgente bisogno di guardare oltre le forme di pregiudizio più sensibili dal punto di vista politico e di affrontare l'intero spettro della rappresentazione. Solo allora l'IA potrà riflettere veramente, e non distorcere, la diversità del mondo che rappresenta.
0shared

L'umorismo come finestra sui pregiudizi dell'IA generativa