L'uomo-macchina

Germanto
Un famoso informatico una volta ha detto: “Già negli anni '60 la gente credeva che parlare con una macchina potesse suscitare sentimenti reali.”“Sembra assurdo, ma è esattamente quello che è successo quando Joseph Weizenbaum ha presentato il suo programma ELIZA. ELIZA era estremamente semplice, riusciva a imitare solo pochi schemi di conversazione, eppure molti utenti vedevano in lei una sorta di interlocutore. Oggi, con ChatGPT, Claude o Gemini, spesso pensiamo che i modelli linguistici siano costruiti da zero come se avessero un carattere proprio. Ma non è affatto vero, ed è proprio qui che sta l'errore di ragionamento che commettono quasi tutti. L'ipotesi diffusa: i grandi modelli linguistici come ChatGPT nascono semplicemente da enormi quantità di dati e sono quindi praticamente “pronti”, dotati di personalità, opinioni, forse persino di una sorta di anima. In realtà, però, il prodotto chatbot finito è il risultato di un enorme lavoro di post-elaborazione. Il cosiddetto modello di base, ossia il modello fondamentale derivato dall'addestramento, non è ancora un “interlocutore”, ma si limita a riprodurre ciò che il suo materiale di addestramento gli fornisce. Se l'addestramento consiste principalmente in definizioni matematiche, il modello suona come una calcolatrice tascabile. Quando predominano i dialoghi di Reddit, improvvisamente sembra quasi umano. Il punto cruciale: l'aspetto umano non è integrato, ma viene “aggiunto in seguito”. L'assistente di Elon Musk, Grok, ad esempio, viene addirittura descritto esplicitamente come “progettato per massimizzare la verità e l'obiettività”. Anthropic descrive Claude come “disponibile, onesto e innocuo”. I modelli di base non possiedono queste caratteristiche intrinseche. Le acquisiscono solo attraverso una messa a punto mirata, attraverso i cosiddetti processi di "reinforcement learning" e, nel caso di Anthropic, persino attraverso un team di filosofi come Amanda Askell, che hanno il compito di insegnare al chatbot tratti caratteriali etici. La personalità di un chatbot è quindi un prodotto di progettazione, non un risultato casuale derivato dai dati. I dati di addestramento per questi modelli sono un mix eterogeneo: Common Crawl, ossia un'enorme raccolta di dati da Internet, Reddit, Wikipedia, GitHub per il codice di programmazione, articoli scientifici di ArXiv e PubMed, libri digitali – contengono di tutto, dalla matematica al linguaggio quotidiano, dal tedesco letterario elaborato a errori grammaticali madornali. A seconda del contesto, il modello può apparire come un robot privo di emozioni o come un amico premuroso. Tuttavia, questi momenti in cui un bot sembra davvero “umano” sono spesso instabili, variano a seconda della situazione e possono essere controllati dagli sviluppatori solo in misura limitata. Un dettaglio che molti trascurano: l'apparente umanità dell'IA è spesso creata solo da piccoli marcatori linguistici, ad esempio quando il bot accenna a sentimenti, descrive stati interiori o addirittura usa emoji. Si tratta del cosiddetto effetto Eliza: percepiamo umanità perché vogliamo sentirla. Un pensiero di cui si parla raramente: cosa succede se un modello di IA viene volutamente programmato per essere disumano? Un chatbot che risponde solo con formule, codici o con un freddo linguaggio burocratico: non ci irriterebbe tanto quanto un bot troppo “umano”? La vera decisione spetta quindi agli sviluppatori: sono loro a decidere quanta umanità ci sia nel chatbot, e non si tratta di un sottoprodotto tecnico, ma di una scelta etica. In definitiva, la personalità dei chatbot non è un'ombra dell'addestramento, ma una scelta di progettazione consapevole. D'ora in poi, quando parlerai con un'IA, saprai che l'umanità che percepisci è un artificio e che domani potrebbe essere completamente diversa. Se questo pensiero non ti abbandona, puoi indicare su Lara Notes con I'm In che questa nuova immagine dell'IA fa ora parte del tuo modo di pensare. E se stasera parli con qualcuno del motivo per cui l'IA a volte sembra umana e a volte profondamente estranea, puoi registrare la conversazione con Shared Offline: in questo modo rimarrà il momento in cui avete riflettuto insieme. Questo era un saggio di Max Beck pubblicato sulla rivista culturale Merkur: invece di leggere per dieci minuti, hai ascoltato per tre minuti.
0shared
L'uomo-macchina

L'uomo-macchina

I'll take...