La strana origine delle capacità di "ragionamento" dell'IA
Englishto
Nel luglio del 2020, un gruppo di gamer su 4chan ha scoperto che, chiedendo a un personaggio virtuale di AI Dungeon di risolvere un problema di matematica “spiegando passo dopo passo”, il modello di intelligenza artificiale non solo arrivava alla soluzione, ma lo faceva entrando nel personaggio scelto. Il dettaglio sorprendente: furono tra i primi al mondo a vedere in azione quella che oggi chiamiamo “catena di pensiero”, la tecnica che consente ai grandi modelli linguistici di spiegare le fasi di un ragionamento, non solo di fornire la risposta finale. Oggi il marketing delle big tech parla di “modelli che ragionano”, di chatbot che “pensano prima di rispondere” o sono “in grado di mostrare i propri pensieri”. Ma la verità è che quella che sembra una svolta ingegneristica nasce tra battute oscene e meme su un forum famigerato. L’idea che le IA abbiano imparato a ragionare come esseri umani è una narrazione molto più recente della realtà tecnica che c’è dietro. Tutto ruota attorno a un malinteso: pensiamo che la catena di pensiero sia la prova che un modello ragiona, perché ci fornisce una spiegazione articolata, passo dopo passo. In realtà, il modello sta solo imitando i testi che ha letto, comprese centinaia di migliaia di soluzioni a problemi matematici pieni di frasi come “Aspetta, no. La domanda è…”, “Prima dovrei controllare l'input” e “Aspetta, ma nei casi in cui…”. Più che ragionare, simula il ragionamento. I protagonisti di questa storia non sono i ricercatori di Google o OpenAI, ma un gruppo di gamer anonimi e un giovane appassionato di informatica, Zach Robertson. Su 4chan, tra commenti sopra le righe, qualcuno scrive: “Ha senso, visto che si basa sul linguaggio umano, che tu debba parlargli come a una persona per ottenere una risposta sensata”. Nel frattempo, Robertson pubblica un post su come “amplificare le capacità di GPT-3” suddividendo i problemi in più passaggi e lo presenta a settembre 2020, ignaro di aver contribuito a una delle svolte più celebrate dell’IA. Oggi è dottorando a Stanford, ma di quella scoperta sembra ricordare poco: il suo post era scomparso finché non gliel'hanno segnalato, e la gloria non lo interessa. Il nocciolo della questione è questo: le aziende che sviluppano l'IA hanno iniziato a vendere questi modelli come “modelli di ragionamento”, ma la vera differenza non è strutturale. La catena di pensiero funziona perché aggiunge contesto: più dettagli ci sono nella domanda, più il modello viene guidato verso una risposta precisa. È lo stesso principio per cui, se chiedi a ChatGPT una cosa vaga, spesso ottieni risposte vaghe. Se suddividi il problema in passaggi, il modello ha più indizi su dove andare. Apple ha dimostrato, con uno studio intitolato “L'illusione del pensiero”, che questi modelli possono risolvere correttamente un problema, ma fallire se la domanda viene riformulata con dettagli irrilevanti: in alcuni casi, le prestazioni crollano del 65%. E, a volte, la catena di pensiero che produce non ha alcun legame reale con la soluzione finale. C'è chi dice: se una macchina ci inganna così bene da sembrare che ragioni, allora ragiona davvero. Ma i dati raccontano altro: la catena di pensiero è un trucco linguistico, non una finestra sulla mente della macchina. Se pensavi che i chatbot “pensassero davvero”, questa storia ti costringe a guardare sotto il cofano e a vedere che spesso stanno solo recitando la parte. La catena di pensiero è una messa in scena ben congegnata, non una prova di coscienza. Su Lara Notes c’è un gesto che non trovi altrove: I’m In. Non è un cuore, non è un pollice in su. È la tua dichiarazione: questa idea ora ti riguarda. E se discuterai con qualcuno di come la catena di pensiero delle IA sia nata tra gamer e meme, su Lara Notes puoi taggare chi c’era con Shared Offline, perché certi argomenti meritano di essere ricordati. Questo viene da The Atlantic: hai appena risparmiato più di tre minuti rispetto alla lettura dell'articolo originale.
0shared

La strana origine delle capacità di "ragionamento" dell'IA