Contenimento di un incidente di laboratorio

Germanto
Immagina che la grande svolta di ChatGPT nel novembre 2022 non fosse affatto pianificata. OpenAI voleva solo effettuare un test per la versione 3.5, non presentare un prodotto ufficiale. Ciò che ha davvero sorpreso gli sviluppatori è che il sistema è diventato così popolare in così poco tempo che improvvisamente tutte le principali aziende tecnologiche hanno abbandonato la loro cautela. Fino ad allora, la prudenza, l'etica e la maturità tecnologica erano considerate requisiti fondamentali. Ma dopo questo “incidente di laboratorio”, come viene definito nel testo, l'unica cosa che contava era accaparrarsi il prossimo grande modello di business, anche se ciò significava vendere la tecnologia come prodotto di massa senza pensarci due volte. I miliardi investiti nell'IA richiedevano urgentemente un “successo di pubblico”, a qualsiasi costo. Persino l'idea che l'IA potesse presto curare il cancro o risolvere il problema del cambiamento climatico è diventata un argomento di vendita e, se ciò non bastasse, un intrattenimento per adulti. La cosa davvero sorprendente è che, dopo settant'anni di ricerca sull'IA, ora per la prima volta assistiamo a modelli linguistici in grado di comunicare direttamente con noi. In passato, l'IA era un maestro di scacchi o un sistema esperto per le diagnosi. Oggi parli con una macchina, e la cosa ti sembra al tempo stesso affascinante e inquietante. All'improvviso tutti, non solo i nerd dell'IT, possono parlare con l'IA, e nasce l'aspettativa che le organizzazioni possano finalmente diventare più produttive, efficienti e automatizzate. Ma, ed ecco il problema, questa nuova IA è tutt'altro che affidabile. Le aziende e le amministrazioni si rendono presto conto di non poter fare affidamento sulle risposte dei modelli linguistici. A volte le macchine blaterano invece di fornire risposte precise. E non perché funzionino male, ma perché sono costruite proprio in questo modo: producono testi plausibili, ma che sono solo un misto di probabilità e casualità. L'aspetto grottesco è che l'IA è inaffidabile proprio quando funziona in modo tecnicamente perfetto. Si tratta di un vero e proprio errore di ragionamento: ci aspettiamo affidabilità dalle macchine, ma questa IA non ce la offre. È vero che le aziende sono abituate a lavorare con le incertezze: gli errori dei dipendenti o i guasti alle apparecchiature fanno parte della quotidianità. Tuttavia, nel caso delle macchine tradizionali, c'è sempre una causa logica che può essere riparata. Nei modelli linguistici manca questa certezza, e questa è una differenza fondamentale. Tuttavia, i miti sull'IA continuano a essere raccontati: i chatbot dovrebbero liberarci dalla burocrazia, creare automaticamente richieste complete e ottimizzare i processi. L'euforia è grande, ma si sottovaluta la quantità di precauzioni necessarie per utilizzare una tecnologia che commette sistematicamente errori e introduce incertezze in processi importanti. Chi ha esperienza in aziende o amministrazioni lo sa: l'agevolazione si paga a caro prezzo, perché l'affidabilità, come per le macchine tradizionali, non è proprio il punto di forza di questa IA. Eppure la Silicon Valley ama fingere che l'IA perfetta e definitiva sia già alle porte, se solo investissimo un po' di più. Ciò di cui quasi nessuno parla: è possibile che proprio l'inaffidabilità dell'IA diventi il suo più grande nemico della produttività. O, al contrario, che il vero progresso non risieda nel perfezionare le macchine, ma nel modo in cui impariamo a gestire in modo produttivo i loro errori. Macchine che funzionano alla perfezione ma sono inaffidabili: questa è la vera novità di questa generazione di IA. Se oggi ti fidi di un'IA, in realtà ti fidi di una scatola nera che sembra plausibile, ma che può sempre sbagliare. Chi comprende questo aspetto vede improvvisamente la discussione sull'IA con occhi completamente diversi. Macchine che funzionano ma che sbagliano: questo è l'incidente di laboratorio che l'intero mondo della tecnologia sta cercando di contenere. Macchine che funzionano alla perfezione ma rimangono inaffidabili: questa è la nuova realtà dell'IA. Se ti riconosci in questa descrizione, puoi mostrare su Lara Notes con I'm In che ora condividi questa prospettiva. E domani, quando parlerai con qualcuno delle sorprendenti debolezze dell'IA, contrassegna la conversazione su Lara Notes con Shared Offline, perché sono proprio queste discussioni reali ad avere il maggiore impatto. Il testo è tratto dalla rivista culturale Merkur e ti ha fatto risparmiare quasi 10 minuti di lettura.
0shared
Contenimento di un incidente di laboratorio

Contenimento di un incidente di laboratorio

I'll take...