El extraño origen de las capacidades de «razonamiento» de la IA
Englishto
En julio de 2020, un grupo de jugadores de 4chan descubrió que, al pedir a un personaje virtual de AI Dungeon que resolviera un problema matemático «explicándolo paso a paso», el modelo de inteligencia artificial no solo llegaba a la solución, sino que lo hacía adoptando la perspectiva del personaje elegido. Lo sorprendente es que fueron de los primeros en el mundo en ver en acción lo que hoy llamamos «cadena de pensamiento», la técnica que permite a los grandes modelos lingüísticos explicar las etapas de un razonamiento, en lugar de limitarse a dar la respuesta final. Hoy en día, el marketing de las grandes tecnológicas habla de «modelos que razonan», de chatbots que «piensan antes de responder» o que son «capaces de mostrar sus pensamientos». Pero la verdad es que lo que parece un gran avance de la ingeniería surgió entre chistes obscenos y memes en un foro de mala reputación. La idea de que las IA han aprendido a razonar como los seres humanos es una narrativa mucho más reciente que la realidad técnica que la sustenta. Todo gira en torno a un malentendido: creemos que la cadena de pensamiento es la prueba de que un modelo razona, porque nos ofrece una explicación detallada, paso a paso. En realidad, el modelo simplemente está imitando los textos que ha leído, incluidos cientos de miles de soluciones a problemas matemáticos repletos de frases como «Espera, no. La pregunta es…», «Primero debería comprobar la entrada» y «Espera, pero en los casos en los que…». Más que razonar, simula el razonamiento. Los protagonistas de esta historia no son los investigadores de Google o de OpenAI, sino un grupo de jugadores anónimos y un joven aficionado a la informática, Zach Robertson. En 4chan, entre comentarios exagerados, alguien escribe: «Tiene sentido, dado que se basa en el lenguaje humano, que tengas que hablarle como a una persona para obtener una respuesta coherente». Mientras tanto, Robertson publica una entrada sobre cómo «amplificar las capacidades de GPT-3» dividiendo los problemas en varios pasos, y la presenta en septiembre de 2020, sin ser consciente de haber contribuido a uno de los avances más aclamados de la IA. Hoy es doctorando en Stanford, pero parece recordar poco de aquel descubrimiento: su publicación había desaparecido hasta que le avisaron de ella, y la fama no le interesa. La cuestión central es la siguiente: las empresas que desarrollan IA han empezado a vender estos modelos como «modelos de razonamiento», pero la verdadera diferencia no es estructural. La cadena de pensamiento funciona porque añade contexto: cuantos más detalles contenga la pregunta, más se orienta el modelo hacia una respuesta precisa. Se trata del mismo principio por el que, si le preguntas a ChatGPT algo impreciso, a menudo obtienes respuestas imprecisas. Si divides el problema en pasos, el modelo dispone de más pistas sobre hacia dónde dirigirse. Apple ha demostrado, en un estudio titulado «La ilusión del pensamiento», que estos modelos pueden resolver correctamente un problema, pero fallan si la pregunta se reformula con detalles irrelevantes; en algunos casos, el rendimiento se desploma un 65 %. Y, en ocasiones, la cadena de razonamiento que genera no guarda ninguna relación real con la solución final. Hay quien dice que, si una máquina nos engaña tan bien que parece que razona, entonces realmente razona. Pero los datos cuentan otra historia: la cadena de razonamiento es un truco lingüístico, no una ventana a la mente de la máquina. Si pensabas que los chatbots «realmente piensan», esta historia te obliga a mirar bajo el capó y ver que, a menudo, simplemente están interpretando un papel. La cadena de pensamiento es una puesta en escena bien hecha, no una prueba de conciencia. En Lara Notes hay un gesto que no encontrarás en ningún otro lugar: I’m In. No es un corazón, ni un pulgar hacia arriba. Es tu declaración: esta idea ahora te concierne a ti. Y si hablas con alguien sobre cómo surgió la cadena de pensamiento de la IA entre «gamers» y memes, en Lara Notes puedes etiquetar a quienes estuvieron presentes con Shared Offline, porque ciertos temas merecen que se les recuerde. Esto procede de The Atlantic: acabas de ahorrarte más de tres minutos en comparación con la lectura del artículo original.
0shared

El extraño origen de las capacidades de «razonamiento» de la IA