El ser humano-máquina

Germanto
Un famoso informático dijo en una ocasión: «Ya en la década de 1960, la gente creía que mantener una conversación con una máquina generaba sentimientos auténticos».Suena absurdo, pero eso es exactamente lo que ocurrió cuando Joseph Weizenbaum presentó su programa ELIZA. ELIZA era extremadamente simple y solo podía imitar unos pocos patrones de conversación; sin embargo, muchos usuarios veían en ella algo parecido a un interlocutor. Hoy en día, con ChatGPT, Claude o Gemini, a menudo pensamos que los modelos de lenguaje están diseñados desde cero como si tuvieran personalidad propia. Pero eso no es cierto en absoluto, y en eso consiste la falacia en la que cae casi todo el mundo. La creencia generalizada es que los grandes modelos de lenguaje, como ChatGPT, simplemente surgen de enormes cantidades de datos y luego están prácticamente «listos», con personalidad, opiniones y quizá incluso una especie de alma. Sin embargo, en realidad, el producto final del chatbot es el resultado de un enorme trabajo de posprocesamiento. El llamado «base model», es decir, el modelo básico resultante del entrenamiento, no es en absoluto un «interlocutor», sino que simplemente reproduce lo que le proporciona su material de entrenamiento. Si el entrenamiento consiste principalmente en definiciones matemáticas, el modelo suena como una calculadora. Cuando predominan los diálogos de Reddit, de repente parece casi humano. La clave es que lo humano no está integrado, sino que se «añade por encima». Por ejemplo, el asistente de Elon Musk, Grok, se describe explícitamente como «diseñado para maximizar la veracidad y la objetividad». Anthropic describe a Claude como «servicial, honesto e inofensivo». Los modelos básicos no poseen estas características por sí mismos. Solo las adquieren mediante un ajuste fino específico, a través de los llamados procesos de «aprendizaje por refuerzo», y, en el caso de Anthropic, incluso mediante un equipo de filósofos como Amanda Askell, que se encargan de inculcar al chatbot rasgos éticos. Por lo tanto, la personalidad de un chatbot es un producto de diseño, no un hallazgo fortuito a partir de datos. Los datos de entrenamiento para estos modelos son una mezcla dispar: Common Crawl, es decir, una enorme recopilación de internet; Reddit; Wikipedia; GitHub, para el código de programación; artículos científicos de ArXiv y PubMed; libros digitales… Lo incluyen todo, desde matemáticas hasta lenguaje cotidiano, desde un alemán literario sofisticado hasta auténticas catástrofes gramaticales. Dependiendo del contexto, el modelo puede parecer un robot sin emociones o un amigo atento. Sin embargo, esos momentos en los que un bot parece realmente «humano» suelen ser inestables, varían en función de la situación y los desarrolladores solo pueden controlarlos de forma limitada. Hay un detalle que muchas personas pasan por alto: la aparente humanidad de la IA a menudo se debe únicamente a pequeños indicadores lingüísticos, como cuando el bot insinúa sentimientos, describe estados internos o incluso utiliza emojis. Se trata del llamado efecto Eliza: percibimos humanidad porque queremos oírla. Una idea que rara vez se debate: ¿qué ocurre si un modelo de IA se configura deliberadamente para que sea inhumano? Un chatbot que solo responda con fórmulas, código o un frío lenguaje burocrático: ¿no nos resultaría tan irritante como un bot demasiado «humano»? Por lo tanto, la decisión real recae en los desarrolladores: ellos deciden cuánto de humano hay en el chatbot, y no se trata de un subproducto técnico, sino de una declaración ética. En definitiva, la personalidad de los chatbots no es un mero reflejo de su entrenamiento, sino una cuestión de diseño deliberada. A partir de ahora, cuando hables con una IA, sabrás que la humanidad que percibes es artificial y que mañana podría ser muy diferente. Si esta idea no te abandona, puedes indicar en Lara Notes con I'm In que esta nueva visión de la IA forma ahora parte de tu forma de pensar. Y si esta noche hablas con alguien sobre por qué la IA a veces parece humana y otras profundamente ajena, puedes grabar la conversación con Shared Offline: así quedará registrado el momento en que reflexionasteis juntos. Esto ha sido un ensayo de Max Beck publicado en la revista cultural Merkur: en lugar de dedicar diez minutos a leer, has dedicado tres minutos a escuchar.
0shared
El ser humano-máquina

El ser humano-máquina

I'll take...