Contención de un accidente de laboratorio

Germanto
Imagínate que el gran éxito de ChatGPT en noviembre de 2022 en realidad no estaba planeado en absoluto. OpenAI solo quería realizar una prueba de la versión 3.5, no presentar un producto oficial. Lo que realmente sorprendió a los desarrolladores fue que el sistema se hizo tan popular tan rápido que, de repente, todas las grandes empresas tecnológicas abandonaron su cautela. Hasta entonces, la prudencia, la ética y la madurez tecnológica se consideraban requisitos fundamentales. Pero después de este «accidente de laboratorio», como se le denomina en el texto, lo único que importaba era conseguir el próximo gran modelo de negocio, aunque eso significara vender la tecnología como un producto de consumo masivo a toda prisa. Los miles de millones invertidos en IA exigían urgentemente un «éxito de taquilla», costase lo que costase. Incluso la idea de que la IA pronto podría curar el cáncer o resolver el cambio climático se convirtió en un argumento de venta y, si eso no bastaba, en entretenimiento para adultos. Lo realmente asombroso es que, tras setenta años de investigación en IA, ahora estamos presenciando, por primera vez, modelos de lenguaje capaces de comunicarse directamente con nosotros. Antes, la IA era un maestro de ajedrez o un sistema experto en diagnósticos. Hoy en día, hablas con una máquina, y eso resulta a la vez fascinante y perturbador. De repente, todo el mundo, no solo los frikis de la informática, puede hablar con la IA, y surge la expectativa de que, por fin, las organizaciones se vuelvan más productivas, eficientes y automatizadas gracias a ella. Pero, y aquí viene el problema, esta nueva IA es de todo menos fiable. Las empresas y las administraciones se dan cuenta rápidamente de que no pueden fiarse de las respuestas de los modelos de lenguaje. A veces, las máquinas también divagan en lugar de ofrecer respuestas precisas. Y no es porque funcionen mal, sino porque están diseñadas precisamente para eso: generan textos verosímiles, pero que no son más que una mezcla de probabilidad y azar. Lo más absurdo de todo es que la IA resulta poco fiable precisamente cuando funciona a la perfección desde el punto de vista técnico. Se trata de un verdadero error de razonamiento: esperamos fiabilidad de las máquinas, pero esta IA no nos la ofrece. Es cierto que las empresas están acostumbradas a trabajar con imprevistos: los errores de los empleados o los dispositivos averiados son algo habitual. Sin embargo, en el caso de las máquinas convencionales, siempre existe una causa lógica que se puede reparar. En los modelos de lenguaje, falta esta seguridad, y esa es una diferencia fundamental. Sin embargo, los mitos en torno a la IA siguen circulando: se supone que los chatbots nos liberarán de la burocracia, crearán solicitudes completas automáticamente y optimizarán los procesos. La euforia es grande, pero se subestima la cantidad de precauciones necesarias para utilizar una tecnología que comete errores sistemáticamente e introduce incertidumbres en procesos importantes. Cualquiera que tenga experiencia en empresas o administraciones sabe que la simplificación se paga cara, ya que la fiabilidad, a diferencia de lo que ocurre con las máquinas tradicionales, no es precisamente el punto fuerte de esta IA. Y, sin embargo, a Silicon Valley le gusta fingir que la IA definitivamente perfecta está a la vuelta de la esquina, si tan solo invertimos un poco más. Lo que casi nadie comenta es que es posible que precisamente la falta de fiabilidad de la IA se convierta en su mayor obstáculo para la productividad. O, por el contrario, que el verdadero progreso no consista en perfeccionar las máquinas, sino en aprender a gestionar de forma productiva sus errores. Máquinas que funcionan a la perfección, pero que no son fiables: eso es lo realmente novedoso de esta generación de IA. Hoy en día, cuando confías en una IA, en realidad confías en una caja negra que suena convincente, pero que siempre puede equivocarse. Quienes entienden esto, de repente ven el debate sobre la IA con una perspectiva completamente distinta. Máquinas que funcionan y, aun así, se equivocan: ese es el accidente de laboratorio que todo el mundo de la tecnología está intentando contener ahora. Máquinas que funcionan a la perfección, pero que siguen siendo poco fiables: esa es la nueva realidad de la IA. Si te identificas con esto, puedes mostrar en Lara Notes con I'm In que ahora compartes esta perspectiva. Y si mañana hablas con alguien sobre las sorprendentes debilidades de la IA, marca la conversación en Lara Notes como Shared Offline, porque precisamente estas conversaciones auténticas son las que más repercusión tienen. El texto procedía de la revista cultural Merkur, y con él te has ahorrado casi 10 minutos de lectura.
0shared
Contención de un accidente de laboratorio

Contención de un accidente de laboratorio

I'll take...