Silicon Valley está frenética por los bots que se construyen solos

Englishto
Recientemente, un grupo de personas bloqueó las calles de San Francisco con carteles que decían «Detened la carrera hacia la IA» y «No construyáis Skynet». ¿El objetivo? Las empresas de inteligencia artificial que están trabajando en bots capaces de mejorar por sí mismos: máquinas que no se limitan a ejecutar órdenes, sino que aprenden, se optimizan y, al menos en la teoría, podrían llegar a diseñar las futuras generaciones de IA. La tesis que está enloqueciendo a Silicon Valley es la siguiente: ya no nos enfrentamos a ordenadores que trabajan para nosotros, sino a sistemas que trabajan sobre sí mismos. Y la velocidad a la que mejoran ya no es lineal: podría volverse exponencial. La idea no es nueva. Ya en la década de 1960, el estadístico I. J. Good predijo que «la máquina capaz de diseñar una versión mejor de sí misma sería el último invento que necesitaría la humanidad». Sin embargo, durante décadas, esto siguió siendo ciencia ficción. Hasta hace pocos años, la idea de que un bot pudiera llevar a cabo una verdadera investigación era casi ridícula: ChatGPT tenía dificultades con las sumas, y mucho menos con el diseño de nuevos algoritmos. Hoy la situación ha cambiado. OpenAI habla abiertamente de un «asistente de investigación de IA» que llegará en los próximos seis meses. Anthropic afirma que el 90 % de su código ya lo escribe Claude, su modelo de IA. Dario Amodei, CEO de Anthropic, calcula que las herramientas de codificación automática han agilizado los procesos internos entre un 15 % y un 20 %. Por su parte, Google DeepMind ha desarrollado AlphaEvolve, un agente de IA que ha reducido el consumo computacional de los centros de datos globales en un 0,7 % y ha acelerado el entrenamiento del modelo Gemini en un 1 %. Pero, detrás de estas cifras, hay una pregunta: ¿qué parte de este trabajo es realmente autónomo y qué parte la supervisan los humanos? Jack Clark, responsable de políticas de Anthropic, es el primero en admitir que la verdadera prioridad hoy en día es «comprender hasta qué punto estamos automatizando aspectos del desarrollo de la IA». Porque, por ahora, la automatización está fragmentada: bots que optimizan pequeñas tareas, pero aún no se encargan de la dirección completa de la investigación. Sin embargo, la carrera ya ha comenzado. Sam Altman, de OpenAI, fija el objetivo para 2028: un «investigador de IA totalmente automatizado», capaz de realizar descubrimientos significativos sin intervención humana. Otros, como Eli Lifland, de AI Futures Project, pronostican la automatización total de la investigación para 2032. Pero hay quienes frenan. Pushmeet Kohli, de DeepMind, señala que, por ahora, «el ciclo completo de automejora aún no existe»: una máquina puede optimizar, pero todavía no tiene nada que merezca la pena optimizar. El verdadero avance no consiste en conseguir que un bot escriba código, sino en proporcionarle el llamado «gusto» por la investigación: la capacidad de elegir preguntas interesantes y de juzgar qué es lo que importa, como haría un gran ingeniero. Y esta es una cualidad humana que todavía está fuera de nuestro alcance. Además, está la cuestión de los recursos: chips, energía, dinero. Basta con que uno de estos factores escasee para que el avance se detenga. Sin embargo, incluso los pequeños avances hacia la automatización ya marcan la diferencia. Dean Ball, exasesor de Trump en materia de IA, advierte: «Esto podría cambiar la competencia mundial en IA, alterar la geopolítica tecnológica y mucho más». Las instituciones públicas van a la zaga: la burocracia estadounidense sigue utilizando COBOL para los impuestos, un lenguaje de 1960. Si la IA avanza más rápido, la política corre el riesgo de quedarse aún más rezagada. Y no hace falta que los sueños más extremos sobre la IA autorreplicante se hagan realidad para que surtan efecto: la mera posibilidad de que ocurra ya está desviando recursos, atención y poder. Nick Bostrom, filósofo sueco que estudia los riesgos de la IA, se define hoy en día como un «fatalista moderado». Además, veinte de los principales investigadores de DeepMind, OpenAI, Meta, Stanford y Berkeley han señalado la automatización de la investigación en IA como uno de los riesgos más acuciantes para el sector. Bernie Sanders hizo sonar la alarma en el Senado: «Es posible que los seres humanos realmente pierdan el control del planeta». Pero, detrás del miedo, también hay una oleada de publicidad que beneficia precisamente a quienes desarrollan estas tecnologías. Si pensabas que las máquinas simplemente realizarían nuestras tareas, es hora de actualizar tu visión: ahora pretenden mejorar por sí mismas, y la carrera ya ha comenzado. Si sientes que esta historia te concierne, en Lara Notes puedes pulsar «I'm In»: no es un «Me gusta», es tu forma de decir que esta idea ahora también es tuya. Y si acabas hablando de ello con alguien —tal vez contándole que el 90 % del código de Anthropic ya es obra de un bot—, en Lara Notes existe la opción Shared Offline, el gesto que pone fin para siempre a esa conversación tan importante. Esta Nota se basa en un artículo de The Atlantic: en lugar de dedicar más de 15 minutos a leerlo, aquí te has ahorrado casi tres cuartos de hora.
0shared
Silicon Valley está frenética por los bots que se construyen solos

Silicon Valley está frenética por los bots que se construyen solos

I'll take...