La Silicon Valley est en pleine frénésie à cause des robots qui se construisent eux-mêmes
Englishto
Récemment, un groupe de personnes a bloqué les rues de San Francisco avec des pancartes portant les inscriptions « Arrêtez la course à l’IA » et « Ne construisez pas Skynet ». La cible ? Les entreprises d'intelligence artificielle qui travaillent sur des bots capables de s'améliorer eux-mêmes : des machines qui ne se contentent pas d'exécuter des ordres, mais qui apprennent, s'optimisent et qui, du moins en théorie, pourraient en venir à concevoir les futures générations d'IA. La thèse qui fait actuellement fureur dans la Silicon Valley est la suivante : nous ne sommes plus face à des ordinateurs qui travaillent pour nous, mais à des systèmes qui travaillent sur eux-mêmes. Et la vitesse à laquelle ils s'améliorent n'est plus linéaire : elle pourrait devenir exponentielle. Cette idée n’est pas nouvelle. Dès les années 1960, le statisticien I. J. Good avait prédit que « la machine capable de concevoir une version améliorée d’elle-même serait la dernière invention dont l’humanité aurait besoin ». Pendant des décennies, cependant, cela est resté de la science-fiction. Jusqu'à il y a quelques années, l'idée qu'un bot puisse effectuer de véritables recherches était presque ridicule : ChatGPT avait du mal à faire des additions, alors concevoir de nouveaux algorithmes ! Aujourd'hui, la situation a changé. OpenAI parle ouvertement d'un « assistant de recherche IA » qui sera lancé au cours des six prochains mois. Anthropic affirme que 90 % de son code est déjà écrit par Claude, son modèle d'IA. Dario Amodei, PDG d'Anthropic, estime que les outils de codage automatique ont accéléré les processus internes de 15 à 20 %. De son côté, Google DeepMind a développé AlphaEvolve, un agent d’IA qui a réduit la consommation informatique des centres de données mondiaux de 0,7 % et accéléré l’entraînement du modèle Gemini de 1 %. Mais derrière ces chiffres se cache une question : quelle part de ce travail est réellement autonome, et quelle part est supervisée par des humains ? Jack Clark, responsable des politiques chez Anthropic, est le premier à admettre que la véritable priorité aujourd’hui est de « comprendre dans quelle mesure nous automatisons certains aspects du développement de l’IA ». Car pour l’instant, l’automatisation est fragmentée : des bots qui optimisent de petites tâches, mais pas encore la direction complète de la recherche. Pourtant, la course est déjà lancée. Sam Altman, d’OpenAI, fixe l’objectif pour 2028 : un « chercheur en IA entièrement automatisé », capable de faire des découvertes significatives sans intervention humaine. D’autres, comme Eli Lifland de l’AI Futures Project, prévoient l’automatisation totale de la recherche d’ici 2032. Mais certains freinent. Pushmeet Kohli, de DeepMind, souligne que, pour l'instant, « le cycle complet d'auto-amélioration n'existe pas encore » : une machine peut optimiser, mais elle n'a pas encore d'objectif pour lequel il vaille la peine d'optimiser. Le véritable progrès ne consiste pas à faire écrire du code à un bot, mais à lui donner ce que l'on appelle le « goût » de la recherche — la capacité à choisir des questions intéressantes et à juger de ce qui est important, comme le ferait un grand ingénieur. Et c'est une qualité humaine qui est encore hors de portée. Ensuite, il y a la question des ressources : puces, énergie, argent. Il suffit que l’un de ces facteurs vienne à manquer pour que la progression s’arrête. Pourtant, même de petits pas vers l’automatisation font déjà la différence. Dean Ball, ancien conseiller de Trump en matière d’IA, prévient : « Cela pourrait modifier la concurrence mondiale dans le domaine de l’IA, bouleverser la géopolitique technologique et bien d’autres choses encore. » Les institutions publiques peinent : pour la fiscalité, la bureaucratie américaine utilise encore COBOL, un langage des années 1960. Si l’IA évolue plus rapidement, la politique risque de prendre encore plus de retard. Et il n’est pas nécessaire que les rêves les plus extrêmes concernant l’IA autoréplicative se réalisent pour qu’ils aient un effet : la simple possibilité que cela se produise entraîne déjà des transferts de ressources, d’attention et de pouvoir. Nick Bostrom, philosophe suédois qui étudie les risques de l’IA, se définit aujourd’hui comme un « fataliste modéré ». Et vingt des plus grands chercheurs de DeepMind, OpenAI, Meta, Stanford et Berkeley ont désigné l’automatisation de la recherche en IA comme l’un des risques les plus urgents pour le secteur. Bernie Sanders a tiré la sonnette d’alarme au Sénat : « Les êtres humains pourraient vraiment perdre le contrôle de la planète. » Mais derrière la peur, il y a aussi une vague de battage médiatique qui profite précisément à ceux qui développent ces technologies. Si vous pensiez que les machines se contenteraient d'effectuer nos tâches, il est temps de revoir votre vision : désormais, elles visent à s'améliorer d'elles-mêmes, et la course est déjà lancée. Si vous sentez que cette histoire vous concerne, sur Lara Notes, vous pouvez appuyer sur I'm In : ce n'est pas un « J'aime », c'est votre façon de dire que cette idée est désormais aussi la vôtre. Et si vous finissez par en parler à quelqu’un – en racontant peut-être que 90 % du code d’Anthropic est déjà l’œuvre d’un bot –, sur Lara Notes, il y a Shared Offline, le geste qui met fin à cette conversation importante pour toujours. Cette Note est inspirée d’un article de The Atlantic : au lieu de plus de 15 minutes de lecture, vous avez ici économisé près de trois quarts d’heure.
0shared

La Silicon Valley est en pleine frénésie à cause des robots qui se construisent eux-mêmes