L’étrange origine des capacités de « raisonnement » de l’IA

Englishto
En juillet 2020, un groupe de joueurs sur 4chan a découvert qu'en demandant à un personnage virtuel d'AI Dungeon de résoudre un problème de mathématiques en « expliquant étape par étape », le modèle d'intelligence artificielle non seulement parvenait à la solution, mais le faisait en se mettant à la place du personnage choisi. Le détail surprenant : ils ont été parmi les premiers au monde à voir en action ce que nous appelons aujourd'hui la « chaîne de pensée » – la technique qui permet aux grands modèles de langage d'expliquer les étapes d'un raisonnement, et pas seulement de donner la réponse finale. Aujourd'hui, le marketing des grandes entreprises technologiques parle de « modèles qui raisonnent », de chatbots qui « réfléchissent avant de répondre » ou qui sont « capables de montrer leurs pensées ». Mais en réalité, ce qui semble être une avancée technique est né au milieu de blagues obscènes et de mèmes sur un forum peu recommandable. L’idée que les IA ont appris à raisonner comme des êtres humains est un récit bien plus récent que la réalité technique qui le sous-tend. Tout tourne autour d'un malentendu : nous pensons que la chaîne de pensée est la preuve qu'un modèle raisonne, car il nous fournit une explication détaillée, étape par étape. En réalité, le modèle ne fait qu'imiter les textes qu'il a lus – y compris des centaines de milliers de solutions à des problèmes mathématiques truffées de phrases telles que « Attends, non. La question est… », « Je devrais d’abord vérifier l’entrée » et « Attends, mais dans les cas où… ». Plutôt que de raisonner, il simule le raisonnement. Les protagonistes de cette histoire ne sont pas les chercheurs de Google ou d'OpenAI, mais un groupe de joueurs anonymes et un jeune passionné d'informatique, Zach Robertson. Sur 4chan, au milieu de commentaires exagérés, quelqu'un écrit : « Étant donné qu'il est basé sur le langage humain, il est logique que tu doives lui parler comme à une personne pour obtenir une réponse sensée ». Entre-temps, Robertson publie un article sur la façon d’« amplifier les capacités de GPT-3 » en décomposant les problèmes en plusieurs étapes, et le présente en septembre 2020, sans savoir qu’il a contribué à l’une des avancées les plus célèbres de l’IA. Aujourd’hui, il est doctorant à Stanford, mais il semble se souvenir de peu de choses concernant cette découverte : son article avait disparu jusqu’à ce qu’on le lui signale, et la gloire ne l’intéresse pas. Voici l'essentiel de l'affaire : les entreprises qui développent l'IA ont commencé à vendre ces modèles en les présentant comme des « modèles de raisonnement », mais la véritable différence n'est pas structurelle. La chaîne de pensée fonctionne parce qu'elle ajoute du contexte : plus la question contient de détails, plus le modèle est guidé vers une réponse précise. C'est le même principe qui explique pourquoi, si vous posez à ChatGPT une question vague, vous obtenez souvent des réponses vagues. Si vous décomposez le problème en étapes, le modèle dispose de plus d'indices sur la direction à prendre. Apple a démontré, dans une étude intitulée « L’illusion de la pensée », que ces modèles peuvent résoudre correctement un problème, mais échouer si la question est reformulée avec des détails non pertinents — dans certains cas, leurs performances chutent de 65 %. Et, parfois, le raisonnement qu'il produit n'a aucun lien réel avec la solution finale. Certains disent : si une machine nous trompe si bien qu’il semble qu’elle raisonne, alors elle raisonne vraiment. Mais les données racontent une autre histoire : le raisonnement en chaîne est un tour de passe-passe linguistique, et non une fenêtre sur l'esprit de la machine. Si vous pensiez que les chatbots « pensaient vraiment », cette histoire vous oblige à regarder sous le capot et à constater qu'ils ne font souvent que jouer leur rôle. Le raisonnement est une mise en scène bien faite, et non une preuve de conscience. Sur Lara Notes, il y a un geste que vous ne trouverez nulle part ailleurs : I’m In. Ce n'est pas un cœur, ce n'est pas un pouce levé. C'est votre déclaration : cette idée vous concerne désormais. Et si vous discutez avec quelqu’un de la façon dont le raisonnement en chaîne des IA est né entre les gamers et les mèmes, sur Lara Notes, vous pouvez taguer les personnes qui étaient présentes avec Shared Offline – parce que certains sujets méritent d’être rappelés. Cet article provient de The Atlantic : vous venez de gagner plus de trois minutes par rapport à la lecture de l’article original.
0shared
L’étrange origine des capacités de « raisonnement » de l’IA

L’étrange origine des capacités de « raisonnement » de l’IA

I'll take...