Confinement d'un accident de laboratoire
Germanto
Imaginez : la grande percée de ChatGPT en novembre 2022 n'était en réalité pas du tout prévue. OpenAI voulait simplement effectuer un test de la version 3.5, et non présenter un produit officiel. Ce qui a vraiment surpris les développeurs : le système est devenu si populaire, si rapidement, que toutes les grandes entreprises technologiques ont soudainement abandonné leur prudence. Jusque-là, la prudence, l'éthique et la maturité technologique étaient considérées comme des conditions fondamentales. Mais après cet « accident de laboratoire », comme on l'appelle dans le texte, il ne s'agissait plus que de mettre la main sur le prochain grand modèle économique – même si cela impliquait de vendre la technologie en tant que produit de masse à la hâte. Les milliards investis dans l'IA exigeaient de toute urgence un « succès commercial », coûte que coûte. Même l'idée que l'IA pourrait bientôt guérir le cancer ou résoudre le problème du changement climatique est devenue un argument de vente – et si cela ne suffisait pas, alors du divertissement pour adultes. Ce qui est vraiment étonnant, c'est qu'après soixante-dix ans de recherche sur l'IA, nous disposons aujourd'hui, pour la première fois, de modèles de langage capables de communiquer directement avec nous. Auparavant, l'IA était un maître des échecs ou un système expert pour les diagnostics. Aujourd'hui, vous parlez à une machine, et cela vous semble à la fois fascinant et dérangeant. Tout à coup, tout le monde, et pas seulement les geeks de l'informatique, peut parler à l'IA – et l'on s'attend à ce que les organisations deviennent enfin plus productives, plus efficaces et plus automatisées grâce à elle. Mais, et c'est là que se trouve le piège : cette nouvelle IA est tout sauf fiable. Les entreprises et les administrations se rendent rapidement compte qu'elles ne peuvent pas se fier aux réponses des modèles de langage. Il arrive que les machines radotent au lieu de fournir des réponses précises. Et ce n'est pas parce qu'elles fonctionnent mal, mais parce qu'elles sont conçues précisément de cette manière : elles produisent des textes plausibles, mais qui ne sont qu'un mélange de probabilité et d'aléatoire. Ce qui est grotesque, c'est que l'IA n'est pas fiable précisément lorsqu'elle fonctionne parfaitement sur le plan technique. C'est une véritable erreur de raisonnement : nous attendons des machines qu'elles soient fiables, mais cette IA ne nous offre pas cette fiabilité. Certes, les entreprises ont l'habitude de travailler avec des imprévus : les erreurs des collaborateurs ou les appareils en panne font partie du quotidien. Mais avec les machines classiques, il y a toujours une cause logique qu'il est possible de réparer. Avec les modèles de langage, cette certitude fait défaut – et c'est là une différence fondamentale. Pourtant, les mythes autour de l'IA continuent d'être colportés : les chatbots sont censés nous libérer de la bureaucratie, créer automatiquement des dossiers complets et optimiser les processus. L'euphorie est grande, mais on sous-estime le nombre de précautions nécessaires pour utiliser une technologie qui commet systématiquement des erreurs et introduit des incertitudes dans des processus importants. Quiconque a de l'expérience dans les entreprises ou les administrations le sait : cette simplification se paie cher, car la fiabilité, comme pour les machines classiques, n'est justement pas le point fort de cette IA. Et pourtant, la Silicon Valley aime faire comme si l'IA définitivement parfaite était déjà à nos portes – si seulement nous investissions un peu plus. Ce dont presque personne ne parle : il se peut que ce soit précisément le manque de fiabilité de l'IA qui devienne son principal frein à la productivité. Ou, à l'inverse, que le véritable progrès ne réside pas dans le perfectionnement des machines, mais dans la manière dont nous apprenons à gérer leurs erreurs de manière productive. Des machines qui fonctionnent parfaitement, mais qui ne sont pas fiables – voilà la véritable nouveauté de cette génération d'IA. Aujourd'hui, lorsque vous faites confiance à une IA, vous faites en réalité confiance à une boîte noire qui semble plausible, mais qui peut toujours se tromper. Quand on comprend cela, on voit soudain le débat sur l'IA sous un tout autre angle. Des machines qui fonctionnent et qui, malgré tout, se trompent – c'est l'accident de laboratoire que l'ensemble du monde de la technologie tente actuellement de contenir. Des machines qui fonctionnent parfaitement, mais qui restent peu fiables – telle est la nouvelle réalité de l'IA. Si vous vous reconnaissez dans cette description, vous pouvez indiquer sur Lara Notes, avec I'm In, que ce point de vue est désormais le vôtre. Et si, demain, vous discutez avec quelqu'un des faiblesses surprenantes de l'IA, marquez cette conversation sur Lara Notes avec la mention Shared Offline – car ce sont précisément ces discussions authentiques qui ont le plus d'impact. Ce texte est tiré du magazine culturel Merkur – et grâce à lui, vous avez économisé près de 10 minutes de lecture.
0shared

Confinement d'un accident de laboratoire