L'homme-machine

Germanto
Un célèbre informaticien a déclaré un jour : « Dès les années 1960, les gens pensaient qu'une conversation avec une machine suscitait de véritables émotions. »» Cela semble absurde, mais c'est précisément ce qui s'est produit lorsque Joseph Weizenbaum a présenté son programme ELIZA. ELIZA était extrêmement simple ; elle ne pouvait imiter que quelques schémas de conversation, et pourtant, de nombreux utilisateurs ont vu en elle une sorte d'interlocuteur. Aujourd'hui, avec ChatGPT, Claude ou Gemini, nous avons souvent l'impression que les modèles de langage sont conçus dès le départ comme s'ils avaient leur propre personnalité. Mais ce n'est pas du tout vrai – et c'est là que réside l'erreur de raisonnement que presque tout le monde commet. L'idée largement répandue : les grands modèles de langage tels que ChatGPT sont simplement créés à partir d'énormes quantités de données et sont ensuite pour ainsi dire « prêts », dotés d'une personnalité, d'opinions, peut-être même d'une sorte d'âme. En réalité, cependant, le produit chatbot fini est le résultat d'un post-traitement massif. Le modèle dit de base, c'est-à-dire le modèle de base issu de l'entraînement, n'est pas encore un « interlocuteur », mais se contente de restituer ce que son matériel d'entraînement lui fournit. Si l'entraînement est principalement constitué de définitions mathématiques, le modèle parle comme une calculatrice. Lorsque les dialogues de Reddit prédominent, il semble soudain presque humain. Le point essentiel : l'humain n'est pas intégré – il est « ajouté ». Par exemple, l'assistant d'Elon Musk, Grok, est même explicitement décrit comme « conçu pour maximiser la vérité et l'objectivité ». Anthropic décrit Claude comme « serviable, honnête et inoffensif ». Les modèles de base ne possèdent pas ces caractéristiques en soi. Ils ne les acquièrent qu'au moyen d'un réglage fin ciblé, par le biais de processus dits d'« apprentissage par renforcement » – et, dans le cas d'Anthropic, même grâce à une équipe de philosophes tels qu'Amanda Askell, qui sont chargés d'enseigner au chatbot des traits de caractère éthiques. La personnalité d'un chatbot est donc le fruit d'une conception, et non le résultat fortuit de données. Les données d'entraînement utilisées pour ces modèles constituent un mélange hétéroclite : Common Crawl, c'est-à-dire une énorme copie d'Internet, Reddit, Wikipédia, GitHub pour le code de programmation, des articles scientifiques d'ArXiv et de PubMed, des livres numériques – on y trouve de tout, des mathématiques au langage courant, du français littéraire sophistiqué aux catastrophes grammaticales. Selon le contexte, le modèle peut donner l'impression d'être un robot sans émotions ou un ami attentionné. Mais ces moments où un bot semble vraiment « humain » sont souvent instables, varient en fonction de la situation et ne peuvent être contrôlés par les développeurs que de manière limitée. Un détail que beaucoup négligent : l'apparente humanité de l'IA n'est souvent due qu'à de petits marqueurs linguistiques – par exemple, lorsque le bot fait allusion à des sentiments, décrit des états intérieurs ou même utilise des émojis. C'est ce qu'on appelle l'effet Eliza : nous y voyons de l'humanité parce que nous voulons l'y entendre. Une réflexion rarement abordée : que se passe-t-il lorsqu'un modèle d'IA est délibérément conçu pour être inhumain ? Un chatbot qui ne répondrait plus qu'en formules, en code ou dans un langage bureaucratique froid – cela ne nous dérangerait-il pas tout autant qu'un bot trop « humain » ? La véritable décision revient donc aux développeurs : ce sont eux qui déterminent la part d'humain présente dans le chatbot – et il ne s'agit pas d'un sous-produit technique, mais d'un choix éthique. En fin de compte, la personnalité des chatbots n'est pas le résultat indirect de leur entraînement, mais une question de conception délibérée. Dorénavant, lorsque vous parlerez à une IA, vous saurez que l'humanité que vous percevez est un artifice – et qu'elle pourrait prendre une forme très différente demain. Si cette idée ne vous quitte plus, vous pouvez indiquer sur Lara Notes, à l'aide de I'm In, que cette nouvelle image de l'IA fait désormais partie de votre façon de penser. Et si, ce soir, vous discutez avec quelqu'un des raisons pour lesquelles l'IA semble parfois humaine et parfois profondément étrangère, vous pouvez enregistrer la conversation avec Shared Offline – ainsi, le moment où vous avez réfléchi ensemble restera gravé. Vous venez d'écouter un essai de Max Beck publié dans la revue culturelle Merkur – au lieu de dix minutes de lecture, vous avez bénéficié de trois minutes d'écoute.
0shared
L'homme-machine

L'homme-machine

I'll take...