Die Mensch-Maschine

Germanto
Ein berühmter Informatiker hat einmal gesagt: «Schon in den 1960er Jahren haben Menschen geglaubt, ein Gespräch mit einer Maschine führe zu echten Gefühlen.»“ Das klingt absurd – aber genau das ist passiert, als Joseph Weizenbaum sein Programm ELIZA vorstellte. ELIZA war extrem simpel, konnte nur ein paar Gesprächsmodelle nachahmen, und dennoch haben viele Nutzer in ihm so etwas wie ein Gegenüber gesehen. Heute, mit ChatGPT, Claude oder Gemini, denken wir oft, die Sprachmodelle seien von Grund auf so gebaut, als hätten sie einen eigenen Charakter. Aber das stimmt gar nicht – und hier liegt der Denkfehler, den fast jeder macht. Die weitverbreitete Annahme: Grosse Sprachmodelle wie ChatGPT entstehen einfach aus riesigen Datenmengen und sind dann quasi «fertig» – mit Persönlichkeit, Meinung, vielleicht sogar einer Art Seele. In Wahrheit aber ist das fertige Chatbot-Produkt das Ergebnis massiver Nachbearbeitung. Das sogenannte Base-Model, also das Grundmodell aus dem Training, ist noch gar kein „Gesprächspartner“, sondern spuckt nur das aus, was sein Trainingsmaterial hergibt. Wenn das Training vor allem aus mathematischen Definitionen besteht, klingt das Modell wie ein Taschenrechner. Wenn Reddit-Dialoge dominieren, wirkt es plötzlich beinahe menschlich. Der entscheidende Punkt: Das Menschliche ist nicht eingebaut – es wird «draufgesetzt». Elon Musks Assistent Grok zum Beispiel, wird sogar explizit als «entworfen, um Wahrheit und Objektivität zu maximieren» beschrieben. Anthropic beschreibt Claude als «hilfreich, ehrlich und harmlos». Diese Eigenschaften haben die Grundmodelle von sich aus nicht. Sie bekommen sie erst durch gezieltes Feintuning, durch sogenannte „Reinforcement-Learning“-Prozesse – und im Fall von Anthropic sogar durch ein Team von Philosophinnen und Philosophen wie Amanda Askell, die dem Chatbot ethische Charakterzüge beibringen sollen. Die Persönlichkeit eines Chatbots ist also ein Design-Produkt, kein Zufallsfund aus Daten. Die Trainingsdaten für solche Modelle sind eine wilde Mischung: Common Crawl, also ein riesiger Internet-Abzug, Reddit, Wikipedia, GitHub für Programmiercode, wissenschaftliche Paper von ArXiv und PubMed, digitale Bücher – darin steckt alles von Mathematik bis Alltagssprache, von elaboriertem Literatendeutsch bis zu Grammatik-Katastrophen. Das Modell kann je nach Kontext wie ein emotionsloser Roboter wirken oder wie ein zugewandter Freund. Aber diese Momente, in denen ein Bot wirklich „menschlich“ erscheint, sind oft instabil, schwanken je nach Situation und lassen sich von den Entwickler*innen nur begrenzt steuern. Ein Detail, das viele übersehen: Die scheinbare Menschlichkeit der KI entsteht oft nur durch kleine sprachliche Marker – etwa wenn der Bot Gefühle andeutet, innere Zustände beschreibt oder sogar Emojis verwendet. Das ist der sogenannte Eliza-Effekt: Wir lesen Menschlichkeit hinein, weil wir sie hören wollen. Ein Gedanke, der selten diskutiert wird: Was passiert, wenn ein KI-Modell einmal absichtlich auf Unmenschlichkeit getrimmt wird? Ein Chatbot, der nur noch in Formeln, Code oder kalter Bürokratiesprache antwortet – würde uns das nicht genauso irritieren wie ein zu «menschlicher» Bot? Die eigentliche Entscheidung liegt also bei den Entwickler*innen: Sie bestimmen, wie viel Mensch im Chatbot steckt – und das ist kein technisches Nebenprodukt, sondern ein ethisches Statement. Am Ende bleibt: Die Persönlichkeit von Chatbots ist nicht ein Schatten des Trainings, sondern eine bewusste Design-Frage. Wenn du ab jetzt mit einer KI sprichst, weisst du: Die Menschlichkeit, die du spürst, ist ein Kunstgriff – und sie könnte morgen ganz anders aussehen. Wenn dich dieser Gedanke nicht mehr loslässt, kannst du auf Lara Notes mit I'm In markieren, dass dieses neue Bild von KI jetzt zu deinem Denken gehört. Und wenn du heute Abend mit jemandem darüber diskutierst, warum KI mal menschlich und mal zutiefst fremd wirkt, kannst du das Gespräch mit Shared Offline festhalten – so bleibt der Moment, in dem ihr gemeinsam umgedacht habt. Das war ein Essay von Max Beck in der Kulturzeitschrift Merkur – statt zehn Minuten Lesen hast du drei Minuten gehört.
0shared
Die Mensch-Maschine

Die Mensch-Maschine

I'll take...