Der seltsame Ursprung der „Denkfähigkeiten“ der KI
Englishto
Im Juli 2020 entdeckte eine Gruppe von Gamern auf 4chan, dass das KI-Modell nicht nur die Lösung fand, wenn sie eine virtuelle Figur aus AI Dungeon baten, ein mathematisches Problem zu lösen und dabei „Schritt für Schritt zu erklären“, sondern dies auch tat, indem es in die gewählte Figur eindrang. Das Erstaunliche daran: Sie gehörten zu den ersten auf der Welt, die das, was wir heute als „Gedankenkette“ bezeichnen, in Aktion sahen – die Technik, die es großen Sprachmodellen ermöglicht, die einzelnen Schritte einer Argumentation zu erklären und nicht nur die endgültige Antwort zu geben. Heute spricht das Marketing der Big Techs von „denkenden Modellen“, von Chatbots, die „nachdenken, bevor sie antworten“ oder „ihre Gedanken offenlegen können“. Doch in Wahrheit ist das, was wie ein technischer Durchbruch erscheint, zwischen obszönen Witzen und Memes in einem berüchtigten Forum entstanden. Die Vorstellung, dass KI gelernt hat, wie Menschen zu denken, ist eine viel neuere Erzählung als die technische Realität, die dahintersteckt. Alles dreht sich um ein Missverständnis: Wir glauben, dass die Denkkette der Beweis dafür ist, dass ein Modell denkt, weil es uns Schritt für Schritt eine ausführliche Erklärung liefert. In Wirklichkeit ahmt das Modell lediglich die Texte nach, die es gelesen hat – darunter Hunderttausende von Lösungen für mathematische Probleme, die voller Sätze wie „Moment, nein. Die Frage ist …“, „Zuerst sollte ich den Input überprüfen“ und „Moment, aber in den Fällen, in denen …“. Es simuliert also eher, als dass es wirklich denkt. Die Protagonisten dieser Geschichte sind nicht die Forscher von Google oder OpenAI, sondern eine Gruppe anonymer Gamer und ein junger Computerfreak, Zach Robertson. Auf 4chan schreibt jemand inmitten übertriebener Kommentare: „Da es auf menschlicher Sprache basiert, ist es logisch, dass man wie mit einem Menschen sprechen muss, um eine vernünftige Antwort zu erhalten.“ In der Zwischenzeit veröffentlicht Robertson einen Beitrag darüber, wie man „die Fähigkeiten von GPT-3 erweitern“ kann, indem man Probleme in mehrere Schritte zerlegt, und stellt ihn im September 2020 vor, ohne zu wissen, dass er zu einem der berühmtesten Durchbrüche in der KI beigetragen hat. Heute ist er Doktorand in Stanford, aber an diese Entdeckung scheint er sich kaum zu erinnern: Sein Beitrag war verschwunden, bis man ihn darauf aufmerksam machte, und Ruhm interessiert ihn nicht. Der Kern der Sache ist folgender: Unternehmen, die KI entwickeln, haben begonnen, diese Modelle als „Denkmodelle“ zu verkaufen, aber der eigentliche Unterschied ist nicht struktureller Natur. Die Denkkette funktioniert, weil sie Kontext hinzufügt: Je mehr Details in der Frage enthalten sind, desto mehr wird das Modell zu einer präzisen Antwort geführt. Es ist dasselbe Prinzip, nach dem Sie, wenn Sie ChatGPT etwas Unbestimmtes fragen, oft unbestimmte Antworten erhalten. Wenn Sie das Problem in Schritte zerlegen, hat das Modell mehr Anhaltspunkte, in welche Richtung es gehen soll. Apple hat in einer Studie mit dem Titel „The Illusion of Thought“ gezeigt, dass diese Modelle ein Problem korrekt lösen können, aber versagen, wenn die Frage mit irrelevanten Details neu formuliert wird – in einigen Fällen sinkt die Leistung um 65 %. Und manchmal hat der von ihm erstellte Gedankengang keinen wirklichen Bezug zur endgültigen Lösung. Manche sagen: Wenn eine Maschine uns so gut täuscht, dass sie den Anschein erweckt, zu denken, dann denkt sie wirklich. Doch die Daten erzählen eine andere Geschichte: Die Denkkette ist ein sprachlicher Trick, kein Fenster in den Geist der Maschine. Wenn Sie dachten, dass Chatbots „wirklich denken“, zwingt Sie diese Geschichte, unter die Haube zu schauen und festzustellen, dass sie oft nur ihre Rolle spielen. Der Gedankengang ist eine gut durchdachte Inszenierung, kein Beweis für Bewusstsein. Auf Lara Notes gibt es eine Geste, die du nirgendwo anders findest: I’m In. Es ist kein Herz, es ist kein Daumen nach oben. Es ist deine Erklärung: Diese Idee betrifft dich jetzt. Und wenn du mit jemandem darüber diskutierst, wie die KI-Gedankenkette zwischen Gamern und Memes entstanden ist, kannst du auf Lara Notes diejenigen, die dabei waren, mit Shared Offline taggen – denn bestimmte Themen verdienen es, in Erinnerung zu bleiben. Dies stammt von The Atlantic: Sie haben gerade mehr als drei Minuten gespart, die Sie für das Lesen des Originalartikels benötigt hätten.
0shared

Der seltsame Ursprung der „Denkfähigkeiten“ der KI