Silicon Valley ist verrückt nach Bots, die sich selbst bauen

Englishto
Kürzlich blockierte eine Gruppe von Menschen die Straßen von San Francisco mit Plakaten, auf denen stand: „Stoppt den KI-Wettlauf“ und „Baut Skynet nicht“. Das Ziel? Die KI-Unternehmen, die an Bots arbeiten, die sich selbst verbessern können: Maschinen, die nicht nur Befehle ausführen, sondern lernen, sich optimieren und – zumindest in der Absicht – zukünftige KI-Generationen entwickeln könnten. Die These, die Silicon Valley in Aufruhr versetzt, lautet: Wir haben es nicht mehr mit Computern zu tun, die für uns arbeiten, sondern mit Systemen, die an sich selbst arbeiten. Und die Geschwindigkeit, mit der sie sich verbessern, ist nicht mehr linear: Sie könnte exponentiell werden. Die Idee ist nicht neu. Bereits in den 1960er-Jahren hatte der Statistiker I. J. Good vorausgesagt, dass „die Maschine, die in der Lage ist, eine bessere Version ihrer selbst zu entwickeln, die letzte Erfindung sein wird, die die Menschheit braucht“. Jahrzehntelang blieb dies jedoch Science-Fiction. Bis vor wenigen Jahren war die Vorstellung, dass ein Bot echte Forschung betreiben könnte, nahezu lächerlich: ChatGPT hatte bereits mit Additionen zu kämpfen, von der Entwicklung neuer Algorithmen ganz zu schweigen. Heute hat sich die Lage geändert. OpenAI spricht offen von einem „KI-Forschungsassistenten“, der in den nächsten sechs Monaten eingeführt werden soll. Anthropic gibt an, dass 90 % seines Codes bereits von Claude, seinem KI-Modell, geschrieben werden. Dario Amodei, CEO von Anthropic, schätzt, dass die automatischen Codierungstools die internen Prozesse um 15–20 % beschleunigt haben. Google DeepMind hat seinerseits AlphaEvolve entwickelt, einen KI-Agenten, der den Rechenverbrauch globaler Rechenzentren um 0,7 % gesenkt und das Training des Gemini-Modells um 1 % beschleunigt hat. Doch hinter diesen Zahlen verbirgt sich eine Frage: Wie viel von dieser Arbeit ist wirklich autonom und wie viel wird von Menschen überwacht? Jack Clark, Policy Manager bei Anthropic, ist der Erste, der zugibt, dass die eigentliche Priorität heute darin besteht, „zu verstehen, inwieweit wir Aspekte der KI-Entwicklung automatisieren“. Denn derzeit ist die Automatisierung noch lückenhaft: Bots, die kleine Aufgaben optimieren, aber noch nicht die gesamte Forschung leiten. Und doch hat das Rennen bereits begonnen. Sam Altman von OpenAI hat sich ein Ziel für 2028 gesetzt: einen „vollständig automatisierten KI-Forscher“, der in der Lage ist, ohne menschliches Zutun bedeutende Entdeckungen zu machen. Andere, wie Eli Lifland vom AI Futures Project, prognostizieren eine vollständige Automatisierung der Forschung bis 2032. Aber es gibt auch diejenigen, die auf die Bremse treten. Pushmeet Kohli von DeepMind weist darauf hin, dass es derzeit „noch keinen vollständigen Zyklus der Selbstverbesserung gibt“: Eine Maschine kann zwar optimieren, hat aber noch nichts, wofür es sich lohnt, zu optimieren. Der eigentliche Durchbruch besteht nicht darin, einen Bot Code schreiben zu lassen, sondern ihm den sogenannten „Geschmack“ für Forschung zu vermitteln – die Fähigkeit, interessante Fragen auszuwählen und zu beurteilen, was wichtig ist, so wie es ein großartiger Ingenieur tut. Und das ist eine menschliche Eigenschaft, die noch immer außerhalb der Reichweite liegt. Dann gibt es noch das Thema Ressourcen: Chips, Energie, Geld. Es genügt, dass einer dieser Faktoren knapp wird, und der Fortschritt kommt zum Stillstand. Doch schon kleine Schritte in Richtung Automatisierung machen einen Unterschied. Dean Ball, Trumps ehemaliger KI-Berater, warnt: „Dies könnte den globalen Wettbewerb im Bereich der KI verändern, die technologische Geopolitik verlagern und vieles mehr.“ Die öffentlichen Einrichtungen kommen nur schwer voran: Die amerikanische Bürokratie verwendet für die Steuerverwaltung immer noch COBOL, eine Programmiersprache aus den 1960er Jahren. Wenn sich die KI schneller entwickelt, besteht die Gefahr, dass die Politik noch weiter zurückfällt. Und es ist nicht nötig, dass die extremsten Träume von selbstreplizierender KI Wirklichkeit werden, um Wirkung zu entfalten: Allein die Möglichkeit, dass dies geschieht, verlagert bereits Ressourcen, Aufmerksamkeit und Macht. Nick Bostrom, ein schwedischer Philosoph, der die Risiken der KI untersucht, bezeichnet sich heute als „gemäßigten Fatalisten“. Und zwanzig der führenden Forscher von DeepMind, OpenAI, Meta, Stanford und Berkeley haben die Automatisierung der KI-Forschung als eines der dringendsten Risiken für die Branche bezeichnet. Bernie Sanders hat im Senat Alarm geschlagen: „Die Menschen könnten wirklich die Kontrolle über den Planeten verlieren.“ Doch hinter der Angst verbirgt sich auch eine Welle von Hype, die gerade denjenigen zugutekommt, die diese Technologien entwickeln. Wenn Sie dachten, dass Maschinen einfach unsere Aufgaben erledigen würden, ist es an der Zeit, Ihre Sichtweise zu aktualisieren: Jetzt streben sie danach, sich selbst zu verbessern, und der Wettlauf hat bereits begonnen. Wenn du das Gefühl hast, dass dich diese Geschichte betrifft, kannst du auf Lara Notes auf „I'm In“ klicken: Es ist kein „Gefällt mir“, sondern deine Art zu sagen, dass diese Idee jetzt auch deine ist. Und wenn du am Ende mit jemandem darüber sprichst – vielleicht, indem du erzählst, dass 90 % des Codes von Anthropic bereits das Werk eines Bots sind – gibt es auf Lara Notes die Option „Offline geteilt“, mit der du dieses wichtige Gespräch für immer beenden kannst. Diese Notiz basiert auf einem Artikel aus The Atlantic: Statt über 15 Minuten Lesezeit hast du dir hier fast eine Dreiviertelstunde gespart.
0shared
Silicon Valley ist verrückt nach Bots, die sich selbst bauen

Silicon Valley ist verrückt nach Bots, die sich selbst bauen

I'll take...