News

Das KI-Wettrüsten

Der Weg zur Superintelligenz: Reicht Rechenleistung oder braucht es den Geniestreich?

Nachdem unser Survey die düsteren Endpunkte eines KI-Wettrennens und die utopischen Versprechen der Tech-Pioniere beleuchtet hat, stellt sich eine fundamentale technische Frage: Wie genau soll eine menschenüberlegene Intelligenz eigentlich entstehen? Unsere Analyse zeigt, dass es hierzu unter den führenden Entwicklern keine Einigkeit gibt. Die Debatte spaltet die KI-Welt in zwei Lager und dreht sich um eine zentrale Frage: Reicht die massive Skalierung bestehender Architekturen oder sind heutige KI-Modelle eine technologische Sackgasse, die einen komplett neuen Durchbruch erfordert?

Die Skalierungs-Hypothese: Mit roher Gewalt zur AGI?

Ein Lager, zu dem unter anderem Sam Altman von OpenAI und Demis Hassabis von Google DeepMind gehören, ist überzeugt, den richtigen Weg im Grunde bereits zu kennen. Ihre Hypothese lautet, dass der Pfad zur AGI im Wesentlichen in der extremen Skalierung der existierenden, auf Transformer-Architekturen basierenden KI-Modelle liegt. Der Ansatz ist, die gewaltige Lücke zum menschlichen Gehirn durch schiere, fast unvorstellbare Rechenleistung und Datenmengen zu schließen. Die Schätzungen aus den analysierten Papieren verdeutlichen die Dimension: Das menschliche Gehirn hat etwa 1.000-mal mehr Neuronen-Äquivalente und 100-mal mehr Synapsen als die größten heutigen Modelle.

Diese bereits gewaltigen Zahlen wirken fast schon bescheiden im Licht einer aktuellen, mysteriösen Ankündigung von Sam Altman. In einem neuen Blogpost skizziert er seine Vision von „Abundant Intelligence“ und beschreibt, was er als „das coolste und wichtigste Infrastrukturprojekt aller Zeiten“ bezeichnet. Sein Ziel ist es, eine Fabrik zu schaffen, die jede Woche ein Gigawatt an neuer KI-Infrastruktur produzieren kann. Zum Vergleich: Bisherige Analysen gingen von einem Gesamtbedarf von 70 Gigawatt aus. Altman plant, diese Kapazität im Wochentakt zu erweitern. Er rechtfertigt diesen enormen Aufwand mit den potenziellen Heilsversprechen: „Vielleicht kann KI mit 10 Gigawatt an Rechenleistung herausfinden, wie man Krebs heilt.“ Die Umsetzung, so Altman, werde extrem schwierig und erfordere Innovationen auf allen Ebenen, von Chips über Energie bis hin zur Robotik. Diese Vision macht den „Brute-Force“-Ansatz von einer theoretischen Kalkulation zu einem erklärten Ziel der Branchenführer.

Der Ruf nach neuen Fundamenten: Warum heutige KI die Welt nicht „versteht“

Auf der anderen Seite der Debatte stehen einflussreiche Kritiker wie Yann LeCun von Meta, die vehement widersprechen. Sein im Survey zitiertes Urteil ist unmissverständlich: „LLMs suck“. Er hält heutige Large Language Models für fundamental begrenzt. Ihr Problem ist, dass sie nur im diskreten und begrenzten Raum der Sprache operieren. Sie sind darauf trainiert, auf Basis von Wahrscheinlichkeiten das nächste Wort in einem Satz vorherzusagen. Eine echte allgemeine Intelligenz, so LeCun, müsse aber die unendlich komplexe, dynamische und oft unvorhersehbare physische Welt verstehen.

LeCun untermauert seine Kritik mit einem eindrücklichen Vergleich: Ein vierjähriges Kind hat in seinen ersten Lebensjahren bereits eine größere Menge an visuellen Daten über die Funktionsweise der Welt verarbeitet als die gesamte Textdatenbank des Internets, mit der LLMs trainiert werden. Diese fundamentale Lücke zwischen digitalem Wissen und gelebter Erfahrung ist der Grund, warum heutige KIs an Aufgaben scheitern, die für Lebewesen selbstverständlich sind. Ein Beispiel hierfür ist die seit Jahren andauernde Herausforderung des autonomen Fahrens. Trotz der riesigen Datenmengen, die Tesla-Fahrzeuge täglich sammeln, tauchen immer wieder neue, unvorhergesehene Verkehrssituationen auf, die die Systeme an ihre Grenzen bringen.

Um diese Lücke zu schließen, braucht es laut LeCun und anderen Kritikern völlig neue Fähigkeiten. Dazu gehört autonomes Verhalten zur Zielerreichung, eine Eigenschaft, die als „agentic AI“ bezeichnet wird. Eine KI muss selbst die Initiative ergreifen, Strategien planen und sich an eine Umgebung anpassen können. So intelligent ChatGPT auch wirkt, es hat noch nie von sich aus eine neue wissenschaftliche Frage gestellt oder eine Erfindung gemacht. LeCun argumentiert provokant, dass selbst Katzen den besten KI-Modellen überlegen seien, da sie komplexe Handlungsschritte im Raum planen können, um an verstecktes Futter zu gelangen. Diesen Mangel an physischer Kompetenz verdeutlicht auch ein bekannter Test von Apple-Mitgründer Steve Wozniak: Der „Wozniak-Test“ gilt erst dann als bestanden, wenn ein Roboter ohne spezielles Training in einem beliebigen Haushalt eine Tasse Kaffee kochen kann. Davon sind wir noch weit entfernt, wie ein im Survey erwähntes Roboter-Rennen in Peking 2025 zeigte, bei dem die Maschinen unbeholfen agierten und der menschliche Läufer dreimal so schnell war.

Das Rätsel des Denkens: Der unvorhersehbare Sprung von AlphaGo

Über die reine Welterfahrung hinaus muss eine AGI auch die Fähigkeit zum logischen Denken und Schlussfolgern entwickeln, die über das reine Wiedererkennen von Mustern hinausgeht. Der ehemalige Chef-Wissenschaftler von OpenAI, Ilya Sutskever, weist darauf hin, dass genau diese „Reasoning“-Fähigkeit KI-Modelle unberechenbar macht. Ein legendäres Beispiel dafür ist der „Zug 37“ im Go-Spiel zwischen Googles KI AlphaGo und dem Weltmeister Lee Sedol.

Inmitten des Spiels machte die KI einen Zug, den kein menschlicher Experte erwartet hatte. Alle Kommentatoren werteten ihn zunächst als dummen Anfängerfehler. Stunden später stellte sich jedoch heraus, dass genau dieser unkonventionelle Zug der entscheidende Geniestreich war, der den Sieg für die KI einleitete. AlphaGo hatte eine neue Strategie entdeckt, die außerhalb des menschlichen Verständnisses lag. Dieses Ereignis zeigt, dass KI schon heute zu kreativen, übermenschlichen Problemlösungen fähig ist. Es zeigt aber auch, wie fremdartig und undurchschaubar ihre Denkprozesse für uns sein können.

Fazit: Ein Wettrennen ohne klaren Kompass

Die technologische Grundlage für AGI ist keine ausgemachte Sache, sondern Gegenstand einer tiefgreifenden wissenschaftlichen Kontroverse. Während die eine Seite mit unvorstellbarem finanziellem Aufwand bestehende Systeme skaliert, wie Sam Altmans Pläne eindrucksvoll zeigen, warnt die andere Seite, dass genau diese Systeme in eine Sackgasse führen. Diese fundamentale Uneinigkeit unter den Architekten der Zukunft ist vielleicht das größte Risiko von allen. Sie beweist, dass wir mit Höchstgeschwindigkeit auf ein Ziel zusteuern, dessen Weg und dessen Funktionsweise im Detail noch nicht verstanden sind.

Was passiert, wenn eine solche, auf umstrittenen Prinzipien gebaute Intelligenz beginnt, eigene Ziele zu entwickeln? In den kommenden Wochen tauchen wir tiefer in die konkreten Warnungen der „Godfathers of AI“ ein und beleuchten die reale Gefahr der KI-Fehlsteuerung, auch bekannt als Misalignment.

[Download Paper als PDF]

Bei SemanticEdge beobachten wir diese Entwicklungen genau. Als Pionier von Conversational AI kennen wir sowohl die Potenziale als auch die Risiken fortschrittlicher KI-Systeme. SemanticEdge steht für eine sichere und transparente Conversational AI über das Zusammenspiel der generativer KI mit einer zweiten ausdruckstarken regelbasierten Intelligenz, die das Risiko von Halluzinationen und Alignement Faking minimiert. Abonnieren Sie unseren Newsletter für weitere Analysen aus unserem Forschungspapier.