Ausgerechnet der Mann, den Big Tech gern als Beweis für den KI-Turbo vorzeigt, steigt jetzt aus dem Zug aus. Yann LeCun, Turing-Preisträger und Chef-KI-Wissenschaftler von Meta, verlässt den Konzern – und stellt damit indirekt die Frage, ob der Milliardenrausch rund um große Sprachmodelle nicht in eine Sackgasse führt.
LeCun geht nicht in Rente, er geht in den Gegenangriff. Er gründet ein eigenes Unternehmen, das ausdrücklich auf eine andere Form von Intelligenz setzt als die LLMs, die heute die Schlagzeilen dominieren. Während OpenAI, xAI, Meta und andere versprechen, mit immer größeren Modellen kurz vor AGI zu stehen, setzt LeCun auf Systeme, die die Welt wirklich wahrnehmen, sich erinnern, schlussfolgern und Handlungen planen. Das ist mehr als ein Jobwechsel – das ist ein Signal.
Abschied zur Unzeit für Meta
Für Meta kommt der Schritt zu einem heiklen Zeitpunkt. Der Konzern hat gerade rund 600 Stellen im KI-Bereich gestrichen, vor allem in der klassischen Forschung und bei Teams, die abseits des LLM-Hypes arbeiten. Geschont wird das neue Superintelligence-Lab, das die Llama-Modelle vorantreibt – also genau jene Technologie, deren Grenzen LeCun seit Jahren betont.
Auffällig ist, wie klar die Fronten inzwischen verlaufen: Hier ein Konzern, der Milliarden in Rechenzentren und Sprachmodelle pumpt. Dort sein Chefdenker, der offen sagt, LLMs seien kein Weg zu allgemeiner Intelligenz. Sprachmodelle rechnen aus riesigen Textmengen das nächste Wort aus – beeindruckend, effizient, nützlich. Aber sie haben kein Weltverständnis, keinen Körper, keine echte Langzeiterinnerung. Wer sie für ein Gehirn hält, verwechselt Sprachstatistik mit Denken.
AGI als Verkaufsargument
Dass LeCuns Bruch so laut nachhallt, liegt auch am Umfeld. Kaum ein CEO nutzt den Begriff AGI so offensiv wie die Chefs der neuen KI-Giganten. OpenAI-Chef Sam Altman lässt keinen Zweifel daran, dass sein Haus weiß, wie man AGI baut und bald KI-Agenten liefern werde, die große Teile der Wissensarbeit übernehmen. Elon Musk kündigt für xAI gleich die nächste Stufe an: Grok 5, so sein Versprechen, könne in wenigen Jahren echte allgemeine Intelligenz erreichen.
Man kann es drehen und wenden, wie man will: Diese Aussagen sind vor allem Marketing. Sie sollen Kapital sichern, Talente anziehen, Politik und Öffentlichkeit beeindrucken. Technisch sind die Grenzen allgegenwärtig – von Halluzinationen über fehlende Kausalität bis hin zu absurden Rechen- und Energiekosten für jedes weitere Prozentpunktchen Qualität. Genau hier setzt LeCuns Kritik an: Ein System, das nur Texte auswendig lernt und Wahrscheinlichkeiten jongliert, wird nicht plötzlich zur allgemeinen Intelligenz, nur weil man noch mehr GPUs drunterlegt.
Der große Profiteur widerspricht der Blasen-These – natürlich
Gleichzeitig laufen die Kassen bei Nvidia heiß. Der GPU-Konzern legt Rekordzahlen vor, verdient prächtig an der LLM-Welle und widerspricht der Blasen-These mit Verve. Aus Sicht des Chiplieferanten ist das nachvollziehbar: Solange jeder Player das nächste Modell mit noch mehr Parametern ankündigt, klingelt die Kasse.
An den Märkten sieht das Bild weniger eindeutig aus. Fondsmanager warnen zunehmend vor einer KI-Blase, in der Infrastruktur und Erwartungen schneller wachsen als robuste Geschäftsmodelle. Es spricht einiges dafür, dass gerade im LLM-Segment extrem viel Zukunft vorweggenommen wird. Wenn ausgerechnet ein Pionier wie LeCun nun aussteigt und sagt, dieser Ast führe nicht zur AGI, dürfte das manchen Investor nachdenklich machen – auch wenn der Kursrausch an der Börse im ersten Moment weiterläuft.
Alternative Pfade zur Intelligenz
Parallel dazu entstehen Projekte, die genau dort ansetzen, wo LLMs schwächeln: bei Wahrnehmung, Weltmodell und Interaktion. Ein Beispiel sind die Entwicklungen rund um Qubic. Statt ein einziges Riesenmodell aufzublasen, setzt man dort mit Aigarth auf ein Geflecht vieler Netze, die evolutionär verändert und selektiert werden. Mit Neuraxon kommt ein bio-inspiriertes, dauerhaft aktives neuronales System dazu, das Verbindungen laufend umbaut und kontinuierlich lernt, statt einmal trainiert und dann eingefroren zu werden. Oracle Machines sollen als Schnittstelle zur Außenwelt dienen und echte Datenströme ins System bringen – eine Art Sinnesorgan für Maschinen.
Das alles ist experimentell, vieles davon noch weit weg vom Alltagseinsatz. Aber es zeigt, wie stark die Gegenbewegung zum LLM-Denken inzwischen ist: KI als lebendes, lernendes System, das sich an der Welt abarbeitet – nicht als sprachbegabter Taschenrechner, der nur so tut, als verstünde er, was er sagt.
Was vom Hype übrig bleibt
Die entscheidende Frage lautet nun: Platzt eine KI-Blase – oder nur die LLM-Illusion? Vieles spricht dafür, dass die Technologie an sich bleibt, aber der Glaube daran, man müsse nur groß genug skalieren, um AGI zu erreichen, schwer unter Druck geraten wird.
LeCuns Abschied von Meta ist in diesem Bild mehr als eine Personalie. Es ist ein Warnschuss aus der eigenen Branche: Wenn selbst ein Godfather des Deep Learning sagt, dass Sprachmodelle nicht reichen, dann müssen sich Konzerne und Investoren fragen, ob sie auf den richtigen Teil des Feldes setzen.
Noch ist die Luft im LLM-Ballon warm. Aber die erste Nadel hat angesetzt.

