Im KI-Geschäft geht es längst nicht mehr nur darum, wer die schicksten Modelle vorzeigt. Am Ende zählt vor allem, wer die Rechenpower billiger, schneller und verlässlicher auf die Straße bringt. Genau da setzt Uber jetzt an – und greift dabei auf maßgeschneiderte Chips von Amazon zurück.
Der Fahrdienst- und Lieferkonzern nutzt künftig stärker Amazons Graviton-Chips, um Rechenprozesse zu beschleunigen, und setzt zudem auf Trainium-Prozessoren, um KI-Modelle zu trainieren. Das teilte Amazon am Dienstag mit. Für Uber ist das kein technisches Randthema, sondern ein Eingriff in den Maschinenraum des eigenen Geschäfts.
Mehr Tempo im Maschinenraum
Denn die Plattform lebt davon, dass im Hintergrund permanent gerechnet, zugeordnet und vorhergesagt wird. Fahrten müssen vermittelt, Lieferungen koordiniert und Nutzer möglichst punktgenau mit passenden Angeboten versorgt werden. Wer da zu langsam ist, verliert schnell an Qualität – und im Zweifel auch an Kunden.
Die bestehende Cloud-Partnerschaft zwischen Uber und Amazon Web Services wird mit dem Schritt deutlich vertieft. Uber will mit den neuen Chips das Zusammenspiel in seinen Apps glatter machen, das Matching von Fahrern und Fahrgästen beschleunigen und die Nutzererfahrung stärker personalisieren. Anders gesagt: Die Technik im Hintergrund soll dafür sorgen, dass vorne auf dem Bildschirm alles sauberer, schneller und intelligenter wirkt.
Warum der Schritt für Amazon wichtig ist
Das ist mehr als ein bisschen Feinschliff. Uber versucht damit, seine wachsenden digitalen Lasten besser in den Griff zu bekommen. Und die nehmen nun einmal zu, je stärker KI in operative Abläufe eingebaut wird. Das betrifft nicht nur Auswertungen im Hintergrund, sondern ganz konkret das tägliche Funktionieren der App.
Für Amazon ist der Deal ebenfalls wichtig. Der Konzern pumpt seit geraumer Zeit viel Geld in die Vermarktung seiner eigenen Chips und will damit mehr Unternehmenskunden anziehen. Hintergrund ist der Boom rund um künstliche Intelligenz – und der harte Wettbewerb um das Geschäft mit Training und Inferenz. Inferenz heißt am Ende nichts anderes, als dass ein trainiertes Modell im laufenden Betrieb Antworten liefert, Entscheidungen vorbereitet oder Empfehlungen ausspuckt.
Signal im KI-Wettbewerb
Genau deshalb dürfte Amazon diesen Schritt von Uber gern als Signal verstanden wissen. Wenn ein globaler Plattformkonzern mit komplexen Echtzeit-Anwendungen auf Graviton und Trainium setzt, ist das ein starkes Verkaufsargument für AWS. Solche Referenzen sind Gold wert, weil sie anderen Großkunden zeigen: Die Dinger laufen nicht nur im Prospekt, sondern auch unter Volllast.
Einerseits ist der Schritt für Uber also ein pragmatischer Technologiewechsel mit klarem Nutzwert. Andererseits ist er auch Teil eines größeren Machtkampfs im KI-Markt. Denn dort wird nicht nur um die besten Anwendungen gerungen, sondern längst auch um die Infrastruktur darunter. Wer diese Ebene kontrolliert, verdient kräftig mit.
Jetzt muss die Technik liefern
Spannend bleibt nun, ob Uber aus der zusätzlichen Rechenleistung tatsächlich einen spürbaren Vorsprung im Alltag herausholt. Die Richtung ist jedenfalls klar: Im Plattformgeschäft reicht es nicht mehr, einfach nur präsent zu sein. Wer vorne bleiben will, muss im Hintergrund rechnen wie ein Irrer.

