Eine Million Chips bis Ende 2027 – Nvidia hat sich bei Amazon damit nicht einfach nur einen dicken Auftrag gesichert, sondern sich noch tiefer im Maschinenraum des KI-Booms festgesetzt. AWS, also die Cloud-Tochter von Amazon, will diese gewaltige Menge an GPUs von Nvidia kaufen. Geliefert werden soll nicht irgendwann auf einen Schlag, sondern schon in diesem Jahr und dann gestreckt bis 2027.
Das ist deshalb bemerkenswert, weil Nvidia und AWS die Größenordnung zwar bereits angekündigt hatten, den genauen Zeitplan aber zunächst offenließen. Erst Ian Buck, bei Nvidia zuständig für Hyperscaler und Hochleistungsrechner, machte gegenüber Reuters klar: Die Verkäufe laufen in diesem Jahr an und ziehen sich bis Ende 2027. Damit fällt der Deal genau in jene Phase, in der Nvidia-Chef Jensen Huang für die Chipfamilien Rubin und Blackwell ein Absatzpotenzial von insgesamt 1 Billion Dollar sieht.
Mehr als nur ein Haufen Grafikchips
Wer jetzt glaubt, hier gehe es bloß um eine irre Menge Grafikchips, greift zu kurz. In dem Paket steckt deutlich mehr drin. Laut Buck umfasst die Vereinbarung auch Spectrum-Netzwerkchips, Connect-X- und Spectrum-X-Technik für Rechenzentren sowie weitere Nvidia-Produkte. Mit anderen Worten: Nvidia liefert nicht nur den Motor, sondern schiebt gleich noch Teile des Getriebes und der Leitungen mit in die Halle.
Besonders spannend wird das beim Thema Inferenz. Das klingt sperrig, ist aber im Kern der Moment, in dem ein KI-System tatsächlich Antworten ausspuckt und Aufgaben erledigt. Genau dort will AWS laut Nvidia nicht auf einen einzelnen Chip setzen, sondern auf einen ganzen Mix. Buck formulierte es ziemlich deutlich: Wer bei Inferenz vorn sein will, kommt mit einem One-Trick-Pony nicht weit. Nvidia spricht hier von sieben verschiedenen Chips, die zusammenspielen sollen. Das zeigt, wie kompliziert und zugleich lukrativ dieses Geschäft inzwischen geworden ist.
Nvidia rückt tiefer in die AWS-Infrastruktur
Brisant ist außerdem der Griff in die Netzwerktechnik von AWS. Amazon baut in seinen Rechenzentren seit Jahren auf eigene, maßgeschneiderte Lösungen und gilt gerade dort als extrem anspruchsvoll. Wenn Nvidia nun mit Connect X und Spectrum X stärker in diese Infrastruktur hineinrückt, ist das alles andere als eine Randnotiz. Es spricht vieles dafür, dass Nvidia seinen Einfluss damit nicht nur bei der Rechenleistung, sondern auch bei der Architektur dahinter weiter ausbaut.
Über Geld reden beide Seiten bislang lieber nicht. Finanzielle Details wurden nicht genannt. Genau das macht die Sache aber fast noch interessanter, weil der Markt die Größenordnung trotzdem erahnen kann. Eine Million GPUs, dazu Netzwerktechnik und weitere Chips für KI-Anwendungen – das ist kein normaler Liefervertrag mehr, sondern ein Infrastrukturprojekt im XXL-Format.
Großer Auftrag, große Abhängigkeit
Einerseits passt das perfekt zur Erzählung vom ungebremsten KI-Hunger der großen Cloud-Konzerne. Andererseits steckt darin auch eine klare Abhängigkeit: AWS braucht enorme Rechenkapazität, und Nvidia sitzt weiter sehr bequem am Hebel. Die entscheidende Frage ist nun, wie schnell Amazon diese Hardware produktiv auf die Straße bringt – und ob der Inferenzboom tatsächlich so gewaltig bleibt, wie Nvidia es gerade verkauft.

