Nvidia erlebte zu Beginn dieser Woche einen Rückgang des Aktienkurses im vorbörslichen Handel an der NASDAQ, nachdem berichtet wurde, dass Meta, der Eigentümer von Facebook und Instagram, verhandelt, um einen Teil seiner zukünftigen KI-Infrastruktur auf Googles spezialisierten Chips, bekannt als Tensor Processing Units (TPU), zu basieren. Die Nachricht wurde zuerst von The Information berichtet und später von mehreren Wirtschaftsmedien bestätigt.
Nvidias Aktie fiel kurzzeitig um etwa vier Prozent auf etwa 175 Dollar, ein signifikanter Rückgang von dem Höchststand in diesem Jahr im Oktober, als der Aktienkurs bei etwa 212 Dollar lag. Der Handel war außergewöhnlich liquide, mit über 250 Millionen gehandelten Aktien im erweiterten Handel, was auf die Nervosität der Investoren hinsichtlich Nvidias zukünftiger Dominanz im KI-Hardware-Markt hinweist.
Gleichzeitig wächst Alphabet, die Muttergesellschaft von Google, weiter in Richtung einer Bewertung von etwa 4 Billionen Dollar, angeheizt durch die Optimismus, dass ihre KI-Chips eine wichtige Alternative zu Nvidia in großen Rechenzentren werden könnten.
Von Gaming-GPUs zu Generativer KI
Seit Jahren ist Nvidia fast synonym mit KI-Infrastruktur. Seine Grafikprozessoren (GPUs), die ursprünglich für Computergraphik und Gaming entwickelt wurden, sind zum Standardwerkzeug für das Training und den Betrieb der fortschrittlichsten Modelle künstlicher Intelligenz geworden. Die H100- und H200-Serie von GPUs bildet heute das Rückgrat der globalen KI-Infrastruktur, von den Modellen von OpenAI und Anthropic bis hin zu den internen Systemen der größten Banken und Technologieriesen.
Analysten schätzen, dass Nvidia zwischen 80 und 90 Prozent des Marktes für sogenannte KI-Beschleuniger hält, wobei einige Schätzungen sogar bis zu 95 Prozent reichen, was praktisch ein Monopol in einem Segment darstellt, das in den kommenden Jahren Billionen von Dollar wert sein wird. Meta selbst gab letztes Jahr bekannt, dass es plant, über 350.000 H100-Chips zu kaufen, was eine massive Bestellung darstellt, aber auch ein Zeichen der Abhängigkeit von einem einzigen Anbieter ist.
Der Ansatz von Google scheint grundlegend anders zu sein. Anstatt universelle GPUs zu verwenden, entwickelt das Unternehmen seit über einem Jahrzehnt eigene spezialisierte Chips, TPUs, die fast ausschließlich für maschinelles Lernen konzipiert sind. Dies sind ASICs (anwendungsspezifische integrierte Schaltungen), Chips, die für eng definierte Aufgaben entworfen wurden. Sie sind schneller und energieeffizienter für bestimmte KI-Aufgaben, schneiden jedoch bei ‚allgemeiner‘ Berechnung schlecht ab und können eine CPU oder GPU in universellen Anwendungen nicht ersetzen. Mit anderen Worten, Nvidia und Google spielen nicht dasselbe Spiel, sondern konkurrieren um dasselbe Geld von den größten Kunden.
Was Meta ändert
Laut The Information erwägt Meta, Googles TPUs ab 2027 in seine Rechenzentren zu integrieren, während es möglicherweise bereits im nächsten Jahr beginnen könnte, deren Kapazitäten über Google Cloud zu mieten. Für Unternehmen wie Meta, Amazon, Microsoft oder Alphabet ist das Schlüsselwort ‚Skalierung‘. Sie benötigen nicht Tausende, sondern Hunderttausende oder Millionen von Chips, mit garantierter Lieferung und einem Rückgang des Preises pro Einheit. Nvidias GPUs sind extrem leistungsstark, aber auch teuer, und die globale Nachfrage übersteigt seit langem das Angebot. Wenn Nvidia nicht genügend GPUs liefern kann, suchen große Kunden nach einer anderen Quelle, und Googles TPUs bieten genau das, einen zweiten Lieferkanal, der das Risiko von Störungen in der Lieferkette verringert und, sehr wichtig, einen Verhandlungsspielraum in Preisverhandlungen schafft. Selbst eine relativ bescheidene Umleitung von Bestellungen zugunsten von Google, zum Beispiel zehn Prozent des Verbrauchs eines Giganten wie Meta, reicht aus, um die Marktstimmung zu ändern und Nvidias Bewertung um Hunderte von Milliarden Dollar zu senken, was in diesen Tagen geschieht.
