Home / Geschäft und Politik / Die Einführung des chinesischen KI DeepSeek sorgt für Besorgnis unter amerikanischen Wettbewerbern

Die Einführung des chinesischen KI DeepSeek sorgt für Besorgnis unter amerikanischen Wettbewerbern

Die chinesische KI, DeepSeek, hat aufgrund von Innovationen, die eine Leistung vergleichbar mit Modellen amerikanischer Wettbewerber wie OpenAI und Meta demonstrieren, die Aufmerksamkeit von Investoren auf sich gezogen. Das chinesische Unternehmen hat Technologie entwickelt, um KI-Modelle mit deutlich weniger Nvidia-Chips als seine amerikanischen Rivalen zu trainieren, was Fragen zur zukünftigen Nachfrage nach KI-bezogener Hardware aus dem Silicon Valley aufwirft, berichtet die FT.

Auf der Apple App Store-Charts belegte der Chatbot von DeepSeek am Wochenende den ersten Platz bei den Downloads in den USA, und die Auswirkungen waren an der Börse spürbar. Die Nvidia-Aktien fielen im vorbörslichen Handel um 9 Prozent, während Microsoft und Meta einen Rückgang von 4 Prozent verzeichneten. Der Nasdaq-Index wird voraussichtlich um 3,6 Prozent verlieren, während ein Rückgang von 2,2 Prozent für den S&P 500 prognostiziert wird.

Auch europäische Chiphersteller spürten die Auswirkungen. Die ASML-Aktien fielen um 9,7 Prozent und zogen den Stoxx Europe 600 Technologieindex um 4,8 Prozent nach unten. Siemens Energy, ein Anbieter von elektrischen Hardware für KI-Infrastruktur, verzeichnete einen Rückgang von 19 Prozent, während Schneider Electric 8,7 Prozent seines Wertes verlor.

– Das ist sicherlich auf DeepSeek zurückzuführen – kommentierte ein Fondsmanager aus Tokio und fügte hinzu, dass Investoren bewerten, ob die Kosten für KI-Hardware in Zukunft viel niedriger sein könnten als derzeit geschätzt.

Große Investitionen in künstliche Intelligenz

Amerikanische Technologieunternehmen investierten im vergangenen Jahr 224 Milliarden Dollar in künstliche Intelligenz, während UBS prognostiziert, dass dieser Betrag in diesem Jahr auf 280 Milliarden Dollar steigen wird. Darüber hinaus kündigten OpenAI und SoftBank nach der Amtseinführung von Donald Trump Pläne an, in den nächsten vier Jahren 500 Milliarden Dollar in die KI-Infrastruktur zu investieren. Es ist erwähnenswert, dass Musk auf diese Ankündigung reagierte, indem er sagte, dass ’sie auch nicht dieses Geld haben‘, während Trump erklärte, dass Elon den Gründer von OpenAI nicht mag und dass diese Aussagen lediglich auf persönlicher Feindschaft beruhen.

Analysten warnen jedoch vor einem möglichen Wandel in den Investitionsströmen. Luca Paolini, Chefstratege bei Pictet Asset Management, sagt, dass diese ‚Situation zeigt, wie verletzlich der KI-Handel ist, insbesondere wenn er auf der Annahme unerreichbarer Führerschaft basiert.‘

Sputnik-Moment

DeepSeek, gegründet von Hedgefondsmanager Liang Wenfeng, veröffentlichte ein Dokument, das beschreibt, wie man ein großes Sprachmodell aufbaut, das in der Lage ist, automatisch zu lernen und sich zu verbessern. Der amerikanische Investor Marc Andreessen nannte das Modell von DeepSeek ‚den Sputnik-Moment der KI‘ und zog einen Vergleich mit dem Erfolg der Sowjetunion beim Start des ersten Satelliten, der als Weckruf für die USA diente.

– Das zeigt, dass China trotz der Zölle und Investitionsbeschränkungen, die seinen Technologieunternehmen auferlegt wurden, nicht untätig war – erklärte Mitul Kotecha von Barclays.

Einige Analysten glauben, dass die Entwicklung von DeepSeek der Branche langfristig zugutekommen könnte. Dylan Patel, Chefanalyst bei SemiAnalysis, erklärte, dass die Senkung der Kosten für das Training und den Betrieb von KI-Modellen die Einführung von KI-Anwendungen für Unternehmen und Verbraucher erleichtern könnte.

– Fortschritte in der Effizienz können eine weitere Expansion der künstlichen Intelligenz ermöglichen. Das ist ähnlich wie das Mooresche Gesetz, bei dem die Branche seit Jahrzehnten die Kosten senkt und gleichzeitig neue Fähigkeiten hinzufügt – sagte Patel.

In der Zwischenzeit hat der chinesische DeepSeek-R1 Wissenschaftler begeistert, da er eine erschwingliche und offene Alternative zu Modellen wie OpenAIs o1 darstellt. Diese Modelle generieren Antworten Schritt für Schritt, ähnlich wie menschliches Denken, und zeichnen sich bei der Lösung wissenschaftlicher Probleme aus und könnten potenziell in der Forschung nützlich werden. DeepSeek-R1, das am 20. Januar eingeführt wurde, zeigt Ergebnisse, die mit OpenAIs o1-Modell in Chemie-, Mathematik- und Programmieraufgaben vergleichbar sind.

Darüber hinaus hat DeepSeek sein Modell als ‚offenes‘ Modell veröffentlicht, das es Forschern ermöglicht, den Algorithmus zu studieren und weiterzuentwickeln. Obwohl es nicht vollständig Open Source ist, da die für das Training verwendeten Daten nicht verfügbar sind, ist das Modell unter der MIT-Lizenz verfügbar.

– Die Offenheit von DeepSeek ist außergewöhnlich – erklärte Mario Krenn, Leiter des Labors für künstliche Wissenschaftler am Max-Planck-Institut in Deutschland.

Die Kosten für die Nutzung von R1 sind deutlich niedriger als die für o1. Zum Beispiel kostet ein Experiment, das mit o1 über 300 £ kosten würde, mit R1 weniger als 10 £. Das Unternehmen hat auch kleinere Versionen des Modells für Forscher mit begrenzten Rechenressourcen entwickelt.

Innovativer Ansatz trotz Einschränkungen

Was noch interessanter ist, ist, dass DeepSeek das R1-Modell erfolgreich entwickelt hat, trotz der Exportbeschränkungen der USA für Chips.

– Das zeigt, dass Ressourceneffizienz wichtiger ist als die Rechenleistung selbst – sagte François Chollet, ein Forscher für künstliche Intelligenz.

In Benchmark-Tests erzielte R1 97,3 Prozent bei MATH-500 mathematischen Problemen und übertraf 96,3 Prozent der menschlichen Teilnehmer im Codeforces-Wettbewerb. Diese Ergebnisse sind mit dem o1-Modell vergleichbar, während das neue o3 ungetestet bleibt. Dylan Patel von SemiAnalysis hob hervor, dass die Senkung der Kosten die breitere Einführung von KI-Technologien langfristig fördern könnte.

Der Fortschritt von DeepSeek deutet auf eine Verringerung der Kluft zwischen den USA und China im Bereich der künstlichen Intelligenz hin. Obwohl R1 in einigen Aufgaben wie Quantenoptik besser abschneidet als die Wettbewerber, bleiben Herausforderungen bei der Bewertung der Generalisierungs- und Schlussfolgerungsfähigkeiten des Modells. Wissenschaftler glauben, dass die Offenheit des Modells weitere Forschung und Interpretation der Ergebnisse erleichtern wird.