Die derzeitigen Exportbeschränkungen der US-Regierung scheinen langsam die Wirkung zu zeigen, die sich die zweite Trump-Regierung gewünscht hätte: In China führt die Verknappung von Nvidias H20-Beschleunigern zu Problemen, da diese Produkte seit Mitte April nicht mehr an chinesische Kunden geliefert werden können, es sei denn, sie verfügen über eine Exportlizenz, die höchstwahrscheinlich nicht zu bekommen ist. Das Verbot des Exports von H20-KI-Beschleunigern hat sich laut The Information bereits negativ auf die Arbeit der DeepSeek-Entwickler ausgewirkt und die Entwicklung des Hochsprachenmodells R2 der zweiten Generation erschwert, das später als ursprünglich geplant veröffentlicht werden könnte. Natürlich hat die DeepSeek-Geschäftsführung noch nicht verraten, wann genau R2 veröffentlicht werden sollte, und hat sich auch nicht zu den aktuellen Gerüchten geäußert.
Das aktuelle große Sprachmodell R1 sorgte bei seiner Veröffentlichung für großes Aufsehen auf dem Markt. Dieses große Sprachmodell wurde auf einem relativ kostengünstigen KI-Beschleuniger-Array trainiert, das von DeepSeeks Investor High-Flyer Capital Management erworben wurde. Dieses Array bestand aus 50.000 Hopper-basierten KI-Beschleunigern, darunter 30.000 H20, 10.000 H800 und 10.000 H100. Das R1-Modell erregte nicht nur Aufmerksamkeit, weil es kostenlos erhältlich war, sondern auch wegen seiner Leistung und der Möglichkeit, es auf lokaler Hardware laufen zu lassen.
DeepSeek arbeitet bereits seit einiger Zeit an der nächsten Generation des LLM, dem R2, aber laut Insiderinformationen ist der Geschäftsführer Liang Wenfeng noch nicht mit den Fähigkeiten des neuen LLM zufrieden. Die Entwicklung des R2 wird im Hintergrund weitergehen, bis seine Fähigkeiten und seine Leistung das gewünschte Niveau erreicht haben, aber wann dies der Fall sein wird, ist ein Geheimnis.
In der Zwischenzeit wird das R1-Modell weltweit in einer Vielzahl von Kontexten eingesetzt, von privaten Start-ups bis zu großen multinationalen Unternehmen und sogar in Bereichen des öffentlichen Sektors. In China läuft das R1 LLM meist auf dem H20-Beschleuniger von Nvidia, der speziell von Nvidia gebaut wurde, um die Exportbeschränkungen von vor einem Jahr zu erfüllen, aber dieser Beschleuniger ist nicht mehr für den Versand nach China verfügbar. Diese Situation wird sich nicht nur darauf auswirken, wie das R1-Modell heute verwendet werden kann, sondern auch darauf, wie sich die Entwicklung und Einführung der nächsten Generation des R2 LLM entwickeln wird.
Zum jetzigen Zeitpunkt gibt es noch nicht viele konkrete Informationen über die Fähigkeiten und die Leistung von R2, aber wenn der neue LLM leistungsfähiger ist als die bereits verfügbaren offenen Alternativen, könnte er schnell zu einem Problem für chinesische Cloud-Plattformbetreiber werden, da es eine enorme Nachfrage nach R2 geben könnte, die sie ohne den Einsatz ausreichender KI-Beschleuniger nicht bewältigen können.
Der H20-Beschleuniger, bei dem es sich um eine abgespeckte Version des H100 handelte, war in China verständlicherweise sehr beliebt und wurde vom Nvidia-Team in großen Mengen verkauft, was auch darauf zurückzuführen ist, dass eine große Anzahl chinesischer Unternehmen ihre Systeme auf der CUDA-Plattform von Nvidia aufgebaut haben, so dass die Nachfrage nach Nvidia-Hardware konstant hoch ist.
Es gibt jedoch Licht am Ende des Tunnels, da das Nvidia-Team daran arbeitet, einen weiteren KI-Beschleuniger auf den Markt zu bringen, der die aktuellen Exportbeschränkungen berücksichtigt und chinesischen Unternehmen erneut die Möglichkeit gibt, die Leistung ihrer Systeme durch den Kauf neuer Nvidia-Hardware weiter zu verbessern und gleichzeitig die Vorteile der CUDA-Plattform zu nutzen.
In der Zwischenzeit arbeiten große chinesische Hersteller wie Huawei aktiv daran, die nicht auf dem Markt befindlichen westlichen KI-Beschleuniger durch eigene KI-Beschleuniger zu ersetzen, aber die aktuellen Angebote sind in Bezug auf die Leistung noch recht begrenzt und hinken in Bezug auf die Energieeffizienz noch weiter hinterher. Natürlich gehen die Fortschritte weiter, was in Zukunft zu Überraschungen führen könnte, aber das ist eine andere Geschichte.