Führungskräfte von Nvidia und OpenAI haben eine wichtige Vereinbarung unterzeichnet, nach der die Parteien bei einem speziellen Projekt zusammenarbeiten und eine Art Allianz bilden werden, die beiden Parteien einen unfairen Vorteil gegenüber ihren Konkurrenten verschaffen könnte, wie von Reuters befragte Experten berichten.
Im Rahmen der Vereinbarung wird Nvidia 100 Milliarden Dollar in OpenAI investieren und das Unternehmen mit den KI-Beschleunigern versorgen, die es für die weitere Entwicklung im KI-Segment benötigt. Im Grunde handelt es sich um eine Kollision von zwei der größten Akteure auf dem KI-Markt: Nvidia, das den Markt für KI-Beschleuniger beherrscht, und OpenAI, das zu den größten Akteuren im Segment der großen Sprachmodelle gehört, was beiden Parteien enorme Möglichkeiten eröffnet.
Der offiziellen Ankündigung zufolge wird die Investition von 100 Milliarden Dollar von Nvidia schrittweise aktiviert, wobei das Endziel die Schaffung neuer KI-Rechenzentren mit einer Gesamtkapazität von mindestens 10 Gigawatt ist, mit Zahlungen in Gigawatt-Schritten von 10 Milliarden Dollar pro Gigawatt. Das erste KI-Rechenzentrum im Gigawatt-Maßstab könnte in der zweiten Hälfte des nächsten Jahres fertiggestellt werden, wobei Nvidias DGX-Server der nächsten Generation auf der Basis von Vera Rubin zum Einsatz kommen sollen, und die strategische Beziehung wird später mit dem Bau weiterer Rechenzentren fortgesetzt. Dadurch erhält OpenAI Zugang zu der enormen Rechenleistung, die für die Entwicklung von KI-Modellen unerlässlich ist, während Nvidia seine Beziehung zu einem wichtigen Akteur im KI-Segment, der seit langem ein wichtiger Kunde des Unternehmens ist, weiter vertiefen wird.
Sam Altman, CEO und Mitbegründer von OpenAI, ist der Ansicht, dass die Recheninfrastruktur das Herzstück der zukünftigen Wirtschaft sein wird und dass das, was sie mit Nvidia aufbauen, dazu dienen wird, neue Durchbrüche im KI-Segment zu erzielen und die Technologie in größerem Umfang für Unternehmen und Menschen verfügbar zu machen.
Die Parteien werden auch zusammenarbeiten, um die Roadmaps des jeweils anderen mit ihrer gemeinsamen Vision zu optimieren, was hoffentlich zu einer noch stärkeren Abstimmung zwischen Hardware und Software führen wird, wobei Leistung und Funktionalität noch stärker auf die Bedürfnisse abgestimmt werden, was letztlich beiden Parteien und dem KI-Segment zugute kommt. Es gibt bereits ein gewisses Maß an Zusammenarbeit zwischen Nvidia und Kunden, aber die spezifische strategische Zusammenarbeit lässt vermuten, dass die Erkenntnisse von OpenAI einen größeren Einfluss auf die Entwicklung der Pläne haben werden als bisher. In der Zwischenzeit werden die Parteien natürlich die bestehenden Partnerschaften aufrechterhalten und alle ihre Zusagen einhalten, so dass OpenAI beispielsweise Microsofts exklusiver KI-Partner bleiben wird.
Die Vera-Rubin-Plattform ist, wie bereits berichtet, auf dem besten Weg zur Veröffentlichung, nachdem sie Ende August die "Tape-Out"-Phase erreicht hat, in der die Pläne in greifbare Chips umgesetzt werden, und die ersten Testmuster jetzt in Produktion sind, die eine erhebliche Verbesserung gegenüber den derzeitigen Lösungen darstellen. Die Vera Rubin-Plattform soll NVL144-Server mit 76 TB integriertem HBM4-Speicher verwenden und 3,6 ExaFLOP/s für FP4-Aufgaben und 1,2 ExaFLOP/s für FP8-Rechenaufgaben bieten - erstere für Deduktion und letztere für Untertraining. Der Rubin Ultra, der später auf den Markt kommen wird, wird eine noch größere Verbesserung darstellen und 15 ExaFLOP/s FP4- und 5 ExaFLOP/s FP8-Rechenleistung bieten, aber dies wird mit NVL576 erreicht, was bedeutet, dass ein Rack 576 GPUs enthalten wird.
Die 10 Gigawatt Leistung hören sich eigentlich gut an, aber es bleibt abzuwarten, wie genau diese Leistung erbracht werden soll und mit welcher Infrastruktur. Ein durchschnittlicher Kernkraftreaktor kann in der Regel 1 GW Leistung liefern. Für ein KI-Rechenzentrum mit 10 GW Leistung werden also sofort 10 Kernkraftreaktoren benötigt, was auch eine Aufrüstung des Stromnetzes erforderlich macht, aber auch Mikrokraftwerke, Wind- und Solarkraftwerke und andere Quellen, die die von KI-Rechenzentren benötigte Leistung effizient und sauber bereitstellen können, sind möglich.