KI-Beschleuniger und Software, die die Möglichkeiten der KI ausschöpft, sind auf dem Vormarsch, und viele wollen von diesem Wachstumspotenzial profitieren. So auch Elon Musk, der kürzlich erwähnte, dass er bald eine große Anzahl von KI- und HPC-Beschleunigern der nächsten Generation bei Nvidia bestellen wird.
Der Tesla- und SpaceX-Chef setzt derzeit ein ziemlich leistungsfähiges System ein, das aus 100 000 Nvidia H100-Beschleunigerkarten besteht, um die Anforderungen von "X" zu erfüllen, sowie ein proprietäres Hochsprachenmodell, das hinter einem KI-Bot namens Grok-1 arbeiten könnte. Laut Elon Musk wird dieses System aus flüssigkeitsgekühlten H100-Beschleunigern bestehen, die innerhalb weniger Monate in Betrieb genommen werden könnten, wenn alles nach Plan läuft. Es wird auch eine Schlüsselrolle bei der Bereitstellung von KI-basierten Dienstleistungen und beim Training verschiedener KI-Modelle spielen. Die Grok selbst ist natürlich bereits verfügbar, und ihre Funktionsweise unterscheidet sich stark von den üblichen ChatGPT/Copilot- und Gemini-basierten Systemen, da sie offener ist, eher zu Scherzen neigt und auch in anderer Hinsicht neuartig ist, mit zwei verschiedenen Betriebsmodi: lustig und normal. Im Moment können nur X Premium-Nutzer die Funktion ausprobieren.
Um unter anderem Grok zu verbessern, plant Elon Musk offenbar eine weitere große Investition: Bis zum nächsten Sommer sollen nicht weniger als 300.000 B200-GPUs von Nvidia gekauft werden. Während die 100 000 H100-KI-Beschleuniger eine enorme Leistung bieten, lohnt es sich nicht, das System, das mit einem Stromverbrauch von 1 Gigawatt arbeitet, lange zu behalten, da die Beschleuniger der nächsten Generation, die auf der Blackwell-Architektur basieren, deutlich schneller sind und eine bessere Energieeffizienz bieten.
Der B200-Grafikprozessor verbraucht praktisch mehr Strom als der H100, ist aber auch deutlich schneller und bietet einen vierfachen Vorteil bei der Trainingsleistung und einen bis zu 30-fachen Vorteil bei der Deduktionsleistung. Durch den Einsatz von dreimal so vielen KI-Beschleunigern auf dem Schlachtfeld, die auch deutlich mehr Strom verbrauchen als das H100-basierte System, das gerade zusammengebaut wird, werden Sie definitiv von einer enormen Steigerung der Rechenleistung profitieren, die eine schnellere und effizientere Entwicklung und eine bessere Gesamtenergieeffizienz ermöglicht - was die Leistung angeht.
Es bleibt abzuwarten, ob Nvidia in der Lage sein wird, eine so große Anzahl von B200-GPUs zu liefern, denn die Bestellung von 300.000 Einheiten ist keine unbedeutende Menge, und dabei handelt es sich nur um die Bestellung von Elon Musk, denn auch Meta, Microsoft, Google und mehrere andere Unternehmen haben B200-KI-Beschleuniger bestellt. Dies war in der Vergangenheit ein Problem, da die enormen Vorlaufzeiten zu einem Ansturm von Kunden führten und Nvidia kaum hinterherkam, aber die Situation hat sich mit der Zeit verbessert. Wird sich eine ähnliche Situation bei Blackwell-basierten Beschleunigern wieder einstellen? Das ist möglich, aber das wird nur die Zeit zeigen.