Laut Branchenquellen von Reuters ist das OpenAI-Team in seinen Bemühungen, einen eigenen KI-Beschleuniger zu entwickeln, bereits recht weit fortgeschritten. Frühere Gerüchte besagten, dass Unternehmensvertreter in Gesprächen mit dem Broadcom-Team waren, um gemeinsam einen speziellen KI-Beschleuniger-Chip zu entwickeln, der perfekt auf die Bedürfnisse von OpenAI zugeschnitten wäre. Der Prozess scheint seitdem an Dynamik gewonnen zu haben.
Die Hilfe von Broadcom wird definitiv benötigt, da das fabriklose Unternehmen über das nötige Fachwissen verfügt, um einen leistungsstarken KI-Beschleuniger zu entwickeln - etwas, das bei OpenAI noch in den Kinderschuhen steckt, da das Unternehmen keine Hardware, sondern Software entwickelt, wie das inzwischen populäre ChatGPT zeigt. Berichten zufolge hat das Unternehmen bereits ein spezielles Chip-Entwicklungsteam mit rund 20 Mitarbeitern eingerichtet, das von zwei ehemaligen Google TPU-Ingenieuren, Thomas Norrie und Richard Ho, geleitet wird. Die Arbeit an der Entwicklung des Chips scheint bereits begonnen zu haben, aber zum jetzigen Zeitpunkt sind keine weiteren Informationen verfügbar. Der erste maßgeschneiderte KI-Beschleuniger wird voraussichtlich um das Jahr 2026 auf den Markt kommen. Berichten zufolge hat OpenAI die Kapazitäten bei TSMC für die Produktion des neuen Chips bereits im Voraus gebucht, was zeigt, dass die Absichten des Unternehmens sehr ernst sind.
Es wird erwartet, dass Broadcom in mehreren Bereichen bei der Entwicklung des kundenspezifischen Chips helfen wird. Zunächst kann das Unternehmen dabei helfen, das Design zu optimieren, damit es an die Fertigungsbedingungen angepasst werden kann. Gleichzeitig kann das Unternehmen auch bei der Datenübertragung zwischen den Chips helfen, was in einem System, in dem Tausende von KI-Beschleunigern parallel laufen, eine kritische Aufgabe ist. Broadcom verfügt über das richtige Maß an Know-how und Technologie bei Netzwerk-Controllern, SSD-Controllern und vielen anderen Produkten sowie über Fachwissen bei kundenspezifischen ASIC-Chips.
Im Hintergrund wird OpenAI natürlich weiterhin die Dienste von Nvidia in Anspruch nehmen und die Produkte des Unternehmens für das Training neuronaler Netze nutzen, gleichzeitig aber auch die KI-Beschleuniger der Instinct MI300X-Serie von AMD einsetzen, um Kunden zu bedienen, d. h. AMD-Produkte werden zur Unterstützung des Abzugsprozesses verwendet. Damit verfolgt das Unternehmen eine ähnliche Strategie wie Meta, nämlich die Diversifizierung seiner Infrastruktur, die in einigen Jahren auch eigene KI-Beschleuniger umfassen könnte, wenn alles nach Plan läuft.