Kategorien

DIE ENTWICKLUNG VON OPENAIS EIGENEN KI-BESCHLEUNIGERN KÖNNTE DANK DER HILFE VON BROADCOM IN WENIGEN MONATEN ABGESCHLOSSEN SEIN

Berichten zufolge kommen die Arbeiten gut voran, und die Massenproduktion der Chips soll im nächsten Jahr anlaufen.
J.o.k.e.r
J.o.k.e.r
Die Entwicklung von OpenAIs eigenen KI-Beschleunigern könnte dank der Hilfe von Broadcom in wenigen Monaten abgeschlossen sein

Es ist schon seit einiger Zeit kein Geheimnis mehr, dass das OpenAI-Team an einem selbst entwickelten KI-Beschleuniger arbeitet und dabei vom Broadcom-Team unterstützt wird. Neuesten Meldungen zufolge schreiten die Arbeiten gut voran und der neue KI-Beschleuniger könnte in den kommenden Monaten fertiggestellt werden, was die Designs betrifft, so dass die ersten praktischen Muster bei TSMC produziert werden können, d.h. die "Tape-out"-Phase kann beginnen. Laut Reuters könnte der neue Beschleuniger, wenn alles nach Plan läuft und keine unvorhergesehenen Ereignisse eintreten, dank der Anlagen von TSMC im Jahr 2026 für die Massenproduktion bereit sein.

Der einzigartige KI-Beschleuniger selbst könnte eine so genannte Systolic Array-Architektur verwenden, d. h. er könnte aus identischen Recheneinheiten bestehen, die gitterartig auf dem Chip angeordnet sind, und diese Elemente könnten Matrix- oder Vektorberechnungen durchführen. Die in Spalten oder Zeilen angeordneten Verarbeitungseinheiten können miteinander verbunden sein, und die Daten können fließbandartig durch das Array pulsieren. Es ist noch nicht klar, welchen Speicher das Unternehmen für die Verarbeitungseinheit verwenden wird - HBM4 und HBM3E sind beide denkbar. Die Fertigungstechnologie wird jedoch die TSMC-Wafer der 3-nm-Klasse sein, deren genauer Typ noch nicht festgelegt wurde.

OpenAI hat Berichten zufolge die Hilfe von Broadcom bei der Entwicklung und dem Zusammenbau des neuen KI-Beschleunigers in Anspruch genommen, was in der Regel dadurch geschieht, dass das Unternehmen die wichtigsten differenzierenden IPs selbst entwickelt oder zumindest seine Ideen den Spezialisten von Broadcom vorstellt, Das Broadcom-Team fügt dann die zusätzlichen Komponenten hinzu, die für den Betrieb erforderlich sind, wie z. B. Mehrzweckprozessorkerne, Speichercontroller, E/A-Controller und Schnittstellen, und stellt schließlich das endgültige Design zusammen. Das Designteam von OpenAI wird von Richard Ho geleitet, der zuvor an den TPUs von Google gearbeitet hat und somit über Erfahrung in diesem Bereich verfügt. Sein Team hat sich vor kurzem auf 40 Mitarbeiter verdoppelt, die an dem KI-Beschleuniger arbeiten. Das scheint viel zu sein, aber es ist immer noch eine winzige Zahl im Vergleich zu den Ressourcen von Amazon oder Google, die in der Regel Hunderte von Ingenieuren an ähnlichen Aufgaben arbeiten lassen.

Galerie öffnen

Für OpenAI wird sich die Arbeit dennoch lohnen, denn der neue KI-Beschleuniger wird es ermöglichen, die verschiedenen KI-bezogenen Aufgaben im eigenen Haus energie- und kosteneffizienter auszuführen, die in der ersten Runde typischerweise eher mit der Deduktion als mit dem LLM-Training zu tun haben. Ein weiterer Vorteil ist, dass ein eigener KI-Beschleuniger die Verhandlungsposition mit den derzeitigen Anbietern wie Nvidia verändern wird, so dass das Unternehmen zusätzliche Rabatte aushandeln kann. Energie- und Kosteneffizienz sowie ein Design, das besser für die eigenen Aufgaben geeignet ist, bedeuten, dass die typischen Entwicklungskosten von Hunderten von Millionen Dollar in relativ kurzer Zeit wieder hereingeholt werden können, wenn mehr als ein Prozessor pro Plattform entwickelt wird, da die Entwicklungskosten pro Prozessor gesenkt werden, aber es kann sich trotzdem lohnen, einen eigenen KI-Beschleuniger zu bauen.

In Bezug auf die Leistung können solche Entwicklungen in der Regel hinter dem zurückbleiben, was die teuren KI-Beschleuniger von Nvidia bieten, aber die Chips sind billiger in der Herstellung und energieeffizienter im Betrieb, was dazu beiträgt, eine gute Rendite auf die Entwicklungskosten zu erzielen - wenn alles nach Plan läuft und keine Designfehler gemacht werden. Kosten- und energieeffiziente KI-Beschleuniger können sich auch deshalb als nützlich erweisen, weil sie den Kunden helfen, ihre KI-Modelle kostengünstiger zu betreiben, was sich insgesamt positiv auf den Markt auswirken kann.

Wenn mit dem ersten maßgeschneiderten KI-Beschleuniger von OpenAI alles gut läuft und die Entwicklung in den kommenden Monaten tatsächlich abgeschlossen wird, könnte die Massenproduktion der Chips bis zu einem Jahr später anlaufen. Das bedeutet, dass weitere Chips bis Mitte 2026 verfügbar sein könnten, so dass Server-Cluster, die auf den neuen Beschleunigern aufbauen, in der zweiten Jahreshälfte in Betrieb genommen werden könnten.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang