Kategorien

META-TEAM TESTET RISC-V-BASIERTEN KI-BESCHLEUNIGER

Mit der Zeit soll der neue Beschleuniger auch KI-Aufgaben im Zusammenhang mit dem Tagesgeschäft übernehmen.
J.o.k.e.r
J.o.k.e.r
META-Team testet RISC-V-basierten KI-Beschleuniger

Meta hat Berichten zufolge einen weiteren wichtigen Schritt unternommen, um seine Abhängigkeit von Nvidias KI-Beschleunigern im Laufe der Zeit zu verringern, indem es diese durch proprietäre Lösungen ersetzt, die auf der offenen und lizenzgebührenfreien RISC-V-Architektur aufbauen. Reuters berichtet, dass Meta vor kurzem mit dem Testen einer seiner neuesten Entwicklungen begonnen hat, einem RISC-V-basierten KI-Beschleuniger, der in der Branche einzigartig sein könnte.

Der RISC-V-basierte KI-Beschleuniger wird wahrscheinlich zusammen mit Broadcom entwickelt. Ziel ist es, die Produktion und den Einsatz der Chips zu erhöhen, sobald das Design entwickelt und fein abgestimmt ist, so dass weniger KI-Beschleuniger der Serien H100 und H200 sowie B100 und B200 von Nvidia zur Beschleunigung verschiedener KI-bezogener Aufgaben, wie z. B. dem Training großer Sprachmodelle, eingesetzt werden müssen.

Der benutzerdefinierte KI-Beschleuniger wurde in Zusammenarbeit mit TSMC hergestellt und seitdem in einer Reihe von funktionierenden Testexemplaren produziert, die derzeit in begrenzter Stückzahl verfügbar sind und bereits in Form eines Testsystems in Betrieb genommen wurden. Bei den Tests wird untersucht, wie sich der Beschleuniger unter verschiedenen Lastbedingungen verhält, wo Optimierungsbedarf besteht und wo eventuelle Fehler behoben werden können. Zur Leistung des neuen KI-Beschleunigers und zu seiner Architektur liegen noch keine Informationen vor. Da es sich jedoch um einen spezialisierten Beschleuniger handelt, der eigens für die KI-Deduktion bzw. das KI-Training entwickelt wurde, wird er höchstwahrscheinlich mit einem Speicher-Subsystem mit hoher Speicherbandbreite gekoppelt sein, das Speicherchips vom Typ HBM3 oder HBM3E verwendet. Ziel der Entwicklung ist es, sicherzustellen, dass die Neuentwicklung unter typischen Lastbedingungen in den eigenen Systemen ein gutes Leistungsverhältnis aufweist und somit mit den Hopper- und Blackwell-basierten Produkten von Nvidia konkurrenzfähig ist, die nach und nach durch den eigenen KI-Beschleuniger ersetzt werden sollen.

Galerie öffnen

Die Entwicklung selbst verlief nicht ganz reibungslos, da sie Teil des Meta Training and Inference Accelerator Programms war. Die Entwickler stießen auf mehrere schwerwiegende Hindernisse, was 2022 zu einem Strategiewechsel führte. Sie bestellten große Mengen an KI-Beschleunigern von Nvidia, um ihren aktuellen Rechenbedarf zu decken, bis der selbst entwickelte KI-Beschleuniger fertig war. Das Unternehmen überwand schließlich die Herausforderungen und setzte im vergangenen Jahr einen im Rahmen des MTIA-Programms entwickelten Chip ein und begann, ihn für Abzugsaufgaben zu verwenden. Der aktuelle Plan sieht vor, die eigenen Chips ab 2026 schrittweise einzusetzen, um den KI-Trainingsprozess zu beschleunigen und gleichzeitig die Entwicklung so effizient wie möglich zu gestalten.

Die RISC-V-Architektur könnte dafür eine gute Wahl sein, auch wenn sie als konkreter KI-Beschleuniger noch nicht weit verbreitet ist, zumindest noch nicht auf dem Markt. Das Entwicklungsteam von Meta kann die RISC-V-Architektur an seine eigenen Arbeitsabläufe anpassen und so eine Lösung schaffen, die zu den leistungsstärksten RISC-V-basierten Chips in der Branche gehören wird, wenn alles nach Plan läuft. Langfristig ist dies sicherlich eine gute Nachricht für Meta, aber Nvidia könnte allmählich einen wichtigen Partner verlieren, der zuvor Zehntausende von KI-Beschleunigern von Nvidia gekauft hat.

Eigenentwickelte Lösungen könnten im Laufe der Zeit dazu beitragen, die Llama Foundation Model Suite zu bedienen, aber sie könnten auch eine hilfreiche Verbesserung bei der plattformübergreifenden Bereitstellung von Empfehlungen, Werbung und anderen Inhalten darstellen. Natürlich wird dies einige Zeit in Anspruch nehmen. Der neue KI-Beschleuniger muss fein abgestimmt werden und es muss eine Feinabstimmung vorgenommen werden, damit Tausende dieser Chips effizient zusammenarbeiten können.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang