Kategorien

NACH ETWAS VERZÖGERUNG IST NUN ENDLICH DER NEUESTE KI-BESCHLEUNIGER VON MICROSOFT, DER MAIA 200, VORGESTELLT WORDEN

Es ist eine deutliche Verbesserung gegenüber seinem Vorgänger der vorherigen Generation.
J.o.k.e.r
J.o.k.e.r
Nach etwas Verzögerung ist nun endlich der neueste KI-Beschleuniger von Microsoft, der Maia 200, vorgestellt worden

Mit einiger Verspätung hat Microsoft endlich den neuesten KI-Beschleuniger des Unternehmens angekündigt, der natürlich Teil der Maia-Serie ist und Maia 200 heißt. Er stellt eine erhebliche Verbesserung gegenüber der vorherigen Generation dar. Microsoft behauptet, dass der Maia 200 im Vergleich zum Maia 100 eine um 30 % höhere Leistung pro Dollar bietet, was eine beachtliche Leistung ist.

Auf dem Papier hat er einen um 50 % höheren TDP-Rahmen als sein Vorgänger - mehr dazu später -, was ebenfalls eine bedeutende Veränderung darstellt, aber im Gegenzug bietet er eine enorme Leistung für KI-Modell-Deduktions-Workflows, da er speziell für diese entwickelt wurde. Der neue Chip ist auch schneller als die neuesten KI-Beschleuniger der Konkurrenten Google oder Amazon und kann in einigen Fällen sogar mit dem Blackwell B300 von Nvidia mithalten.

Galerie öffnen

Der neue KI-Beschleuniger wird mit TSMCs N3P-Fertigungstechnologie der 3nm-Klasse hergestellt und besteht aus insgesamt 140 Milliarden Transistoren, was ihn zu einer massiven Lösung macht. Die FP4-Rechenleistung kann im Bereich von 10 PFLOP/s liegen und ist damit dreimal schneller als Amazon Trainium 3, was eine erhebliche Verbesserung darstellt. Neben dem neuen KI-Beschleuniger befinden sich 216 GB On-Board-HBM3E-Speicher, der eine Speicherbandbreite von 7 TB/s ermöglicht, während sich 272 MB SRAM auf dem Chip selbst befinden. Letzterer ist in Partitionen auf Kachel- und Schwarm-Ebene (TSRAM und CSRAM) auf dem Chip verfügbar, was zu einer effizienten Datenverarbeitung beiträgt, indem die Arbeitslast gleichmäßig auf die verfügbaren HBM-Speicherchip-Sandwiches und SRAM-Arrays verteilt wird.

A Maia 200 és a konkurens AI gyorsítók legfontosabb paraméterei

Merkmal/ModellMicrosoft Azure Maia 200Amazon AWS Trainium 3Nvidia Blackwell GB300 Ultra
Technologie für die Produktion N3P N3P 4NP
FP4-Rechenleistung 10,14 PFLOP/s 2.517 PFLOP/s 15 PFLOP/s
FP8-Rechenleistung 5.072 PFLOP/s 2.517 PFLOP/s 5 PFLOP/s
BF16-Rechenleistung 1.268 PFLOP/s 0,671 PFLOP/s 2,5 PFLOP/s
Speicherkapazität und -typ 216 GB | HBM3E 144 GB | HBM3E 288 GB | HBM3E
Speicher-Bandbreite 7 TB/s 4,9 TB/s 8 TB/s
TDP-Rahmen 750 W NICHT ZUTREFFEND 1400 W
Bi-direktionale Datenübertragungsbandbreite 2,8 TB/s 2,56 TB/s 1,8 TB/s

Obwohl die derzeit verfügbaren Daten keinen direkten Vergleich zwischen dem Maia 100 und dem Maia 200 zulassen, da keine Leistungsdaten als gemeinsamer Nenner verfügbar sind, lohnt es sich, den Newcomer neben den Amazon Trainium 3 und den Nvidia Blackwell B300 Ultra zu stellen, auch wenn er nicht separat im Handel erhältlich ist, sondern nur auf Microsoft Azure-Servern. Während Amazons KI-Beschleuniger in praktisch jedem Bereich von Microsoft übertroffen wird, wobei einige sogar mehrfache Vorteile aufweisen, spielt der GB300 Ultra in einer ganz anderen Liga, wenn man das Gesamtbild betrachtet.

Galerie öffnen

In Bezug auf die Energieeffizienz ist Microsofts neues Produkt natürlich mit dem von Nvidia konkurrenzfähig, was für Systembetreiber heutzutage ein immer wichtigerer Gesichtspunkt ist, da die Stromversorgung von Rechenzentren mit KI-Beschleunigern immer anspruchsvoller wird. Mit einem TDP-Rahmen von 750 W, der deutlich unter dem TDP-Rahmen von 1400 W des B300 Ultra liegt, scheint Microsofts Lösung im Vergleich ausreichend leistungsfähig zu sein, vor allem, wenn sie in der realen Welt ähnlich funktioniert wie die Maia 100, die laut Microsoft unter Live-Bedingungen eher 500 W als 700 W verbraucht. Wenn der Stromverbrauch des Maia 200 auf dem angegebenen TDP-Niveau liegt, könnte es mit einem 50 % höheren Stromverbrauch arbeiten, aber wenn es unter Live-Bedingungen mit weniger Strom auskommt als sein Vorgänger, könnte das das Bild und die vorherige Aussage verändern.

Galerie öffnen

Der Maia 200 sollte ursprünglich im Jahr 2025 auf den Markt kommen und sogar früher als Nvidias B300-Beschleuniger, aber aufgrund von Verzögerungen ist er noch nicht auf dem Markt. Der neue Chip wird bereits von Microsoft in seinem zentralen Azure-Rechenzentrum in den USA eingesetzt, und auch das US-Rechenzentrum West 3 wird ihn in nicht allzu ferner Zukunft erhalten, ebenso wie andere Bereiche. Der heterogene KI-Beschleuniger wird mit anderen KI-Beschleunigern in jedem Rechenzentrum zusammenarbeiten und eine ausreichend effiziente und vielseitige Infrastruktur bereitstellen.

Konkrete Details zum Maia-KI-Beschleuniger der nächsten Generation wurden noch nicht veröffentlicht, aber es ist wahrscheinlich, dass er mit Intels 18A-Fertigungstechnologie gebaut wird, zumindest wie im letzten Oktober gemunkelt wurde.

Hírlevél feliratkozás
A feliratkozással elfogadom a Felhasználási feltételeket és az Adatvédelmi nyilatkozatot.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang