Kategorien

HIER IST AMDS HELIOS AI SERVER MIT 50% MEHR SPEICHER ALS NVIDIAS KOMMENDE LÖSUNG

Ein weiterer Vorteil von Helios ist die von AMD versprochene leichtere Wartbarkeit.
J.o.k.e.r
J.o.k.e.r
Hier ist AMDs Helios AI Server mit 50% mehr Speicher als Nvidias kommende Lösung

Einige wichtige Details über die Helios-Plattform von AMD wurden bereits erwähnt, aber das Unternehmen hat das System kürzlich auf dem Open Compute Project Global Summit in San Jose, Kalifornien, in natura gezeigt. Das Helios AI Rack wurde speziell entwickelt, um KI-Rechenzentren so effizient wie möglich zu versorgen, indem offene Verbindungstechnologien mit der hochmodernen Hardware von AMD kombiniert werden.

Das Helios AI Rack verspricht eine hohe Skalierbarkeit, um die Erweiterung der Rechenleistung von Rechenzentren zu unterstützen, sowie Verbesserungen in Bezug auf Wartungsfreundlichkeit, Kühlung und Stromverbrauch im Vergleich zu früheren Lösungen. Helios wird mit den verschiedenen KI-Racks von Nvidia auf dem Markt konkurrieren, darunter Blackwell und das Grace-basierte GB300 NVL72, verspricht aber auch, mit der Vera Rubin-Plattform konkurrenzfähig zu sein.

Galerie öffnen

Die Helios-Plattform wird auf KI-Beschleunigern basieren, die von AMDs Insinct 400-Serie unterstützt werden, und wird von Server-Prozessoren der Venice-Serie der EPYC-Serie begleitet. Die AMD Pensando-Netzwerkinfrastruktur und die AMD ROCm-Software sind ebenfalls wichtige Bausteine der Plattform, die einen erheblichen Leistungs- und Energieeffizienzvorteil in der schnell skalierenden KI-Infrastrukturbranche bieten.

Helios ist außerdem vollständig kompatibel mit dem von Meta entwickelten Open Rack Wide-Standard, und bei seiner Entwicklung war es wichtig, Leistung, Kühlung und Wartungsfreundlichkeit auf ein höheres Niveau zu stellen. Durch die Unterstützung der ORW- und OPC-Standards kann AMD seinen Partnern die Mittel an die Hand geben, ihre KI-Rechenzentren schneller und effizienter zu skalieren, was die Anzahl der KI-Racks und damit die Rohleistung angeht.

Galerie öffnen

Forrest Norrod, Vice President und General Manager der AMD Data Center Solutions Group, sagte, dass in Form von Helios offene Standards in ein echtes, einsatzfähiges System umgewandelt werden, das AMD Instinct GPUs, EPYC Prozessoren und offene Interconnect-Standards nutzt, um eine leistungsstarke, flexible Plattform zu schaffen, die speziell auf die Bedürfnisse von KI-Workflows der nächsten Generation zugeschnitten ist.

Jeder MI450 KI-Beschleuniger kann bis zu 432 GB On-Board-HBM4-Speicher mit einer maximalen Speicherbandbreite von 19,6 TB/s nutzen. Ein einzelnes Helios AI Rack mit 72 solcher KI-Beschleuniger kann eine FP8-Rechenleistung von 1,4 ExaFLOP/s erreichen und insgesamt 31 TB HBM4 On-Board-Speicher verarbeiten. Laut AMD bedeutet dies, dass AMD 50 % mehr Speicher als Nvidias kommende Vera-Rubin-Plattform anbieten kann, was ein echter Kraftakt ist.

Galerie öffnen

Es wird erwartet, dass Helios das Interesse einer Reihe von Partnern wecken wird. So plant beispielsweise Oracle den Kauf von 50 000 MI450-GPUs, die im dritten Quartal 2026 verfügbar sein könnten, und weitere Käufe im Jahr 2027, was darauf hindeutet, dass AMDs Plattform wettbewerbsfähig genug sein könnte. Natürlich werden wir das endgültige Bild erst dann sehen, wenn die kommenden Plattformen von unabhängigen Testern hinreichend genau geprüft wurden.

Das Vertrauen in AMDs Produkte scheint zu wachsen, was ein gutes Zeichen ist, da das Segment der KI-Beschleuniger derzeit unter der überwältigenden Dominanz von Nvidia leidet. Es ist also höchste Zeit, dass sich die Situation ändert und ein gewisser Wettbewerb entsteht, der sich positiv auf die Marktentwicklung auswirken würde.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang