Samsung hat kürzlich einen äußerst wichtigen Meilenstein erreicht: Nvidia hat die von dem südkoreanischen Unternehmen hergestellten HBM3E-Standard-Speicherchip-Sandwiches endlich für geeignet befunden, um sie an Bord seiner kommenden KI-Beschleuniger zu verwenden. Die Erteilung der Zertifizierung ist ein großer Schritt nach vorne, da Samsung im HBM3E-Bereich hinter Sk hynix und Micron zurückgeblieben ist, da Schwierigkeiten mit HBM3E-Chips dazu geführt haben, dass Nvidia sich geweigert hat, sie zuzulassen, aber die Probleme wurden überwunden und das südkoreanische Unternehmen holt nun seine Konkurrenten ein, wenn auch ein wenig spät.
Der Entwicklungsprozess für HBM3E-Speicherchips wurde vor etwa 18 Monaten abgeschlossen, wobei SK hynix und Micron große Mengen der Chips für Nvidias KI-Beschleuniger lieferten, aber Samsung war nicht in der Lage, rechtzeitig auf den fahrenden Zug aufzuspringen. Jetzt, da die fraglichen Speicherchips die Qualifikationstests von Nvidia bestanden haben, könnten sie bald die endgültige Zertifizierung erhalten, so dass das südkoreanische Unternehmen sie endlich an Nvidia liefern kann. Aufgrund dieser positiven Nachricht stieg der Kurs der Samsung-Aktie schnell um etwa 5 %, da die Nachricht das Vertrauen der Anleger stärkte.
Es wird erwartet, dass Samsung zunächst nur kleine Mengen seiner HBM3E-Speicherchips für verschiedene Nvidia-Produkte, vor allem die B300-Modelle, liefern wird, aber im Laufe des Jahres 2026 die Lieferungen erhöhen wird, wobei Micron und SK hynix derzeit den Löwenanteil ausmachen. Interessanterweise liefert Samsung schon seit einiger Zeit Speicherchips des Typs HBM3E an AMD, die möglicherweise in der Instinct MI350-Serie mit an Bord sind, aber sie kaufen auch Speicherchips von Micron für diese Produkte.
Die Entscheidung betrifft die HBM3E-Speicherchips des 12-Hi-Typs, d.h. bestehend aus 12 Chips, die eine deutliche Verbesserung gegenüber der 8-Hi-Architektur darstellen, die für HBM3-Speicherchips verwendet wird, und zwar nicht nur in Bezug auf die Kapazität, sondern auch in Bezug auf die Speicherbandbreite: Sie bieten eine Speicherbandbreite von 1,2 TB/s pro Chip.
Obwohl HBM3E-Speicherchips auf dem Markt für KI-Beschleuniger sehr wichtig sind, richtet sich die Aufmerksamkeit seit langem auf HBM4-Lösungen, die den 1024-Bit-Speicherdatenraum durch 2048-Bit ersetzen und auch bei der Kapazität einen großen Schritt nach vorne machen, von 48 GB auf 64 GB. Die Speicherbandbreite kann etwa 2 TB/s pro Chip betragen, während die Energieeffizienz ebenfalls verbessert wird, wobei die oben genannten Vorteile bei einem etwa 20-30 % niedrigeren Stromverbrauch erzielt werden. Anstelle von Waferbreiten der 10-nm-Klasse können diese Chips nun Waferbreiten von 3-4 nm verwenden.
Samsungs Team arbeitet bereits an HBM4, um die notwendigen Zertifizierungen von Unternehmen, die KI-Beschleuniger entwickeln, rechtzeitig für die Auslieferung der neuen Speicherchips zu erhalten, um das größte Stück vom HBM4-Speichermarkt abzubekommen. Es ist geplant, die Massenproduktion von HBM4-Speicherchips in der ersten Hälfte des nächsten Jahres aufzunehmen. In der Zwischenzeit bleiben die Konkurrenten nicht untätig. So hat das Team von SK hynix vor kurzem bekannt gegeben, dass sie die Entwicklung des HBM4-Speicherchips abgeschlossen haben und damit der Konkurrenz voraus sind, aber das könnte sich noch ändern. So oder so freuen sich die Anleger über Samsungs Erfolg und scheinen zuversichtlich, dass das südkoreanische Unternehmen seine Konkurrenten im HBM-Speicherwettbewerb bald einholen wird.