Kategorien

SAMSUNG KÖNNTE HBM4-"SANDWICH"-CHIPS FÜR AMDS KI-BESCHLEUNIGER INSTINC MI450 LIEFERN

Samsung und AMD haben bereits eine aktive Partnerschaft. Das südkoreanische Unternehmen liefert die HBM3e-"Sandwich"-Chips für die aktuelle Generation der KI-Beschleuniger von AMD.
J.o.k.e.r
J.o.k.e.r
Samsung könnte HBM4-"Sandwich"-Chips für AMDs KI-Beschleuniger Instinc MI450 liefern

Das Team von Samsung Foundry tut sein Möglichstes, um sicherzustellen, dass das Unternehmen so viele Aufträge wie möglich von Branchenakteuren erhält, damit Samsungs Halbleitergeschäft profitabel bleibt, Waferbreiten der nächsten Generation entwickeln kann und seine Gemeinkosten finanziert. Samsung und AMD haben bereits eine Kooperationsvereinbarung geschlossen, in deren Rahmen der südkoreanische Hersteller die HBM-Speicherchips für AMDs KI-Beschleuniger liefert. Diese Zusammenarbeit könnte in Zukunft noch ausgeweitet werden, indem Samsung zum Hauptlieferanten von HBM4-Speicherchip-Sandwiches für AMD wird.

Die HBM3e-Speicherchip-Sandwiches für AMDs aktuelle KI-Beschleuniger, die eine 12-Hi-Architektur haben, d.h. 12 HBM-Chips in einem einzigen Gehäuse, werden sowohl von Samsung als auch von Micron geliefert, zum Beispiel für den MI350X bzw. MI355X. Die Vereinbarung ist sicherlich wichtig, da sie dazu beiträgt, die Auslastung von Samsungs Produktionslinien zu optimieren, aber sie könnte auch eine sichere Sache für AMD sein, d.h. sie wird den Hersteller mit genügend HBM4-Speicherchip-Sandwiches versorgen, um seine anderen Kooperationen zur Lieferung von KI-Beschleunigern an jedes Unternehmen zu bedienen. Ein Beispiel für eine solche Zusammenarbeit ist die mehrjährige, milliardenschwere Vereinbarung zwischen OpenAI und AMD, in deren Rahmen AMD in den kommenden Jahren insgesamt 6 GW an KI-Beschleunigern liefern wird. OpenAI könnte im Rahmen der Vereinbarung eine Beteiligung von bis zu 10 % an AMD erwerben - dies setzt natürlich voraus, dass die in der Vereinbarung festgelegten Meilensteine erreicht werden, wie wir in unseren früheren Nachrichten erwähnt haben.

Galerie öffnen

Samsung und SK hynix sind auch am Stargate AI-Datenzentrumsprojekt in den USA beteiligt, wo sie laut Reuters mit dem Management von OpenAI zusammenarbeiten, um bis zu 900.000 DRAM-Siliziumchips zu produzieren. Dies ist eine so große Menge, dass sie fast 40 % der weltweiten DRAM-Produktion ausmacht. Samsung wird im Rahmen des Stargate-Projekts nicht nur HBM-Speicherchip-Sandwiches, sondern auch GDDR-Speicher, SSD-Karten mit hoher Kapazität und LPDDR5X-PIM-Speicherchips liefern können. Bei letzteren handelt es sich um stromsparende Speicherchips der mobilen Klasse, die auch mit In-Memory-Computing-Funktionen ausgestattet sind.

In diesem Medium, d. h. dem Segment der KI-Rechenzentren, scheint sich eine bipolare Anordnung abzuzeichnen, wobei Nvidia einen der größeren Pole darstellt und AMD den anderen, mit einem vorerst deutlich kleineren Marktanteil. Auch Intel ist mit an Bord: hat kürzlich eine Vereinbarung mit dem Nvidia-Team getroffen, um X86-RTX-SoC-Einheiten für den Verbrauchermarkt zu produzieren, während sie Nvidia im Server-Segment mit maßgeschneiderten Xeon-Prozessoren zum Erfolg verhelfen werden.

Bei den Verbindungstechnologien gibt es ebenfalls zwei Pole, zum einen den etablierten NVLink, der ein geschlossenes Ökosystem darstellt, und zum anderen UALink, einen offenen Standard, der unter anderem von AMD, Meta, Synpsis, Microsoft, Google und Apple unterstützt wird, also ein ziemlich großes Konsortium. Intel ist ebenfalls an der Technologie interessiert, hat sich dem Konsortium aber noch nicht angeschlossen, und es ist möglich, dass es dies auch nicht mehr tun wird, da sich zwischen ihm und Nvidia eine sehr wichtige Partnerschaft entwickelt. Nvidia ist natürlich kein Mitglied des UALink-Konsortiums, das als Konkurrent angesehen wird.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang