Kategorien

NVIDIA NUTZT INTEL FOUNDRY FÜR DIE HERSTELLUNG EINIGER SEINER GPUS AB 2028

Bei Intel können die 18A- und 14A-Streifenbreiten zum Einsatz kommen, und auch Nvidia könnte die EMIB-Technologie zur Herstellung der nächsten Generation von KI-GPUs verwenden.
J.o.k.e.r
J.o.k.e.r
Nvidia nutzt Intel Foundry für die Herstellung einiger seiner GPUs ab 2028

Nach neuesten Brancheninformationen sieht es so aus, als ob Nvidia ab 2028 einige seiner GPUs, einschließlich seiner KI-Beschleuniger für Rechenzentren, mit Hilfe von Intel Foundry Services herstellen könnte. Dies wurde kürzlich von DigiTimes berichtet, die behaupten, dass Nvidia sowohl an Intels 18A- als auch 14A-Foundry-Technologien interessiert ist, die eine wichtige Rolle bei der Produktion seiner KI-Beschleuniger der nächsten Generation spielen könnten.

Nvidia plant, die 18A- und 14A-Streifenbreiten für einige der GPU-Komponenten in KI-Beschleunigern zu verwenden, die auf der Feynman-Architektur basieren, sagte aber nicht, um welche Komponenten es sich dabei genau handeln wird. Zusätzlich zu diesen Chipbreiten ist das Unternehmen auch an anderen Intel-Technologien interessiert, darunter EMIB, das die Interkonnektivität zwischen Chipsätzen ermöglichen würde.

Galerie öffnen

Die Feynman-Architektur selbst wird nach Ruby erscheinen, ihr Debüt wird für das Jahr 2028 erwartet. Diese KI-GPUs werden Berichten zufolge weiterhin größtenteils in den Produktionslinien von TSMC hergestellt, wo einzelne Chips mit der 1,6-nm-Chipbreite A16 gefertigt werden könnten, die zu diesem Zeitpunkt gerade auf den Markt kommt. Diese Technologie macht 75 % des Wertes des Chips in Bezug auf die produzierten Komponenten aus, während die restlichen Komponenten mit Intels 18A- und 14A-Technologien hergestellt werden, während der Chip in Intels Foundry-Einrichtungen in den USA mit der EMIB-Technologie eingekapselt wird.

Es wird erwartet, dass die neuen KI-GPUs von neuen HBM-Speicherchip-Sandwiches begleitet werden, die entweder auf dem HBM4E- oder dem HBM5-Standard basieren könnten. Gleichzeitig wird sich die Speicherkapazität pro Verkapselung deutlich erhöhen, was den Weg für die Ausführung großer Sprachmodelle mit bis zu 1 Billion Parametern ebnen wird.

Hírlevél feliratkozás
A feliratkozással elfogadom a Felhasználási feltételeket és az Adatvédelmi nyilatkozatot.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang