Nach neuesten Brancheninformationen sieht es so aus, als ob Nvidia ab 2028 einige seiner GPUs, einschließlich seiner KI-Beschleuniger für Rechenzentren, mit Hilfe von Intel Foundry Services herstellen könnte. Dies wurde kürzlich von DigiTimes berichtet, die behaupten, dass Nvidia sowohl an Intels 18A- als auch 14A-Foundry-Technologien interessiert ist, die eine wichtige Rolle bei der Produktion seiner KI-Beschleuniger der nächsten Generation spielen könnten.
Nvidia plant, die 18A- und 14A-Streifenbreiten für einige der GPU-Komponenten in KI-Beschleunigern zu verwenden, die auf der Feynman-Architektur basieren, sagte aber nicht, um welche Komponenten es sich dabei genau handeln wird. Zusätzlich zu diesen Chipbreiten ist das Unternehmen auch an anderen Intel-Technologien interessiert, darunter EMIB, das die Interkonnektivität zwischen Chipsätzen ermöglichen würde.
Die Feynman-Architektur selbst wird nach Ruby erscheinen, ihr Debüt wird für das Jahr 2028 erwartet. Diese KI-GPUs werden Berichten zufolge weiterhin größtenteils in den Produktionslinien von TSMC hergestellt, wo einzelne Chips mit der 1,6-nm-Chipbreite A16 gefertigt werden könnten, die zu diesem Zeitpunkt gerade auf den Markt kommt. Diese Technologie macht 75 % des Wertes des Chips in Bezug auf die produzierten Komponenten aus, während die restlichen Komponenten mit Intels 18A- und 14A-Technologien hergestellt werden, während der Chip in Intels Foundry-Einrichtungen in den USA mit der EMIB-Technologie eingekapselt wird.
Es wird erwartet, dass die neuen KI-GPUs von neuen HBM-Speicherchip-Sandwiches begleitet werden, die entweder auf dem HBM4E- oder dem HBM5-Standard basieren könnten. Gleichzeitig wird sich die Speicherkapazität pro Verkapselung deutlich erhöhen, was den Weg für die Ausführung großer Sprachmodelle mit bis zu 1 Billion Parametern ebnen wird.