Intel hat kürzlich eine echte Überraschung in Form eines neuen KI-Beschleunigers mit dem Codenamen Crescent Island angekündigt. Dabei handelt es sich um eine spezielle Lösung auf Xe3-Basis, die jedoch nur offiziell vorgestellt wurde und erst später auf den Markt kommen wird - wann genau, wurde noch nicht verraten. Es ist jedoch kein Geheimnis, dass das spezielle Produkt speziell für die Beschleunigung von Inferenzprozessen entwickelt wird und seine Fähigkeiten entsprechend ausgebaut werden.
Es basiert auf der Xe3-GPU-Architektur, die Ihnen vielleicht schon von der früheren Panther Lake-Ankündigung bekannt ist, aber es wird auch eine spezielle, auf die Leistung abgestimmte Version dieser Architektur, Xe3P, verwendet, die besser auf die Bedürfnisse von KI-Beschleunigern abgestimmt ist. Der neue KI-Beschleuniger wird eine breite Palette von Datentypen unterstützen, die sowohl für Abzugsprozesse als auch in der Infrastruktur von Cloud-Anbietern wichtig sind, aber es wurde nicht bekannt gegeben, wie viel Rechenleistung die neue Innovation für verschiedene Datentypen liefern kann.
Die Pressemitteilung liefert jedoch einige interessante Details, die eine ungefähre Vorstellung davon vermitteln, mit welcher Art von KI-Beschleuniger wir es zu tun haben. Die GPU oder GPUs werden von insgesamt 160 GB LPDDR5X On-Board-Speicher begleitet, was auf der Grundlage der aktuellen Marktoptionen bedeuten könnte, dass insgesamt 20 Speicherchips verwendet werden, um einen dieser KI-Beschleuniger zu bauen. Jeder LPDDR5X-On-Board-Speicher enthält zwei 16-Bit-Speicherdatenchips, und die maximal verfügbare Speicherkapazität beträgt 32 GB, d. h. 8 GB, was bedeutet, dass mindestens 20 Speicherchips erforderlich wären, um die 16-GB-Kapazität zu erreichen.
Es bleibt abzuwarten, welches Speichersubsystem der neue KI-Beschleuniger genau verwenden wird, da die 20 LPDDR5X-Speicherchips insgesamt 640-Bit-Speicheradressraum benötigen, da es keine Möglichkeit gibt, die Speicherchips im Butterfly-Modus wie GDDR6 und GDDR7 mit dem Speichercontroller zu verbinden, was bedeutet, dass es nicht möglich ist, die 20 Speicherchips mit einem einzigen 320-Bit-Speicheradressraum zu verbinden. In diesem Fall gibt es zwei Möglichkeiten: entweder eine massive KI-GPU mit 640-Bit-Speicheradressraum oder zwei GPUs mit je 320-Bit-Speicheradressraum auf der Beschleunigerkarte, an die jeweils 10-10 Speicherchips angeschlossen sind.in
Es ist auch ein Rätsel, wie spezialisiert die GPUs auf der neuen KI-Beschleunigerkarte sind, d. h. ob sie nur für Deduktionsaufgaben verwendet werden können oder ob sie als klassische GPUs verschiedene Inhalte rendern können. Diese und alle anderen noch offenen Fragen werden in nicht allzu ferner Zukunft beantwortet werden.
Die energie- und kosteneffizienten Beschleunigerkarten werden in luftgekühlten Rechenzentren untergebracht, und die ersten Muster sollen bereits in der zweiten Jahreshälfte 2026 ausgeliefert werden, aber es ist noch nicht bekannt, wann die fertigen Einheiten erhältlich sein werden. Zu den Preisen gibt es noch keine Angaben.