Schon seit einiger Zeit wird gemunkelt, dass Microsofts Copilot, ein KI-basierter Dienst, der derzeit in der Cloud läuft, bald als lokal laufender Dienst auf Windows-Systemen verfügbar sein wird. Damit Copilot mit ausreichender Leistung arbeiten kann, geht Microsoft anscheinend bis an die Grenzen, was bedeutet, dass die neuronale Verarbeitungseinheit (NPU) im System eine Rechenleistung von mindestens 40 TOP/s haben muss, was die SoCs der nächsten Generation bereits erreichen können werden. Im Moment kann nur der Snapdragon X Elite von Qualcomm dieses Niveau an KI-Leistung bieten, aber ähnliche Lösungen werden von Intel und AMD eingeführt werden.
Auch die Anforderungen, die jedes System erfüllen muss, um sich für die KI-PC-Kategorie zu qualifizieren, zeichnen sich bereits ab. Nach den von Intel und Microsoft aufgestellten Anforderungen muss ein KI-PC über eine NPU, eine CPU, eine GPU, einen Microsoft Copilot-Assistenten und eine spezielle Copilot-Taste auf der Tastatur verfügen. Letzteres wird für die nächste Generation von Notebooks und kompletten PC-Konfigurationen relativ leicht zu erfüllen sein, da neue Produkte standardmäßig mit der Copilot-Taste ausgestattet werden können und mit NPUs ausgestattete SoC-Einheiten und Prozessoren immer häufiger werden. Vertreter der ersten Welle der KI-PC-Kategorie werden bereits von PC-Anbietern ausgeliefert, aber die für den lokalen Betrieb von Copilot erforderliche Rechenleistung von 40 TOP/s wird noch nicht von allen Systemen erreicht. Die Tatsache, dass Copilot speziell auf lokaler Hardware und nicht über die Cloud läuft, hat mehrere Vorteile. Erstens kann es die Latenzzeit verringern, die Leistung verbessern und die Daten effektiver schützen.
Was die Leistung angeht, so können wir feststellen, dass die NPUs der Meteor Lake SoC-Einheiten 10 TOP/s erreichen, während AMDs RYZEN Phoenix und Hawk Point APU-Einheiten 10 TOP/s bzw. 16 TOP/s erreichen. Der Qualcomm Snapdragon X Elite wird sich in diesem Bereich mit einer Rechenleistung von 45 TOP/s laut Hersteller von der Masse abheben.
Da das Ziel darin besteht, das bestmögliche Nutzererlebnis zu erreichen, wird Copilot von der NPU und nicht von der GPU angetrieben, was bei mobilen Konfigurationen zu einer extremen Verkürzung der Akkulaufzeit führen würde. Die Verwendung der NPU ist auch deshalb wichtig, weil sie bedeutet, dass weder die CPU noch die GPU für KI-Aufgaben zusätzlich belastet werden, sie können für andere Aufgaben verwendet werden und die NPU kann sich um den Bereich kümmern, in dem sie mit ihrer besten Leistung und Energieeffizienz arbeitet.
Um das Potenzial der NPU auszuschöpfen, bedarf es natürlich auch einer angemessenen Softwareunterstützung, was einen ausreichend großen Markt für die Hardwareklasse voraussetzt. Da Intel plant, bis 2025 100 Millionen KI-PCs auszuliefern, werden Entwickler das neue Segment wahrscheinlich attraktiv genug finden, um KI-Anwendungen zu entwickeln, die sich auf die NPU stützen, um ein neues Benutzererlebnis, eine verbesserte Leistung und neue Funktionen zu bieten. Laut Intel denken 65 % der Entwickler über die OpenVino-Plattform des Unternehmens nach, was bedeutet, dass die von ihnen entwickelten Anwendungen speziell für Intel-Hardware optimiert sind. Der Rest der Entwickler nutzt ONNX, DirectML und WebNN, um KI-basierte Funktionen in ihre Anwendungen zu integrieren, was das Intel-Team natürlich freut, da es die Verbreitung von KI fördert.
Microsoft Copilot selbst arbeitet mit DirectML, unabhängig von der NPU des jeweiligen Herstellers. Der KI-basierte Assistent wird natürlich umso besser laufen, je leistungsfähiger die NPU ist, auf die er Zugriff hat, und das wird auch bei den meisten anderen Anwendungen der Fall sein, und die Leistung der NPUs in den SoC-Einheiten wird immer wichtiger werden. Dies wird sich natürlich auch im Marketing widerspiegeln: Einige Anbieter werden die Leistung der NPU hervorheben, solange sie besser ist als die ihrer Konkurrenten.