Nvidia ist derzeit das wertvollste Unternehmen der Welt, das als erstes die 5-Billionen-Dollar-Marke in Bezug auf die Marktkapitalisierung überschritten hat, und dies ist im Wesentlichen auf das KI-Fieber und ihre einzigartige Position im KI-Segment mit ihren proprietären KI-Beschleunigern zurückzuführen. Natürlich mussten sie, um erfolgreich zu sein, neben der Hardware auch ein abgerundetes Software-Ökosystem anbieten, das mit CUDA in vielen Bereichen viel Potenzial bietet - weshalb es so schwierig ist, eine wettbewerbsfähige Alternative zu ihren Produkten anzubieten, denn es reicht nicht aus, wettbewerbsfähige Hardware zu haben, man muss auch eine ausreichend vielseitige Softwareunterstützung haben.
Inmitten des KI-Fiebers ist Nvidia also in einer sehr guten Position, dank einer interessanten Geschichte. Bereits 2011 starteten Forscher an der Universität von Toronto ein Forschungsprojekt, um zu untersuchen, wie die Bilderkennung in Computer-Vision-basierten Anwendungen effizienter und effektiver gestaltet werden kann. Das Projekt wurde von Alex Krizhevsky, Geoffrey Hinton und Iya Sutseker geleitet, die bessere Methoden entwickeln wollten als die Algorithmen, die für jede Aufgabe manuell optimiert werden mussten, um Kanten, Ecken und Texturen in einem Bild zu erkennen. Neuronale Netze waren damals noch nicht verfügbar, so dass die Arbeit sehr mühsam war. Die Geschichte wurde von Jensen Huang von Nvidia in einem kürzlich erschienenen Podcast erzählt.
Die drei Forscher legten im Wesentlichen den Grundstein für Deep Learning, indem sie ein neuronales Netzwerk namens AlexNet entwickelten, das aus acht Schichten und etwa 60 Milliarden Parametern bestand. Seine eigentliche Einzigartigkeit war seine Fähigkeit, selbständig zu lernen, indem es Faltungsschichten und tiefe neuronale Netze kombinierte. Es war sehr erfolgreich und verbesserte die damals verfügbaren Bilderkennungsalgorithmen um 70 %, was natürlich das Interesse der Industrie weckte. AlexNet selbst lief auf einer Gamer-Konfiguration mit zwei GeForce GTX 580-Grafikkarten, die im SLI-Modus verbunden waren und die vollen Ressourcen beider Grafikprozessoren nutzten, aber nur dann Daten austauschten, wenn es unbedingt notwendig war, so dass die Trainingszeit erheblich verkürzt wurde. Mit diesem Schritt wurde die GeForce GTX 580 zur weltweit ersten Grafikkarte, die für KI-Aufgaben eingesetzt wurde, und das zu einer Zeit, als Nvidia noch kaum Interesse an den Möglichkeiten der KI hatte.
Diese Forschung sollte sich als Wendepunkt erweisen, da das Unternehmen, das damals 3D-Grafik und Spiele sowie CUDA entwickelte, Ressourcen für die Forschung und Entwicklung im Bereich Deep Learning bereitstellte, weil es erkannte, dass KI zur Lösung vieler Probleme beitragen würde. Außerdem erkannte man in der Forschung, dass die enorme parallele Rechenleistung der GPU von einem neuronalen Netzwerk stark profitieren könnte, und zu dieser Zeit gab es keine speziell für diese Arbeit optimierten Tensor-Kerne.
Das Ergebnis dieser Arbeit war der DGX-1 im Jahr 2016, ein Beschleuniger, der auf der Volta-Architektur aufbaut und Tensor-Kerne der ersten Generation sowie DLSS verwenden kann. Elon Musk war der erste, der dieses System in die Finger bekam, aber seitdem ist viel Wasser unter der Brücke, Nvidia ist zum Marktführer an der KI-Front geworden und sein goldenes Zeitalter ist immer noch im Gange, obwohl Marktanalysten begonnen haben, Alarm zu schlagen, da sie glauben, dass das aktuelle Entwicklungstempo auf lange Sicht nicht nachhaltig ist, aber das ist eine andere Geschichte.