In den letzten Januartagen wurde die RTX 50-Serie offiziell vorgestellt. Zwei Jahre nach der Einführung der 40er-Serie können wir endlich sehen, was die NVIDIA-Ingenieure für das PC-Publikum ausgeheckt haben. Die Blackwell-Architektur wird die Ada Lovelace-Architektur ablösen, die den Weg für die Gaming-Industrie und Gamer vorgegeben hat. Kurz gesagt geht es immer noch um Raytracing, aber vielleicht mehr um KI-basierte Lösungen, Skalierung und jetzt ganz klar um Frame-Generierung. Verfahren, denn parallel dazu entwickelt AMD, das sich aus dem Spitzenbereich zurückzieht, seine eigenen Alternativen, die nicht überraschend hinter dem Marktführer zurückbleiben.
Wie üblich debütierte die neue Generation mit zwei Top-Karten, der brutal teuren RTX 5090, die nur für eine kleine Gruppe von Leuten verfügbar ist, und der RTX 5080, die immer noch nicht billig ist, aber im Wesentlichen die Hälfte des Preises ist. Von letzterer wird erwartet, dass sie ein etwas größeres Publikum hat, und schließlich ist eine von ihnen hier gelandet, mit freundlicher Genehmigung von PALIT, so dass wir uns selbst ein Bild davon machen können, was wir bereits über sie in einigen Tests wissen. Unter anderem können wir feststellen, dass es sich bei den Grundlagen nicht wirklich um eine neue Architektur oder größere Änderungen handelt, sondern eher um eine aktualisierte, verbesserte Version der vorherigen Generation, die in vielerlei Hinsicht als identisch angesehen werden kann.
Die für den Test zur Verfügung gestellte PALIT GameRock Fantasiekarte ist ebenfalls interessant, da sie typisch für einen Hersteller ist, der gezeigt hat, dass er in der Lage ist, die Erwartungen der Benutzer an einen bestimmten Kartentyp zu erfüllen, aber zu einem niedrigeren Preis als die so genannten Top-End-Partner von NVIDIA. Dies kann daher für diejenigen wichtig sein, die nicht unbedingt einen erheblichen Aufpreis zahlen würden, nur um z. B. eine Asus ROG-Karte zu besitzen, die oft keinen praktischen Vorteil in Bezug auf die Gesamtleistung für den Benutzer bietet. Und wenn wir die Unterschiede allein an den ästhetischen Unterschieden messen, bleibt eine Karte übrig, die hinter einem schicken Design funktioniert, also schauen wir mal, was Gamer, die nach High-End-Gaming hungern, erwarten können.
Specifikációk (GameRock OC)
GPU | GB203-400-A1 |
Architektur | Blackwell 2.0, TSMC 4N (5 nm) |
Takt | 2295 MHz |
Boost-Takt | 2730 MHz |
CUDA | 10752 |
RT | 84 (4. Generation) |
Tensor | 336 (5. Generation) |
Speicher | 16GB GDDR7, 960 GB/s, 256-bit |
Schnittstelle | PCI-E 5.0 |
Ausgänge | DisplayPort 1.0b x 3, HDMI 2.1b x 1 |
Leistungsaufnahme | 360W, empfohlenes 850W-Netzteil |
Steckdose | 16-polig x1 |
Abmessungen | 331,9 x 150 x 70,4 mm (3,5 Steckplatz) |
Extras | Zweifach-BIOS |
Zubehör | Netzadapter (3 x 8-polig), Mauspad, VGA-Halter |
Offizieller Listenpreis (empfohlener Preis) | Basismodell: $999 |
Was ist im Lieferumfang enthalten?
Bevor wir einen Blick auf NVIDIAs neuesten Zuwachs und seine Gaming-Fähigkeiten werfen, müssen wir einen Blick auf das Design des PALIT GameRock werfen, das, wie auch immer man es betrachtet, das Gegenteil von unauffällig ist. Der Hersteller hat auch eine 5090-Karte für die GameRock-Serie produziert, und die Karten sind im Wesentlichen identisch im Aussehen, einschließlich der beiden OC-Modelle, von denen wir eines ergattern konnten.
Beim Öffnen des Kartons wurde ich mit einem kleinen Leckerbissen begrüßt, da ein wirklich kleines Mauspad in der Verpackung enthalten war, das von sehr guter Qualität zu sein scheint. Es ersetzt zwar nicht unbedingt die durchschnittlichen Mauspads, die den Schreibtisch bedecken, aber es ist schön zu sehen, dass ein Hersteller etwas Zusätzliches anbietet.
NVIDIA hat die beiden neuen Karten ab Werk mit eigenen Kühlern ausgestattet, die bei der offiziellen Vorstellung als solide Größe für ihre Klasse vorgestellt wurden. Das ist natürlich alles relativ, aber die Kühler wurden in der Tat etwas umgestaltet, wodurch sie etwas schlanker aussehen als die 40er-Serie mit zwei Jahrhunderten. Im Vergleich dazu ist GameRock auf Nummer sicher gegangen und hat sich für einen Kühler entschieden, der etwa 2 Zoll länger und fast eineinhalb Zoll dicker ist als die Founder Edition, einschließlich des ziemlich einzigartigen Stils des Kunststoffgehäuses.
Und was für ein Gehäuse! Wenn Sie ein Fan der RGB-Farbpalette sind, haben Sie mit der PALIT-Karte den Jackpot geknackt, denn das ist das stärkste, möglicherweise am meisten teilbare Merkmal der Karte, eine Frage des Geschmacks. Ich ziehe es zwar immer noch vor, auf den minimalistischen Zug aufzuspringen, aber ich kann dem Hersteller nicht vorwerfen, dass er die Optik und die Lichtorgie maximiert hat. Im Gegensatz zu den dezenten LED-Streifen, die entlang der dezenteren Style-Karten verlaufen, oder den punktuell flackernden Lichtquellen, versprüht die Abdeckplatte, die die Lüftungsschlitze einrahmt, hier fast über die gesamte Fläche Farbe. Dies hätte vielleicht nur durch die Verwendung von LED-Luftschleiern anstelle der kontrastierenden schwarzen Rotoren noch verstärkt werden können.
Im inaktiven Zustand kann die Vorderseite der Karte ein wenig banal aussehen und der Rahmen selbst entspricht nicht dem Standard eines seriösen MSI- oder ASUS-Produkts, aber wenn er eingeschaltet ist, verbreitet er das Licht recht ansprechend. Das optische Erlebnis wird durch einen Kunststoffeinsatz mit geriffelter Oberfläche und durchscheinendem Finish verstärkt, der den Effekt des pulsierenden Lichtclusters der RGB-Palette auf wirklich spektakuläre Weise verstärkt. Die Lösung hat sogar einen schicken Namen, Chameleon Panel, und sie bricht das Licht je nach Betrachtungswinkel in verschiedenen Schattierungen. Es gibt auch eine spiegelnde Oberfläche, die deutlich mit Fingerabdrücken versehen ist, aber nach der Installation sollte das kein Problem sein, und man sollte darauf achten, sie nicht zu zerkratzen, was bei PC-Komponenten passieren kann.
Die Rückseite ist viel traditioneller, mit einer dunkelgrauen gebürsteten Metallplatte, die dem neuesten Designtrend folgt, mit einer großen Aussparung für eine bessere Belüftung, die über das PCB hinausragt. In einer Hinsicht folgt es jedoch nicht dem Trend der Zeit, denn die drei Lüftungsöffnungen werden nicht durch eine vierte ergänzt, die in die Rückwand eingelassen ist, wie wir es bei alternativen Lösungen anderer Hersteller gesehen haben. Im Großen und Ganzen ist dies kein großer Nachteil, es kann uns ein paar dB in Bezug auf die Geräuschentwicklung ersparen und wir müssen uns wahrscheinlich keine Sorgen über eine Überhitzung der Karte machen.
Wie ich bereits erwähnt habe, ist die GameRock ein ziemlich massives Exemplar, aber in dieser Hinsicht steht sie bereits auf einer Stufe mit den drakonischeren Karten von ASUS, die eine lange Tradition von als Panzer getarnten VGAs haben. Glücklicherweise sieht das Ganze nicht wie ein Basar-Gimmick aus, denn die Vapour Chamber-Lösung trifft nicht nur die GPU, sondern auch den VRAM, was ein gutes Zeichen ist, wenn man sich Sorgen um die Lebensdauer macht. Sicher ist, dass sie einen sehr einzigartigen Look hat, diese Karte ist für ein vertikales Layout konzipiert, und es besteht eine gute Chance, dass ihre Chamäleon-genannte Oberfläche aus dem Boden vieler Gehäuse herausschaut.
Abschließend noch ein paar Worte zu den Anschlüssen. Um das gesamte RGB-Erlebnis zu maximieren, gibt es einen ARGB-Anschluss, so dass Sie ihn mit dem Rest des Geräts synchronisieren oder ihm benutzerdefinierte Beleuchtungsmodi zuweisen können, wofür der Hersteller die ThunderMaster-Software empfiehlt. Darüber hinaus sind sowohl die Basisversion als auch das OC-Modell mit Dual-BIOS-Schaltern ausgestattet, und die Einstellungen ermöglichen standardmäßig den Wechsel zwischen einem leistungsorientierten und einem leisen Modus. Das I/O-Panel wird von einem Gitter geschützt, das an einen Bienenstock erinnert, und verfügt über insgesamt drei DisplayPort 2.1b- und einen HDMI 2.1b-Ausgang. Der überarbeitete DP, der den 1.4 ablöst, ist eine mit Spannung erwartete Innovation der nächsten Generation, die Besitzer von Gaming-Displays begeistern wird, die eine hohe Auflösung mit extremer Bildwiederholung kombinieren. 4K 480 Hz ist nun eine Option, ebenso wie 8K 120 Hz, obwohl ein solches Display in den heutigen Haushalten wahrscheinlich noch seltener zu finden sein wird.
Ebenfalls erwähnenswert ist der Stromanschluss, bei dem es sich um eine modernere 12+4-Pin-Lösung handelt und nicht um den Standard 8-Pin-Header, aber glücklicherweise wurde ein Adapter beigelegt, sodass Besitzer von weniger aktuellen Netzteilen 3 x 8-Pin benötigen. Im Gegensatz zum NVIDIA-Basismodell ist das vom Hersteller empfohlene Netzteil 850W statt 750W, und ich habe ein bewährtes 1200W Be Quiet! 11 Platinum-Netzteil. Das bedeutet natürlich nicht, dass man nicht auch mit einem Gerät mit bescheideneren Fähigkeiten beginnen kann, aber freie Kapazitäten sind für einen PC aus einer Reihe von Gründen wichtig. Mein System hat zum Beispiel nicht so viel Leistung benötigt, dass ich mit einem niedrigeren Netzteil sicher gegen eine Wand stoßen würde, was bedeuten könnte, dass das 5080 nicht sofort einen Wechsel des Netzteils erforderlich machen würde.
Hohe Leistung in einer Nussschale
Diese Tests sollen vor allem das allgemeine Benutzererlebnis demonstrieren, aber es lohnt sich, einen Blick darauf zu werfen, was NVIDIA in unserem Land für mindestens 600 Tausend Forint anbietet, wo die 5080-Modelle beginnen, wenn sie überhaupt erhältlich sind. Zunächst einmal hat es keine Fortschritte in der Fertigungstechnologie gegeben, die Struktur der Blackwell-Chips ist größtenteils die gleiche wie bei Lovelace, und auf jeden Fall laufen die frischen Chips immer noch von den 5-Nanometer-TSMC-4N-Produktionslinien. Kurz gesagt, sie haben die Anzahl der Transistoren erhöht, mit einem entsprechenden Anstieg des Stromverbrauchs, und das KI-Segment, das derzeit das Gesicht von NVIDA ist, hat wichtige Innovationen erhalten.
Selbst bei der Enthüllung der Karte wurde kaum von der reinen Leistung und den Verbesserungen bei der traditionellen Rasterung oder der gesteigerten Effizienz gesprochen, wobei das KI-Akronym den größten Teil der Präsentation dominierte. Der Hersteller scheint seine gesamte Engineering- und Marketingkapazität in KI-bezogene Methoden und Entwicklungen zu investieren, obwohl in seinem Fall schon seit einiger Zeit keine Frage mehr über den Weg besteht, den er für sich und seine Konkurrenten auf dem Markt zu beschreiten gedenkt. Für den normalen Gamer ist dies vor allem im Hinblick auf die Skalierungs- und Frame-Generierungstechniken relevant, denn was die Karte mit roher Gewalt nicht schafft, versucht sie mit KI auszugleichen.
Natürlich wurde auch das Raytracing verbessert, was ebenfalls auf der Liste der berechtigten Erwartungen an eine RTX-Produktreihe steht. Diese Verbesserung wird in den Blackwell-Karten durch die RT-Kerne der vierten Generation repräsentiert, und es ist vielleicht erwähnenswert, dass Mega Geometry es ermöglicht, dass mit Raytracing produzierte Frames eine höhere Polygonanzahl haben. Auf dem Papier sehen wir eine ähnliche GPU wie die RTX 4080-Karten, jetzt mit GDDR7-Speicherunterstützung, aber immer noch mit 256-Bit-Busbreite, die den Bedürfnissen von KI-Operationen gut dient und auf dem Papier eine Leistungssteigerung von etwa 34 % gegenüber GDDR6X darstellt. Es ist eine Schande, dass dies nur 16 GB Kapazität sind, was wiederum marginal erscheint, wenn man moderne Spiele in 4K spielt.
DLSS 4 und Multi Frame Generation
Die Blackwell-Generation bringt eine verbesserte Version der KI-generierten Frames mit sich, die in unterstützten Spielen bis zu 3x so viele künstliche Frames liefern kann wie die vorherige Version. Interessant ist, dass NVIDIA die Wartezeit in Kauf genommen hat und das Upgrade auch für frühere RTX-Generationen zur Verfügung stellt, was für diejenigen, denen in immer leistungsintensiveren Spielen die fps ausgingen, kein kleiner Schritt nach vorne ist. Hinzu kommt die Einführung des neuen Transformer-Modells neben dem bereits bekannten CNN (Convolutional Neural Network), das beim Upscaling von niedrigeren Auflösungen bei gleicher Leistung ein detaillierteres Endergebnis liefern soll. In der Praxis war der Unterschied für mich nicht sehr auffällig, aber es ist gut, zu experimentieren, um eine bessere Sicht zu erhalten.
Für das durchschnittliche Gamer-Auge ist es immer noch schwer, diese Verbesserung zu sehen, aber mit der Vervielfachung der generierten Frames ist das Endergebnis immer noch nicht unbedingt perfekt. Abgesehen von gelegentlichen Geisterbildern oder Nachzieheffekten ist die Technologie immer noch nicht in der Lage, perfekt vorherzusagen, welche Details als nächstes kommen. Und bei der Erstellung einer bewegten Szene können Unvollkommenheiten und visuelle Verzerrungen störend wirken. Natürlich wird dies nicht für alle Benutzer ein Problem sein, und größtenteils war es für mich nicht sehr auffällig, aber ich habe bemerkt, dass bei plötzlichen Bewegungen einige Details des Bildes verschwommen waren. Je mehr zusätzliche Bilder Sie wünschen, desto wahrscheinlicher ist es, dass es zu Fehlern kommt.
Ebenso sollte man bedenken, dass das Endergebnis umso schwächer ausfällt, je weniger traditionell geformte Frames man zur Verfügung hat, da die Interpolation auf weniger Daten basiert. Die Reaktionszeit und die Zeit zwischen den Frames sind ebenfalls ausschlaggebend für das Spielerlebnis. Wenn Sie also eine niedrige Basisleistung, d. h. niedrige fps, haben, wird Frame Generation nur den Wert erhöhen, den Sie auf Ihrem fps-Zähler sehen, das Spiel wird weder reaktionsschneller noch flüssiger sein. Anders sieht es aus, wenn Sie mindestens 60 fps aus dem Spiel oder der Karte herausholen können, dann ist das Endergebnis genauer und das Spielerlebnis flüssiger, aber in vielen Fällen leistet die Generierungsfunktion nicht ganz das, was Sie brauchen.
Testumgebung
Die zur Verfügung stehende Maschine basiert auf AMD mit DDR5-Speicher und, wie oben erwähnt, einem 1200 Watt be quiet! 11 Platinum-Netzteil ausgestattet, um eine stabile Stromversorgung zu gewährleisten. Letzteres bereitete offensichtlich keine Probleme, so dass es keine Rolle spielte, dass die Karte die von NVIDIA angekündigte 360-Watt-Stromverbrauchsgrenze überschritt und in den 370-Watt-Bereich fiel. Das ist ein ziemlicher Appetit, selbst für eine so wuchtige Karte, die 4080 zum Beispiel verbrauchte rund 320 Watt, so viel zur guten alten Effizienz. Natürlich hat sich das Top-End in diesem Bereich schon lange nicht mehr verbessert, also gewöhnt sich jeder an die Tatsache, dass das Top-End frisst, als gäbe es kein Morgen. Man bedenke, dass der 5090er rund 575 W verbrauchen soll, aber in der Praxis haben wir von noch brutaleren Zahlen gehört, und im Vergleich dazu war er eigentlich recht freundlich.
Benchmark
Überlagerung | Auflösung | Ergebnis | FPS (Minimum / Durchschnitt / Maximum) |
1080P Extrem | 19610 | 117 / 146 / 195 | |
4K (Optimiert) | 27662 | 161 / 206 / 258 | |
3D-Markierung | Feuerschlag | 50 495 | |
Zeitspion | 26 981 | ||
Königlicher Hafen | 22 864 | ||
Blender | Monster | 4475.935701 | |
Schrottplatz | 2346.764603 | ||
Klassenzimmer | 2268.431820 |
Die auf etwa 20 Grad Celsius eingestellte Büroumgebung war ideal für den Hitzetest, obwohl die Hardware statt in einem geschlossenen Maschinengehäuse in einem offenen Tischgestell ohne kontrollierte Luftzufuhr arbeitete, was anders ist als bei den meisten PCs zu Hause. Trotzdem ist eine Temperatur zwischen 60 und 66 °C ein erstaunlich guter Wert, und ich habe selbst unter den stressigsten Bedingungen keine höheren Werte gemessen. Ich bin mir sicher, dass die GPU-Temperatur selbst in einem geschlossenen Gehäuse bei etwa 70 °C liegen sollte, was sowohl NVIDIA als auch PALITs Kühllösung zu verdanken ist. Zum Schluss noch ein guter Punkt, den ich gerne hervorheben möchte.
CyberPunk 2077
Auflösung | Grafiken | FPS MIN/AVG/MAX DLSS /RTX AUS | FPS MIN/AVG/MAX DLSS AN /RTX AUS | FPS MIN/AVG/MAX DLSS ON /RTX OFF / FG 4X! | FPS MIN/AVG/MAX DLSS ON /RTX OFF / FG 2X! | FPS MIN/AVG/MAX DLSS OFF /RTX ON + PT OFF | FPS MIN/AVG/MAX DLSS OFF /RTX ON + PT ON / FPS MIN/AVG/MAX DLSS OFF /RTX ON + PT ON | FPS MIN/AVG/MAX DLSS EIN /RTX EIN + PT EIN / FG 4X | FPS MIN/AVG/MAX DLSS EIN /RTX EIN + PT EIN / FG 2X | FPS MIN/AVG/MAX DLSS ON /RTX ON + PT ON |
3840x2160 | Max (DLSS-Qualität) | 62/ 76 /96 | 77/ 87 /108 | 225/ 247 /289 | 134/ 148 /178 | 29/ 33 /41 | 16/ 20 /25 | 117/ 134 /150 | 65/ 73 /82 | 35/ 39/ 44 |
2560x1440 | Max (DLSS-Qualität) | 124/ 154 /196 | 125/ 168 /210 | 379/ 424 /483 | 226/ 259 /303 | 61/ 68 /80 | 25/ 42 /49 | 215/ 235 /256 | 118/ 130 /142 | 68/ 75 /84 |
Ich habe die Karte nicht mit dem Pre-Release-Beta-Treiber verwendet, sondern mit dem ersten offiziellen "Game Ready"-Treiber Version 572.16, über den ich mehr sagen kann, aber leider reicht es nicht aus, um zu sagen, dass alles stabil war. Denn er war nicht stabil, zumindest bin ich auf Probleme gestoßen, die speziell das stabile Ausführen von Spielen behinderten. Wie sich herausstellt, ist dies kein Einzelfall, mehrere frühe Kunden und Tester haben Anomalien erlebt, so dass ich zumindest erleichtert bin, dass ich die Ursache des Problems nicht unbedingt in anderer Hardware suchen muss.
Alan Wake 2
Grafiken | FPS MIN/AVG/MAX DLSS /RTX AUS | FPS MIN/AVG/MAX DLSS AUS /RTX + PT AUF HOCH | FPS MIN/AVG/MAX DLSS AUS /RTX + PT AUF ULTRA | FPS MIN/AVG/MAX DLSS AUS /RTX EIN | FPS MIN/AVG/MAX DLSS AN /RTX AN | FPS MIN/AVG/MAX DLSS AN /RTX + PT AN | FPS MIN/AVG/MAX DLSS AN /RTX + PT AN / FG 2X | FPS MIN/AVG/MAX DLSS AN /RTX + PT AN / FG 4X | |
3840x2160 | Maximal | 50/ 63 /230 | 23/ 30 /188 | 20/ 27 /188 | 30/ 37 /214 | 53/ 64 /231 | 37/ 48 /218 | 47/ 81 /172 | 51/ 135 /241 |
Leider trat während der Tests ein seltsames Phänomen auf, das dazu führte, dass ich nur die 4K-Tests von Alan Wake 2 durchführen konnte. Ich wäre von höheren Auflösungen heruntergegangen, aber es trat ein verwirrender Fehler auf, der verhinderte, dass ich Raytracing-Tests oder überhaupt Tests mit 1440p durchführen konnte. Das Problem trat auf, als ich versuchte, die Grafikeinstellungen zwischen den Tests zu ändern, Ray Tracing ein- und auszuschalten und das fortgeschrittenere, aber ressourcenintensivere Path Tracing zu aktivieren. Mehr als einmal musste ich feststellen, dass beim Umschalten auf Path Tracing das Bild stotterte, die fps auf ein unverständliches Niveau sanken und dem Rhythmus der Diashow das Spulenheulen (ein höherfrequentes Summgeräusch) folgte, das ein regelmäßiger Gast war und auch in diesem Fall auftrat.
Indiana Jones
Auflösung | Grafik | FPS MIN/AVG/MAX DLSS /RTX AUS | FPS MIN/AVG/MAX DLSS AUS /RTX + PT AN | FPS MIN/AVG/MAX DLSS LINKS / RTX PT AN | FPS MIN/AVG/MAX DLSS EIN /RTX PT EIN / FG EIN |
3840x2160 | Maximal | 87/ 96 /115 | 22/ 25 /32 | 45/ 51 /64 | 74/ 81 /95 |
2560x1440 | Maximal | 123/ 141 /180 | 39/ 44 /51 | 64/ 72 /85 | 94/ 103/ 85 |
Das Phänomen des mit dem Spiel flackernden Spulenheulens deutete darauf hin, dass die Karte den Geist aufgegeben hatte und nicht mehr funktionierte, und auch der Cursor ließ sich nicht mehr steuern, was dazu führte, dass das Spiel einfror oder ausgeworfen wurde. Mehr als einmal habe ich das Spiel auf eine niedrigere Einstellung zurückgesetzt, aber die fps und die Leistung spiegelten dies nicht wider, obwohl ich die Änderung gespeichert hatte. Das passierte auch bei Indiana Jones, aber nach einigen Verzögerungen und Neustarts war es bereit, sich zu bewegen, so dass ich das Spiel in mehreren Auflösungen mit verschiedenen Einstellungen ansehen konnte. Old Alan hingegen hatte nicht so viel Glück, ich konnte die 1440p-Versuche nicht durchführen, ich habe nur 4K-Zahlen.
Doom Eternal
Auflösung | Grafik | FPS MIN/AVG/MAX DLSS /RTX AUS | FPS MIN/AVG/MAX DLSS AUS /RTX + AN | FPS MIN/AVG/MAX DLSS / RTX AN |
3840x2160 | Maximal | 214/ 316 /599 | 143/ 195 /451 | 181/ 240 /414 |
2560x1440 | Maximal | 333/ 462 /797 | 231/ 296 /587 | 277/ 339 /610 |
In Spielen habe ich immer die höchsten verfügbaren Grafikeinstellungen verwendet, aber in einigen Fällen habe ich statt Qualität auf Ausgewogene DLSS gewechselt.
STALKER 2 (RT!)
Auflösung | Grafik | FPS MIN/AVG/MAX DLSS AUS | FPS MIN/AVG/MAX DLSS AN | FPS MIN/AVG/MAX DLSS ONN / FG ON |
3840x2160 | Maximal | 39/ 55 /75 | 64/ 84 /118 | 99/ 120 /157 |
2560x1440 | Maximal | 68/ 93 /134 | 78/ 116 /174 | 137/ 193 /266 |
Das Gesamtergebnis ist, dass wir bei einer 1440p-Auflösung eine Verbesserung von etwa 10 Prozent erhalten, während wir bei einer 4K-Auflösung eine Verbesserung von etwa 20 Prozent im Vergleich zur Basis-RTX 4080 erhalten, während wir mit einer 4080 SUPER eine Verbesserung von etwa der Hälfte davon erhalten. Wie auch immer man es betrachtet, es scheint eher ein Upgrade innerhalb der Generation zu sein als eine Spitzenkarte der neuesten Serie. Das soll nicht heißen, dass Besitzer sehr veralteter Karten oder diejenigen, die einen neuen PC kaufen, keine erstaunliche Leistung erhalten, sondern eher, dass dieses Angebot von NVIDIA in Bezug auf das Preis-Leistungs-Verhältnis nicht annähernd so eine gute Investition ist, wie wir erwartet haben.
Counter-Strike 2
Auflösung | Grafik | FPS AVG |
3840x2160 | Mittel | 382 |
3840x2160 | Niedrig | 461 |
2560x1440 | Mittel | 567 |
2560x1440 | Niedrig | 664 |
1920x1080 | Mittel | 657 |
1920x1080 | Niedrig | 763 |
Brauche ich das?
Die RTX 5080 ist ein eher durchwachsenes Bild, und vielleicht habe ich mich etwas zu vorsichtig ausgedrückt. Zwar bietet sie in vielen Fällen eine spürbar bessere Leistung als eine RTX 4080 und 4080 SUPER, aber leider nicht in allen Fällen und nicht in dem Ausmaß, auf das der Hersteller zu Recht stolz sein kann. Einerseits ist dies auch auf das Treiberproblem zurückzuführen, das mit den kommenden Updates sicherlich behoben wird, so dass sich die Karte ein wenig finden kann, aber das Gesamtbild ist immer noch recht gedämpft. Aber solange wir über einen "Game Ready"-Treiber sprechen, ist es nicht so, dass wir nicht an ähnliche Situationen gewöhnt sind, aber es ist immer noch ein Ärgernis, dass Gamer, die Zugang zum ersten Satz teurer Karten haben, ernsthafte Bugs und Fehler erleben, die Instabilität oder sogar beängstigende Phänomene verursachen, die die ganze Maschine betreffen.
Tatsache ist, dass NVIDIA offenbar den traditionellen, auf Rendering basierenden Ansatz aufgeben möchte und sich auf eine neue, trendige und für das Unternehmen derzeit viel profitablere KI-Technologie zubewegt. Wir haben schon früher schlampige Generationswechsel von ihnen gesehen, aber zumindest haben sie jetzt etwas, das sie zur Verteidigung ihrer halbgaren neuen Serie aufführen können, auch wenn es kein großer Trost für die Öffentlichkeit ist, die auf eine Spitzenkarte im klassischen Sinne wartet. Der Gelegenheitsspieler mag zu Recht das Gefühl haben, dass der marktführende GPU-Hersteller immer weniger auf seine wirklichen Bedürfnisse eingeht und ihn zwingt, mit dem Strom zu schwimmen, wenn er ein erstklassiges PC-Spielerlebnis haben möchte. In diesem Segment sollte es nicht um Kompromisse gehen, aber es ist klar, dass die Hardware der Spitzenklasse mit ihrer hohen Leistung oft nicht ausreicht, um das volle visuelle Erlebnis und die Geschwindigkeit zu liefern.
Natürlich darf man die verbesserte DLSS- und Frame-Generierung nicht vergessen, die wirklich helfen, die knappe Anzahl der nativ gerenderten Frames zu kompensieren. Es ist jedoch traurig zu sehen, dass Spieleentwickler mit den ressourcenintensiven Technologien aktueller Game-Engines, die Konsolen und PCs gleichermaßen stark belasten, nicht zurechtkommen. Die Zeiten skalierbarer Engines und cleverer Entwicklerlösungen scheinen vorbei zu sein, und die marktführende Unreal 5-Engine scheint zumindest ein großer Bissen für die Branche zu sein. Während Crysis die Maschinen seiner Zeit zum Frühstück verspeiste, diente es in der Tat als visueller und technologischer Maßstab für die kommenden Jahre, während idTech und Unreal beide zeigten, wie etwas aussehen und gleichzeitig auf unterschiedlicher Hardware gut laufen kann.
Dieser Test ist also in erster Linie für NVIDIA und die 5080 gedacht, und nicht für PALIT, die eine ziemlich leise und coole Karte in ein unkonventionelles Design gepackt haben. Für Hersteller, die in der Premium-Liga spielen, ist sie ein preiswerteres Angebot und steht den viel teureren Editionen in Sachen Leistung in nichts nach. Und wenn Sie RGB-Optionen mögen, werden Sie mit einer RTX 5080 auf Ihre Kosten kommen. Für meinen Teil geht das Lob für das Design an PALIT und dieses spezielle Produkt, obwohl es erwähnenswert ist, dass die Coolness nicht in erster Linie ihr Verdienst ist, NVIDIA kann schließlich in diesem Punkt gelobt werden.
Abgesehen von den Verbesserungen für KI-Sammler muss sich der durchschnittliche Gamer dieses Mal mit Upscaling und generierten Frames begnügen, die nicht immer ein Ersatz für rohe Leistung sind. Für diejenigen, die Spiele spielen wollen und zuvor aus dem oberen Regal der RTX 40-Serie gewählt haben, scheint die Ausgabe also nicht gerechtfertigt zu sein, und für Nvidia freuen wir uns definitiv auf die 5070-Linie, da sie beim letzten Mal das beste Preis-Leistungs-Verhältnis bot, für das ich dieser Karte leider kein Preisschild geben kann. Die Leistung der RTX 5080 ist natürlich in Ordnung, aber für diejenigen, die im VGA-Bereich mehrere Generationen hinterherhinken und auf keinen Fall eine schwächere Karte in ihrem Rechner haben wollen, würde ich trotzdem empfehlen, noch ein wenig zu warten, nicht dass die neue RTX 50-Serie zum Zeitpunkt des Schreibens so leicht verfügbar ist. Neue Treiber werden kommen, die nicht nur die Instabilität, sondern auch die Leistung ein wenig verbessern könnten, und neue Karten von AMD sind am Horizont, die die Dinge wieder spannend machen könnten.