Nvidias GM204 bietet einen bunten Strauß neuer Funktionen. Ehrlich gesagt ist es schon ziemlich lange her, dass wir eine Grafikkarte mit einer derart langen Feature-Liste auf dem Prüfstand hatten. Der Nutzen einiger dieser neuen Funktionen erschließt sich unmittelbar auf den ersten Blick, während andere sich wohl erst in der Zukunft fruchtbar machen lassen werden. Fangen wir also zunächst mit den Neuerungen an, die dem Anwender einen direkten Vorteil verschaffen.
Dynamic Super Resolution
Dynamic Super Resolution (DSR) ist eine neue Möglichkeit, um dem auch als Aliasing bekannten Treppenstufeneffekt an den Pixelkanten eines Objekts zu begegnen. Hinter der Bezeichnung verbirgt sich somit vor allem eine neue Anti-Aliasing-Methode.
Wer sich mit dieser Thematik bereits näher befasst hat, dem wird sicherlich die älteste, aber auch rechenintensivste Anti-Aliasing-Technik ein Begriff sein: Super-Sample Anti-Aliasing (SSAA). SSAA rendert ein Spiel in einer höheren Auflösung, als sie auf dem Monitor dargestellt wird und passt sie dann per Downsampling auf die gewählte Bildschirmauflösung an. Dadurch kann der Aliasing-Effekt beträchtlich reduziert werden.
Das größte Problem bei der Nutzung von SSAA besteht in den extremen Anforderungen, die dabei an die Hardware gestellt werden, so dass die SSAA-Funktion in den meisten Spiele-Engines von vornherein noch nicht einmal implementiert wird. Zuweilen lässt die Funktion sich über den Treiber erzwingen, aber eben nicht immer: Letztlich ist das ein reines Glücksspiel.
Nvidia bietet nun mit DSR ein eigenes Anti-Aliasing auf Basis von Downsampling, das jegliche Anti-Aliasing-Beschränkungen eines Spiels vollständig umgeht. Durch die Verwendung von DSR rendert die Grafikengine die Bilddaten auf eine höhere Auflösung als die des verwendeten Monitors. Diese höher aufgelösten Daten werden anschließend von der GeForce GTX 970/980 auf die native Bildschirmauflösung heruntergerechnet. Dadurch werden letztlich die Vorteile von SSAA geboten, ohne eventuellen Anti-Aliasing-Begrenzungen durch die Engine des Spiels zu unterliegen. Laut eigener Aussage von Nvidia ist jedes Spiel, das überhaupt eine höhere Bildauflösung als die des verwendeten Monitors unterstützt, DSR-fähig.
Die Kehrseite der Medaille: SSAA ist ein echter Performance-Killer und auch bei DSR verhält es sich nicht anders. Wählt man eine virtuelle 4K-Auflösung, um diese auf einen Full-HD-Monitor ausgeben zu lassen, erfordert das von der Grafikkarte nunmal dieselbe Rechenleistung, als würde man die Inhalte direkt für einen 4K-Bildschirm rendern. Eventuell kommt es durch das Downsampling sogar zu leichten Latenzen, aber das werden wollen wir im Verlauf des Tests noch genau untersuchen. DSR bietet sich folglich hervorragend für den Einsatz in Verbindung mit nicht allzu rechenintensiven Spiele-Engines sowie bei älteren Spieletiteln an. Wer beispielsweise in Counter-Strike bei maximaler Detailstufe noch immer 120 FPS erreicht, kann die Bildqualität durch DSR zusätzlich aufhübschen, ohne dabei einen allzu hohen Einbruch der Bildwiederholungsrate in Kauf nehmen zu müssen.
Eine weitere Einschränkung bei der Nutzung von DSR besteht hinsichtlich der Anzeige der Bedienoberfläche: Nicht alle Spiele, die eine 4K-Auflösung unterstützen, wurden so programmiert, dass auch ihre Bedienoberfläche selbst entsprechend angepasst wurde. Moderne Spieletitel verfügen oft über eine flexibles, teils sogar vom Anwender auswählbare Skalierung des User-Interface. Aber gerade viele ältere Spiele, die deutlich von DSR profitieren würden, könnten dadurch praktisch gänzlich unbedienbar werden: Die Eingabeschaltflächen würden bei einer Bildschirmauflösung von 3840x2040 Bildpunkten schlichtweg viel zu klein dargestellt. DSR ist natürlich nicht an eine bestimmte Auflösung gebunden. Es wäre also auch durchaus möglich, das Spiel von einer Auflösung von 2560x1440 Bildpunkten auf die Monitorauflösung herunterrechnen zu lassen, wenngleich der Anti-Aliasiung-Effekt ein dementsprechend geringerer wäre.
DSR wird durch die GeForce Experience Software aktiviert und wendet eine vom Anwender auswählbare Auflösung auf das Spiel an, die auf dem verwendeten Monitor normalerweise nicht zur Verfügung stehen würde. Darüber hinaus bietet die Benutzeroberfläche des Treibers die Möglichkeit, Einstellungen an der Bildschärfe und dem Downsampling-Filter vorzunehmen. Die Einführung von DSR erfolgt mit der GeFoce GTX 970 und 980, wird nach einiger Zeit jedoch auch für das übrige Grafikkartenlineup zur Verfügung stehen.
Ungeachtet dessen sind wir der Meinung, dass es sich hier prinzipiell um ein fantastisches neues Feature handelt, das vor allem in vielen Spielen mit weniger ausgefeilten Grafikenginges für eine deutlich attraktivere Darstellung sorgen könnte – vor allem, wenn es sich im Hinblick auf die unterstützten Grafikkarten tatsächlich als so abwärtskompatibel erweisen sollte, wie Nvidia behauptet. Im Benchmark-Teil des Tests werden wird noch etwas detaillierter auf DSR eingehen.
Multi-Frame Sampled Anti-Aliasing
Mit Multi-Frame Sampled Anti-Aliasing (MFAA) wird noch eine weitere Anti-Aliasing-Möglichkeit zusammen mit GeForce GTX 970 und 980 eingeführt. Ebenso wie DSR basiert es auf einem bereits bestehenden Verfahren. Reizvoll wird auch MFAA durch die Art und Weise, auf die Nvidia dafür gesorgt hat, dass es für die Grafikengine klar erkennbar ist dadurch eine größtmögliche Kompatibilität bietet. DSR soll vor allem die Darstellungsqualität in Spielen steigern, die bereits bei maximalen Grafiksettings dargestellt werden können, wodurch dementsprechend die Anforderungen an die Grafikkarte steigen. Der Hauptunterschied zu MFAA besteht in dessen genau umgekehrter Herangehensweise: MFAA soll für eine höhere Performance sorgen, ohne dass dabei Darstellungsqualität eingebüßt werden muss.
Wie bereits erwähnt knüpft auch MFAA an ein bestehendes Verfahren an. Im Prinzip ähnelt MFAA dem mit der Radeon X800 eingeführten Temporal MSAA, das von AMD mittlerweile aufgrund einer fehlerhaften Implementierug aufgegeben wurde. Nvidia sorgt nun jedoch für eine Wiedererweckung dieses Ansatzes und verpasst ihm eine einfache Optimierung, die MFAA jedoch ungleich erfolgreicher werden lassen könnte: Einen Temporal Synthesis Filter.
Für alle, die mit der Funktionsweise von Temporal MSAA nicht vertraut sind: Dabei handelt sich um ein Verfahren, dass das MSAA-Filtermuster bei abwechselnden Frames ändert. Dank der Trägheit des menschlichen Auges führt dies bei hohen Frameraten dazu, dass das Ergebnis so wahrgenommen wird, als würde es sich um eine viel höhere Anzahl an Filter-Samples handeln. Somit kann beispielsweise 2x Temporal MSAA ähnlich aussehen wie herkömmliches 4x MSAA, das jedoch rechenintensiver ist und somit auch eine niedrigere Framerate bedeutet. Das Problem bei Temporal MSAA, wie wir es von den Radeon Grafikkarten kennen, ist die Auftreten von Artefakten in der Bilddarstellung, sobald feine Bewegungen ausgeführt werden. Eine hohe FPS-Rate ist hier zudem ein Muss: Fällt der Wert unter 60 FPS, wird der Effekt automatisch abgeschaltet.
Möglicherweise kann Nvidia beide Probleme durch den Einsatz des Temporal Synthesis Filter aus dem Weg räumen. Dieser berücksichtigt sowohl die Pixel-Samples im Zeitablauf als auch die Bewegung in der Szene und bildet auf Basis dieser Daten einen Mittelwert. Dadurch kann MFAA auch unterhalb von 60 FPS genutzt werden und sollte dennoch dafür sorgen, dass das Auftreten von Artefakten bei geringen Kameraschwenks minimiert werden kann.
Bei einem schnellen Kameraschwenk kann MFAA nicht mithalten, aber die eigentliche Stärke des Filters, das Verhindern von Aliasing-Effekten, kann bei solchen schnellen Bewegungen ohnehin nicht wirklich wahrgenommen werden. Einfacher ausgedrückt: Bei Bewegungen scheitert MFAA, das macht aber gar nichts, da man den Effekt in diesem Fall ohnehin nicht wahrnehmen würde.Sollte das Ganze so gut funktionieren, wie Nvidia behauptet, dann kann ein von 4x MSAA nicht zu unterscheidendes Ergebnis geboten werden, das allerdings nicht ressourcenintensiver als 2x MSAA agiert.
Zwar bekräftige Nvidia uns gegenüber, dass MFAA schon sehr bald zur Verfügung stehen würde, zum Launch der GeForce GTX 970 und 980 ist es jedoch noch nicht so weit. Für weitere Details zu diesem Thema werden wir also einfach noch ein wenig abwarten müssen.
VR Direct
Nachdem wir zunächst auf DSR und MFAA eingegangen sind, wollen wir uns nun einige neue Features ansehen, die sich derzeit noch in Arbeit befinden und vermutlich innerhalb der nächsten Monate noch nicht in großem Umfang verfügbar bzw. angenommen werden. Dazu zählt unter anderem VR Direct, hinter dem sich verschiedene neue Technologien verbergen, die die Spielerfahrung durch Virtual-Reality- (VR) und Head-Mounted-Dispalys (HMDs) wie etwa die Oculus Rift verbessern sollen.
Wer ein wirklicher VR-Enthusiast ist, dem wird vielleicht schon in den Sinn gekommen sein, dass DSR gerade in diesem Bereich über ein gewaltiges Potential verfügt, um die Auflösungsbeschränkungen der Oculus Rift zu umgehen. Diese bietet die Auflösung eines Full-HD-Bildschirms, der auf jeweils eine Anzeige pro Auge mit einer entsprechenden Auflösung von 960x1080 Bildpunkte aufgeteilt wird. Angesichts der relativ geringen Auflösung wird also viel Raum für die Verbesserung der Darstellungsqualität durch DSR geboten. Aber auch MFAA bietet sich als Anti-Aliasing-Option an, da die geringere Hardwareauslastung von 2x MFAA im Vergleich zu echtem 4x MSAA auch für geringere Latenzen sorgt.
Wo wir gerade beim Thema Latenzen sind: Nvidia hat bereits daran gearbeitet, die Verzögerungen der VR-Grafik-Pipeline zu verringern, denn gerade beim Einsatz eines HMD können sich diese als echte Spaßbremsen erweisen. Wird eine Bewegung nicht in Echtzeit umgesetzt, reißt das den Spieler aus dem Geschehen heraus. Dagegen versucht Nvidia mit Asynchronous Warp anzugehen, wodurch letztlich so viele Grafikberechnungen wie möglich bereits im Vorfeld der Bildausgabe auf ein HMD erledigt werden sollen. Zudem wird die Positionierung des HMD zeitlich sehr nahe am Renderprozess gegengeprüft. Insgesamt werden die auf das Display ausgegebenen Frames dadurch so gut wie möglich mit der Bewegung des Nutzers synchronisiert.
Schließlich spricht Nvidia auch noch die Möglichkeit eines Auto-Stereo-Treibers an. Eins der ersten Dinge, die uns beim Betrachten der Oculus Rift in den Sinn kam, war der Wunsch, Nvidia möge doch HMD-Support in seinem 3D-Vision-Treiber implementieren. Dadurch könnte auch die Bildausgabe von Spielen auf HMDs zu möglich werden, die das von Haus eigentlich gar nicht unterstützen. Offensichtlich hatte jemand bei Nvidia exakt denselben Gedanken – wir sind gespannt darauf, was uns diesbezüglich noch erwarten wird.
DirectX 12
Microsoft hat die Veröffentlichung der neuen API für das Weihnachtsgeschäft 2015 angekündigt und die Spieleentwickler haben bereits Zugriff auf die aktuelle Version. Bis zur letztlichen Implementierung von DirectX 12 wird es zwar voraussichtlich noch ein ganzes Jahr dauern, die Thematik ist allerdings an dieser Stelle insofern interessant, als dass die GeForce GTX 970 und 980 als DirectX-12-kompatibel beworben werden.
Wer sich schon ein wenig mit der kommenden Direct3D-Version beschäftigt hat, wird vielleicht wissen, dass ein verminderter CPU-Overhead zu den Kernfeatures von DirectX 12 zählt. Dadurch erhalten die Entwickler letztlich mehr Kontrolle über die Ressourcen. Zu den Neuerungen gehören Pipeline State Simplification und Command Multithreading, welches für eine erheblich verbesserte Vergabe von zu berechnenden Daten bei der Nutzung mehrerer CPU-Kerne sorgen soll.
Aber bei DirectX 12 geht es nicht nur um eine Verbesserung der Nutzung der zur Verfügung stehenden CPU-Ressourcen, die API wird darüber hinaus auch neue Rendering Features und Methoden für Spieleentwickler bieten. Dazu gehören: Rasterizer Ordered Views, die ein ordnungsgemäßes und gleichbleibendes Rendern von sich überlappenden, halbtransparenten Objekten erlauben, die erstmals angeordnet werden. Tiled Ressources sorgen für den Einzug von Mega-Texturing, wodurch der Speicherhunger bei der Darstellung detaillierter Texturen durch den Einsatz von Textur-Kacheln eingedämmt werden soll.Conservative Raterization ist schließlich eine Methode, um alle Inhalte eines vollständigen Pixels zu überprüfen statt nur einen exemplarischen Einzelpunkt, was wiederum für Szenarien wie beispielsweise die Kollisionserkennunggenutzt werden kann.
Nvidia stellte eine ganze Menge interessanter technischer Daten zu diesen neuen Features und noch mehr zur Verfügung, angesichts des kurzen Zeitraums zwischen dem Erhalt der Test-Karten und dem Launch des Artikels ist es uns an dieser Stelle aber leider nicht möglich, noch näher ins Detail zu gehen. Aus diesem Grund wollen wir uns lieber Nvidias neuen Grafikkarten widmen und verschieben tiefgründigere Erörterungen zum Thema DirectX 12 auf einen näher an der Veröffentlichung der API liegenden Termin.
Voxel Global Illumination
Das vielleicht ambitionierteste Feature der GM204 GPU ist Nvidias Voxel Global Illumination (VXGI), das noch kein Bestandteil des GM107 aus der GTX 750 Reihe war. VXGI steht für eine Revolution der Art und Weise, wie Spiele gemacht werden und bedeutet den Übergang zu einem völlig neuen Beleuchtungsmodell, das gleichzeitig enorm rechenintensiv ist.
VXGI nutzt Voxel Space und Voxel Cone Tracing, um eine möglichst realistische Beleuchtung bieten zu können, die im Vergleich zu herkömmlichem 3D-Ray-Tracing deutlich schneller berechnet werden kann. Wir wollen an dieser Stelle nichts überstürzen und fangen erst einmal mit den Grundbegriffen an:
Ein ‚Voxel‘ ist ein Kunstwort, dass sich aus der Zusammensetzung der Begriffe ‚Volume‘ und ‚Pixel‘ ableitet und bezeichnet ein dreidimensionales Raster im Raum. Das kann man sich am besten so vorstellen, als wäre der Raum, in dem man gerade selbst sitzt, bis unter die Decke mit eng aneinanderliegenden, unsichtbaren Kisten vollgestapelt. Jede dieser Kisten repräsentiert ein Voxel, eine Größe im dreidimensionalen Raum. Ein Voxel-Raster wird als Datenstruktur genutzt, um Lichtemissions- und Opazitäts-Daten zu speichern.
Cone Tracing beschreibt einen Prozess, bei dem verschiedene Voxelauflösungen entlang eines Lichtpfades genutzt werden, um Informationen darüber zu speichern, wie das Licht sich auf Objekte entlang dieses Pfades auswirkt. Im Hinblick auf den Rechenaufwand ist das ein sehr effizienter Prozess: Je weiter sich der Lichtkegel vom letzten Abprallpunkt entfernt, desto größer werden die Voxel (und desto geringer somit die Auflösung).
Der Renderprozess wird in drei Schritten berechnet: Die Voxelisation der Szene, das Hinzufügen der Beleuchtung und schließlich der Final Gather. Während des Final Gather wird die Geometrie gerendert, die Beleuchtung berechnet und die indirekte Beleuchtung erfasst, um für fotorealistische Ergebnisse zu sorgen.
Nvidia führte VXGI anhand einer Mondlandungs-Demo vor. Diese bildete ein berühmtes Bild der echten Mondlandung nach und sah für eine Echtzeitdemo wirklich sehrt gut und vollkommen authentisch aus. Andererseits wurde das Ganze auch auf Basis eines SLI-Setups aus zwei GeForce GTX 980 Grafikarten gezeigt, die Szene bot nur eine geringe Anzahl an im offenen Raum gelegenen 3D Objekten und wies lediglich eine einzige Lichtquelle auf. Die tatsächlichen Rechenanforderungen von VXGI lassen uns allerdings ein wenig nachdenklich werden.
VXGI ist eine Technologie, die sich momentan noch eher an Spieleentwickler richtet, als an Endkunden. Möglicherweise kann dadurch die Art und Weise, wie Spiele geschaffen werden, eine Vereinfachung erfahren: In den derzeitigen Spieleengines müssen Beleuchtungseffekte in jeder Szene auf die Texturen draufgerechnet werden. Mit VXGI würde hingegen alles in Echtzeit gerendert werden, wodurch sich im Erstellungsprozess einige Schritte einsparen ließen. Dadurch könnten die Spieleentwickler wiederum Änderungen an den Levels eines Spiels vornehmen, ohne zusätzliche Workloads hinzufügen zu müssen. Als Developer-Kit ist VX3D eine attraktive Möglichkeit, um mit den neuen Beleuchtungsmöglichkeiten herumzuspielen.
Unserer Meinung nach bringt die Zukunft der Spielegrafik unweigerlich Global Illumination (GI) und Path Tracing mit sich. Aus Sicht der Endanwender leidet VXGI derzeit noch an der „Was war zuerst da? Ei oder Huhn?“-Problematik, die alle revolutionären Technologien bertifft. Wir sind skeptisch angesichts der Frage, ob die GeForce GTX 970 und 980 überhaupt schnell genug sind, um den enormen Rechenaufwand zu bewältigen, der mit VXGI einhergeht und der die neue Technologie zu einer wirklich nutzbaren und durchführbaren Sache machen würde. Andererseits kann VXGI aber vielleicht auch zunächst einmal dazu genutzt werden, um bereits bestehenden Beleuchtungsmöglichkeiten zu einem höheren Grad an Realitätsnähe zu verhelfen. Spannend ist in jedem Fall die Frage, wie VXGI in die Unreal 4 Engine implementiert werden wird, was laut Aussage von Nvidia im vierten Quartal dieses Jahres der Fall sein soll - dann wird sich zeigen, wie sich das letztlich auf die grafische Darstellungsqualität und die FPS-Werte auswirken wird.
- Gestatten, GM204: Eine neue Maxwell-GPU ist in der Stadt
- Neue Features für die GeForce GTX 970 und GTX 980
- Nvidia GeForce GTX 980 (Referenzkarte)
- Gigabyte GTX 980 WindForce OC
- Gigabyte GTX 970 WindForce OC
- EVGA GTX 970 Superclock ACX 2.0
- Testsystem und Benchmarks
- Benchmarks: Battlefield 4 And Thief
- Benchmarks: Arma 3 und Grid Autosport
- Benchmarks: Assassin's Creed IV, Watchdogs und Far Cry 3
- Richtig messen und Maxwells Geheimnis erkennen
- Leistungsaufnahme im Detail
- Leistungsaufnahme in der Gesamtübersicht
- Effizienzbetrachtung
- Temperaturen und Lautstärke
- Fazit: Preis, Performance und Performance in Balance









die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
Ich habe mich schon den halben Tag gewundert, warum auf anderen Seiten bereits die neuen Artikel veröffentlicht wurden, während die Seite mit dem liebevollsten Grafikparcours sich brav zurück hält. Aber jetzt ist ja alles da. :-)
Ist ein überarbeiteter Kühler verbaut. Angeblich gab es vom Neuen nicht genug (Produktion), deshalb werden beide Varianten angeboten.
Tatsächlich ist für mich auch die 970 die Karte die ich wählen würde zur Zeit. Allerdings fühle ich mit meiner 7870 (1080p Moni) noch keinen Aufrüstdruck. Vlt. beim Witcher? Mal sehen. Und das ist auch für mich das Problem aller aktuellen Performance / High End Karten zu stark für 1080p und zu schwach für 4k. Angesichts dessen was so in ca. 2 Jahren in Monitormarkt ansteht (Oled 4K) finde ich den kauf eines neuen Monitors auch blöd, und damit auch den Kauf einer GK zur Zeit. Na, kommt Zeit, kommt Rat.
Wobei ich sehe, das eure GTX 780Ti mit Standardtakt arbeitete, und da zum einen noch viel Luft nach oben ist, und zum anderen könnte das den Maxwell Karten konkurrenz machen.
Es wäre durchaus interessant die GTX 780Ti, die GTX 970 / GTX 980 und die R9-280X und R9-290X im moderat übertakteten Zustand auf Effizienz zu testen, dann könnte viel Licht ins Dunkel gebracht werden.
Vor allem im GPGPU Bereich, wo die Maxwell Architektur punkten soll, könnte man noch einen Benchmark durchführen, um zu sehen wie sich die höhere Leistungsaufnahme auf die Geschwindigkeit auswirkt.
Du kannst maximal 10% überlasten solltest das aber nicht darauf hin auslegen.
Im Prinzip sollte es gehen im schlimmsten Fall schaltet das NT ab. Überlastschutz.
Empfehlen würde ich es aber nicht, ein paar Watt mehr wären schon gut.
Sinnvoll ist es nur bedingt da der Prozessor viel zu schwach ist zumindest für viele games.
Danke, Big-K. Das Netzteil habe ich mir letzten Winter geholt, extra-"schwach" wegen der Effizienz. Nun rächt sich das.
CPU wahr hier noch nie der Flaschenhals (geht ja bis 3,1/3,4GHz und wirklich deutlich mehr bekommt man ohne übertakten heute sowieso noch nicht von der Intel-Stange).
Wenn ich jetzt v.a spielen will (1080p, Ultra Details) die GTX970 also richtig fordere, verbraucht sie dann also doch deutlich mehr als die angegebene TDP von ~165W? (Xeon E3 1231, Corsair CS 550W, 8GB Ram)
Hintergrund ist einfach nur die Überlegung der Stromkosten wegen: Möchte meine HD6850 (TDP ~140W) upgraden und hatte an eine R9 280x gedacht (TDP~250W), und bei dem doch deutlich niedrigerem TDP der GTX970 hätte ich den Aufpreis von ~ 80€ nach ein paar Jahren wieder raus....dachte ich, aber wie muss ich die Spitzen der Lastaufnahmen denn jetzt interpretieren? Verbraucht die GTX970 dann am Ende doch soviel wie zB eine R9 280x bei hoher Gaming-Auslastung? Sind die 165W TDP also am Ende nur Augenwischerei?
Als angekündigt wurde das die 980 nur 16 sm haben wird dachte ich nicht das die so gut abschneidet aber der Takt machts wohl möglich.
Was mir nur nicht ganz klar ist, wenn powertune schon mit 100 kHz arbeitet wie hochfrequent arbeitet nv boost?
Da die Leistungsaufnahme in games nur etwa die Hälfte wie im GPGPU beträgt könnte man daraus schließen das die Hälfte der Zeit gar nichts berechnet wird? Vielleicht sollte man mal verschiedenen Spiele einzeln auf ihren Stromverbrauch untersuchen.