Nvidia GeForce GTX 980 Ti (6GB) im Test: GM200 für Gamer

Obwohl Nvidia die GeForce GTX Titan X vor weniger als drei Monaten veröffentlicht hat, steht uns nun die GeForce GTX 980 Ti ins Haus, die auf der gleichen GM200-GPU basiert. Wie schlägt sie sich bei einem um 400 Euro niedrigeren Preis?

Weniger als drei Monate sind vergangen, seit Nvidia die GeForce GTX Titan X ins Rennen geschickt hat - und schon bringt Nvidia noch eine weitere GM200-basierte Karte auf den Markt: Die GeForce GTX 980 Ti soll mit einer UVP von 739 Euro etwa 400 Euro (!) unter dem aktuellen Straßenpreis des Titan-X-Flaggschiffs liegen und trotzdem nur um einige Prozent weniger leistungsfähig sein. Gibt es da noch Gründe, zur Titan X zu greifen? Kann man guten Gewissens derzeit mindestens 530 Euro für die GTX 980 ausgeben, wenn man weiß, dass dieses Monster existiert? Ist dies etwa der Präventivschlag gegen die anstehende Enthüllung von AMDs Ultra-High-End-GPU Fiji?

Jede Antwort auf die letzte Frage wäre reine Spekulation. Allerdings haben wir nicht so bald mit einem Abkömmling der Titan X gerechnet. Nvidia hatte seine originale GeForce GTX Titan im Februar 2013 vorgestellt (hier noch ein zusätzlicher Benchmark-Parcours) und erst neun Monate später kam dann die GeForce GTX 780 Ti, die auch auf der GK110-GPU basierte. Diese Karten waren definitiv nicht für die gleiche Zielgruppe gedacht: Bei der Titan war einer der SMX-Cluster abgeschaltet, dafür hatte sie beispiellose sechs Gigabyte Speicher und einen Grafikprozessor, der gleichermaßen gut mit 3D und Berechnungen mit doppelter Genauigkeit klar kam. Dabei GTX 780 Ti bot im Gegenzug die vollen 2880 CUDA-Kerne und 240 Textureinheiten für höchste Grafikpracht sowie höhere Taktraten und einen um 300 Euro günstigeren Preis. Den meisten Gamern mit dem nötigen Kleingeld fiel die Wahl zugunsten der GTX 780 Ti nicht schwer, wenn sie sich zwischen ihr und der Titan entscheiden mussten.

Leider gab es auch einen guten Grund, der gegen sie sprach: Nvidia hatte die GeForce GTX 780 Ti mit nur drei Gigabyte Speicher bestückt – und die Gerüchte um ein kommendes 6-GByte-Modell haben sich leider nie bewahrheitet. Vor zwei Jahren reichte das noch völlig für Gaming bei 2560 x 1440 Bildpunkten aus. 4K-Bildschirme waren seinerzeit noch keine große Sache, da die wenigen verfügbaren Exemplare im Bereich von 3000 Euro lagen. Wir stellten allerdings fest, dass drei Gigabyte Speicher nicht ausreichten, um flüssig auf einem Trio QHD-Bildschirmen mit mehr als 11 Millionen Pixel zu spielen. Später stellte sich dann heraus, dass schon beim 4K-Gaming (mehr als 8 Millionen Pixel) der Speicher der verfügbare Karte zum Flaschenhals wurde.

Heute sieht der Monitormarkt aber völlig anders aus als damals. Ultra-HD-Bildschirme gibt es schon zu Preisen von unter 300 Euro. Nvidias G-Sync Technologie mit variabler Bildrate ist beinahe 18 Monate alt. Und AMDs äquivalente FreeSync-Technik kommt auch gerade in Fahrt. Wir müssen daher annehmen, dass alle, die 2015 nach einer High-End-Grafikkarte suchen, einen Umstieg auf 4K zumindest in Betracht ziehen.

Anpassung der GM200-GPU für die GeForce GTX 980 Ti

Nvidia weiß, wohin sich der Display-Markt bewegt und hat dieses Mal darauf verzichtet, die aktuelle Generation des Titan-Derivats in Sachen Speicherausbau zu beschneiden. Neben der im Vergleich zur 780 Ti größeren Speichermenge auf dem Board nutzt die Nvidias Maxwell-Architektur aber auch die verfügbaren Speicherbandbreite effizienter – das konnten wir erstmal im letztjährigen Februar bei der GeForce GTX 750 Ti mit GM107-GPU beobachten. Die GM200-GPU ist noch robuster gebaut als diese frühe Maxwell-Fassung: Jeder seiner SMMs hat 96 Kilobyte Shared Memory und einen 48 Kilobyte großen Textur-/L1-Cache, während ein drei Megabyte großer L2-Cache die Zugriffe auf den Arbeitsspeicher möglichst minimieren soll. All diese Änderungen an der Hardware sorgen zusammen mit den neuen Farbkompressionsschemata dafür, dass spielbare Performance beim 4K-Gaming für bestimmte Single-GPU-Karten zum realistischeren Szenario wird.

Das sind die guten Nachrichten. Aber weil Nvidias GeForce GTX Titan X bereits eine vollständig freigeschaltete GM200-GPU integriert, gibt es keinen Weg mehr, die 980 Ti noch schneller zu machen. Das führt zu dem Problem, dass es kaum Unterscheidungsmerkmale für zwei High-End-Karten gibt, die auf dem gleichen ASIC basieren.

Wie wäre es, ihre Stärken über die Performance in rechenlastigen Workloads zu definieren? Die letzte Generation der Titan schaffte etwa 1,5 TFlops bei Berechnungen mit doppelter Genauigkeit. Nvidia beschnitt die 780 Ti künstlich auf ein Achtel davon – also ungefähr 210 GFlops – und schuf so ein klares, wenn auch künstliches Unterscheidungsmerkmal. Aber diese Option ist heute nicht verfügbar, da die GM200-GPU ihr Rechenpotenzial zugunsten generell effizienterer Gaming-Performance aufgibt. Im Ergebnis sind sowohl die Titan X als auch die 980 Ti beide auf eine native FP64-Leistung von 1/32 begrenzt.

Da die GTX Titan X bereits auf dem Markt ist und zu Preisen ab 1050 Euro verkauft wird, schein ein chirurgischer Eingriff die einzige Option des Herstellers zu sein. Dabei wurden einige Fähigkeiten der GM200 beschnitten und so eine GeForce GTX 980 Ti geschaffen, die leicht schwächer als die Titan X, dabei aber überzeugender als die GeForce GTX 980 – und ein großes Upgrade gegenüber der 780 Ti – ist.

Immerhin ist der Eingriff nicht dramatisch – wir reden immer noch von der GM200 und ihren sechs GPCs. Aber über alle sechs Cluster hinweg werden insgesamt zwei Streaming-Multiprozessoren abgeschaltet. Bei 128 CUDA-Kernen pro SMM gehen damit 256 CUDA-Kerne "verloren", so dass man auf eine Gesamtmenge von 2816 Kernen auf dem Grafikprozessor kommt. Analog dazu verringert sich die Gesamtzahl der Textureinheiten durch die Verlust von jeweils 8 Textureinheiten pro SMM von 192 auf 176 TUs.

Man sollte nun meinen, dass die Abschaltung von rund acht Prozent der Shader und Textureinheiten der GM200 zu einem etwa gleich großen Leistungsverlust bei jenen Spielen führt, die massiv auf diese Teile der Grafikpipeline setzen. Aber Nvidia behauptet, dass der Unterschied zwischen der GeForce GTX Titan X und der 980 Ti absolut gering sei.

Die Firma scheint sich keine Sorgen zu machen. Nvidia versucht auch nicht, das Ganze mit höheren Taktraten zu kompensieren: Die GeForce GTX 980 wird wie die Titan X mit einem Basistakt von 1000 MHz und einem Boost-Takt von 1075 MHz vermarktet. Und das Backend der GPU ändert sich genauso wenig. Um aus unserem Titan X-Launch-Artikel zu zitieren:

"[...] Die vier ROP-Partitionen der GeForce GTX 980 wurden bei der GeForce GTX Titan X auf sechs erhöht. Bei jeweils 16 Einheiten sind das bis zu 96 32-Bit-Integer-Pixel pro Takt. Den ROP-Partitionen sind 512 KByte große L2-Cache-Bereiche zugeteilt, was bei der GM200 in Summe drei MByte ergibt. Als Nvidia die GeForce GTX 750 Ti vorstellte, erklärte sie den großen L2-Cache als Maßnahme gegen den Flaschenhals des mit 128 Bit relativ schmalen Speicher-Interfaces. Bei der GM200 sollte das angesichts ihrer Speicherbandbreite von 384 Bit und dem 7 Gb/s schnellen Speicher kein Problem sein. Der maximale Durchsatz von 336,5 GByte/s entspricht dem der GeForce GTX 780 Ti und übertrifft den von GeForce GTX Titan, Geforce GTX 980 und AMDs Radeon R9 290X. [...]"

Aber während die Titan X 12 Gigabyte GDDR5-Speicher integriert, ist die GeForce GTX 980 Ti nur mit sechs Gigabyte bestückt – der aber ebenfalls sieben Gb/s schnell ist. Das kann man unserer Meinung nach kaum einen Kompromiss nennen. Sechs Gigabyte reichen locker fürs Zocken an einem 4K-Monitor oder drei QHD-Bildschirmen. Allerdings sollte man auch in Zukunft besser nicht auf 12-GByte-Versionen der GTX 980 Ti hoffen. Denn Nvidia plant sicherlich nicht, die (sicherlich sowieso schon vergleichsweise geringen) Verkaufszahlen der Titan X durch eine aufgerüstete GTX 980 Ti zu gefährden.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
14 Kommentare
    Dein Kommentar
  • MyRunner
    Ist es gewollt, das z.B. bei den OpenCL/CUDA Diagrammen mal die TitanX und mal die 980TI rot markiert ist?
    0
  • FormatC
    Nein, aber ich kann es von Taiwan aus leider nicht mehr korrigieren. Und die originalen Sheets sind leider auf einer verschlüsselten Festplatte, an die nicht mal meine Frau rankommt. Ich habe das exakt einen Tag vor meinem Abflug erst fertig bekommen. :D

    Das muss bis nach der Computex warten und ist leider eine Folge solcher Nacht- und Nebel-Aktionen. :(
    0
  • gst
    Und um den Bogen zurück zum großen Ganzen zu spannen: Haupt"schuldige" sind die Hersteller, die natürlich "pünktlich" zu den Messen immer (!) äußerst kurzfristig Samples liefern. Dass Igor seinen Teil an diesem und anderen anstehenden Artikeln noch in der Kürze der Zeit vor dem Abflug nach Taiwan fertigbekommen hat, ist allen Lobes wert.

    Dazu kommt noch, dass hier viele Köche mitmischen - da kommt es zwangsläufig zu Problemchen. ;)
    0
  • maguumo
    Danke für den ausführlichen Test. Ich warte auch erstmal noch auf Fiji bevor ich aufrüste, wobei es mir schon in den Fingern juckt...
    0
  • Tesetilaro
    ich verstehe ja warum man sich graphikkarten jenseits 500 € einbauen möchte... ich verstehe nur nicht warum manche es dann auch tun *g*
    0
  • fffcmad
    Jetzt warte ich nur noch auf den Nachfolger mit HBM :)
    0
  • besterino
    Zitat:
    ich verstehe ja warum man sich graphikkarten jenseits 500 € einbauen möchte... ich verstehe nur nicht warum manche es dann auch tun *g*


    Ich hab' hier zwei gute alte GTX680 im SLI (allerdings die 2GB Versionen). Seinerzeit kam vieles zusammen: ich hatte schon eine, wollte SLI immer mal ausprobieren und der Leistungsunterschied zu der noch gar nicht groß verfügbaren 780 (nicht Ti) war nicht sooo groß.

    Heute macht auf meinem WQHD-Monitor (Hauptmonitor) Spielen inzwischen keinen großen Spaß mehr. Wenn Du dann noch einen zweiten kleineren Monitor angeschlossen hast, der irgendwie auch immer ein paar FPS zu ziehen scheint, SLI-Treiber/-Unterstützung/-Optimierung bei diversen Titeln (insb. wenn sie nicht von den ganz großen Studios kommen) und ein wenig Zukunftssicherheit in Betracht ziehst, dann macht man sowas. :D

    Ich warte jetzt zwar auch noch einmal ab, insbesondere bis Fiji raus ist und wenn auch nur damit sich vielleicht bei den Preisen noch was tut.
    0
  • Tesetilaro
    einen zweiten Bildschirm leiste ich mir, wenn teamspeak es auf die Reihe bekommt sein Interface / die GUI für einen 7" touch zu optimieren - dann binde ich ein tablet wireless ein und das wars dann aber auch ;)

    und versteh mich nicht falsch, ich liebäugele auch damit von 27" full hd auf 34" curved 21:9 o.ä. umzusteigen, aber mir ist gestern erst wieder bewußt geworden, wie wenig ich von den Randbereichen auf meinem Bildschirm überhaupt mitbekomme und das ganze in der Prioritätenliste nach unten gerückt ;)
    0
  • FormatC
    Excel hat keine Randbereiche, nur beschissene Scrollbalken.
    Also wech damit :D 21:9 FTW
    0
  • Tesetilaro
    ich meinte eher WoWs - mir war aufgefallen, daß ich den kompletten sichtbereich habe, quasi die ganze karte... aber mein blick den rand gar nicht richtig erfasst...
    0
  • ShieTar
    Pah 21:9. Ich excele seit einigen Monaten begeistert auf 40" in 4K. Fernseher als Arbeitsgerät werden definitiv unterschätzt.
    0
  • MyRunner
    Anonymous sagte:

    Das muss bis nach der Computex warten und ist leider eine Folge solcher Nacht- und Nebel-Aktionen. :(


    Kein Problem, wollte nur drauf hinweisen. ;) Viel Spass und hoffentlich viele interessante News.
    0
  • Alex32
    Danke für den Test, aber ich würde gerne die GTX 980 Ti im Vergleich mit der GTX 780 Ti sehen, insbesondere für Blender. Danke und Gruß Alex
    0
  • big_k
    Also mal zu dem update. Mit dem 15.5 und ohne AA komm ich bei 3200x1800 praktisch konstant auf min. 60 fps. Vorher waren bei 1440p nur 35-40 pfs drin, so wie hier getestet.
    Bei Zwischensequenzen flackert es gelegentlich etwas.
    Welcher AA mode wird hier verwendet?
    0