Nvidia GeForce GTX Titan X im Test: Kommt eine einzelne GPU mit 4K klar?

Bis jetzt brauchte man für flüssiges UHD-/4K-Gameplay multiple High-End-GPUs. Aber Nvidias GeForce GTX Titan X soll die erste Grafikkarte sein, mit der allein man bei 3840 x 2160 Pixeln und anspruchsvollen Details zocken können soll. Wir sind gespannt.

Ich habe mal gehört, Selbstvertrauen soll sexy sein.

Nvidia beweist eine Menge Selbstvertrauen, denn sie schickten uns eine einzelne Karte und mit dem Acer XB280HK bprz den ersten G-Sync-Monitor mit 4K-Auflösung. Erwartet Nvidia, dass das neue Single-GPU-Flaggschiff bei einer Auflösung von 3840 x 2160 Pixeln noch Performance-Reserven hat? Wie cool wäre das denn? Chris' kleiner, außer Sicht versteckter Tiki könnte dann in Ultra-HD durch die anspruchsvollsten Spiele pflügen! Dabei hatte er erwartet, mit dem Kleinen ewig bei einer Auflösung von 2560 x 1440 Pixel festzuhängen.

Die GTX 980 war nicht in der Lage, mit nur einem Grafikprozessor den Ansprüchen einer 4K-Auflösung mit einer Detailtiefe gerecht zu werden, die einen Enthusiasten begeistert. Aber die GeForce GTX Titan X basiert auf der GM200 und setzt sich aus acht Milliarden Transistoren zusammen. Acht. Milliarden. Das sind beinahe drei Milliarden mehr als bei der GM204-GPU der Geforce GTX 980 und eine Milliarde mehr als bei der GK110, dem Herzstück der ursprünglichen Geforce GTX Titan.

In ihrer finalen Form manifestieren sich diese Transistoren als ein 601 mm² großes Stück Silizium; das sind etwa neun Prozent mehr als bei der GK110. Die GM200-GPU wird in der gleichen 28nm High-K Metal Gate-Prozesstechnik gefertigt und ist folglich einfach nur ein größerer und komplexerer Chip. Und dennoch ist die maximale Energieaufnahme immer noch mit 250 Watt angegeben. Bei höherem Takt, wohlgemerkt. Und mit doppelt so viel Speicher. Oberflächlich betrachtet scheint dies einfach nicht zusammenzupassen. Tut es aber.

Das Innenleben der GM200

Ebenso wie die GeForce GTX 980 und 970, die letzten September vorgestellt wurden, basiert die GM200-GPU auf Nvidias energieeffizienter Maxwell-Architektur. Anstelle der vier Graphics Processing Cluster (GPC) der GM204 bekommt man bei GM200 sechs. Und bei vier Streaming-Multiprozessoren pro SMM ergibt das 24 SMMs auf der ganzen GPU. Multipliziere das mit 128 CUDA-Kernen pro SMM und man kommt bei der GeForce GTX Titan X auf eine Gesamtsumme von 3072 CUDA-Kerne. Acht Textureinheiten pro SMM ergeben insgesamt 192 – bei einem Basistakt von 1000 MHz sind das 192 GTex/s (die ursprüngliche GeForce GTX Titan war mit 188 GTex/s angegeben, obwohl sie über mehr Textureinheiten verfügte).

Wie die SMMs der GM204 haben die der GM200 96 KByte Shared Memory und 48 KB Textur-/L1-Cache – das Doppelte der GM107 der GeForce GTX 750 Ti. Die anderen Elemente der Architektur sind allerdings ähnlich. Jeder SMM besteht aus vier Blöcken mit jeweils eigenem Instruktionspuffer, Warp Scheduler und einem Paar Dispatch Units. Tatsächlich wird so viel übernommen, dass die Double-Precision-Berechnung immer noch mit 1/32 der FP32-Rate spezifiziert ist, obwohl die  GM200 das Familienoberhaupt der Maxwell-Familie ist. Übrigens teilt die kommende Quadro-Karte, die auf derselben GPU basiert, das gleiche Schicksal. Wenn die FP64-Leistung wirklich wichtig ist, würde Nvidia mit Sicherheit eine ihrer Tesla-Karten empfehlen.


GeForce GTX Titan X
GeForce GTX 980
Radeon R9 290X
GeForce GTX Titan
Prozesstechnik:
28 nm
28 nm
28 nm
28 nm
Transistoren:
8 Milliarden5,2 Milliarden6,2 Milliarden7,1 Milliarden
GPU-Takt:
1000 MHz
1126 MHz
bis zu 1 GHz
837 MHz
Shader:
3072
2048
2816
2688
Textur-Einheiten:
192
128
176
224
Textur-Füllrate:
192 GT/s
172,8 GT/s
176 GT/s
188 GT/s
ROPs:
96
64
64
48
Pixel-Füllrate:
96 GP/s
72 GP/s
64 GP/s
40 GP/s
Speicher-Interface:
384 Bit
256 Bit
512 Bit
384 Bit
Speicher:
12 GByte GDDR5
4 GByte GDDR5
4 GByte GDDR5
6 GByte GDDR5
Speichertransferrate:
7 GT/s
7 GT/s
5 GT/s
6 GT/s
Speicherbandbreite:336,5 GB/s
224,4 GB/s
320 GB/s
288 GB/s
Board Power:
250 Watt
165 Watt
250 Watt
250 Watt

Die vier ROP-Partitionen der GeForce GTX 980 wurden bei der GeForce GTX Titan X auf sechs erhöht. Bei jeweils 16 Einheiten sind das bis zu 96 32-Bit-Integer-Pixel pro Takt. Den ROP-Partitionen sind 512 KByte große L2-Cache-Bereiche zugeteilt, was bei der GM200 in Summe drei MByte ergibt. Als Nvidia die GeForce GTX 750 Ti vorstellte, erklärte sie den großen L2-Cache als Maßnahme gegen den Flaschenhals des mit 128 Bit relativ schmalen Speicher-Interfaces. Bei der GM200 sollte das angesichts ihrer Speicherbandbreite von 384 Bit und dem 7 Gb/s schnellen Speicher kein Problem sein. Der maximale Durchsatz von 336,5 GByte/s entspricht dem der GeForce GTX 780 Ti und übertrifft den von GeForce GTX Titan, Geforce GTX 980 und AMDs Radeon R9 290X.

GM200 auf der GeForce GTX Titan X

Nvidia pflanzt die GM200 auf eine 26,7 Zentimeter langes PCB, das anderen High-End-Boards der letzten Jahre ähnelt. Modellspezifische Unterschiede sind bei näherem Hinsehen natürlich offensichtlich, aber im Endeffekt sprechen wir hier über die gleichen Abmessungen, was den Job von Systemintegratoren beim Bau neuer PC-Systeme zweifellos vereinfacht.

Wir finden auch die gleiche Anzahl Single-Die-Speicher-ICs um die GPU herum. Jedoch sind es jetzt vier Gigabit (512 Megabyte) große Pakete von SK hynix' schnellstem GDDR5-Speicher, was einen Gesamtspeicher von 12 Gigabyte ergibt. Das ist selbst für 4K ein ziemlicher Overkill. Nvidia sagt, sie würden hier auf Zukunftssicherheit setzen und falls zukünftig mehrere Ultra-HD-Bildschirme von drei oder vier Titan X-Karten im SLI-Verbund angesteuert würden, wären sechs Gigabyte einfach nicht ausreichend.

Auf dem PCB sitzt eine Platte, die die auf der Oberfläche angebrachten Komponenten kühlen soll. Darauf ist eine große, aus Kupfer gefertigte Vapor Chamber montiert, auf der wiederum ein zwei Slots hoher Aluminium-Kühlkörper sitzt. Nvidias Referenzdesign bleibt dem Zentrifugallüfter treu, der Luft aus dem Gehäuse ansaugt, über die Platine und durch den Kühlkörper leitet und dann nach hinten aus dem Gehäuse bläst. Obwohl blasende Lüfter gewöhnlich mehr Lärm machen als Axial-Lüfter, haben wir genügend auf diesem Konzept basierende Karten gesehen um zu wissen, wie geräuscharm sie laufen können. Die Geforce GTX Titan X ist da keine Ausnahme.

Ein Aluminium-Gehäuse verbirgt die inneren Teile. Es hat mehr Struktur als in der Vergangenheit und Nvidia hat es zudem schwarz lackiert. Erinnert ihr euch vielleicht noch an dieses Bild aus dem folgenden Artikel unserer US-Kollegen: The Story of How GeForce GTX 690 And Titan Came To Be? Es sieht ganz ähnlich aus - bis auf die fehlende grüne Beleuchtung unter den Kühllamellen.

Außerdem fehlt die Backplate, die noch bei der GeForce GTX 980 vorhanden war. Ein Teil der 980er Backplate war entfernbar, um den Luftstrom zwischen mehreren 980ern zu verbessern. Allerdings hat die Titan X einen größeren Energiebedarf. Um mehreren, einander angrenzenden Karten möglichst viel Platz zum Atmen zu geben, hat Nvidia sie komplett weggelassen. Chris vermisst sie ja nicht, aber ich bevorzugte den eleganten, professionellen Look.

Die GeForce GTX Titan hat die gleichen Ausgänge wie die GTX 980 – also einen DVI-Anschluss (Dual-Link), einen HDMI 2.0-fähigen Anschluss und drei DisplayPort-Ausgänge voller Größe. An diesen fünf Anschlüssen können bis zu vier Displays gleichzeitig angeschlossen werden. Und falls man mehrere Displays mit G-Sync nutzt, macht das DisplayPort 1.2-Trio Surround möglich.

Die Zukunft im Blick

Abgesehen von den 12 Gigabyte DDR5-Speicher betont Nvidia auch eine Reihe von GPU-Features, die für eine größere Zukunftssicherheit sorgen sollen.

Während der diesjährigen GDC hat Microsoft erwähnt, dass 50 Prozent der heutigen Grafik-Hardware von DirectX 12 unterstützt wird und dass die Quote zu Weihnachten auf zwei Drittel steigen wird. Das heißt, dass ein Großteil der Grafikkarten mit der API funktionieren wird. Allerdings werden die Funktionen von DirectX 12 in zwei Gruppen eingeteilt: 12.0 und 12.1. Laut Microsofts Max McMullen enthält DX 12.0 einen Großteil der CPU-orientierten Performance-Vorteile, während DX 12.1 Conservative Rasterization und Rasterizer Ordered Views (ROVs) für noch leistungsstärkere Rendering-Algorithmen einführt.

Wie man es von einer GPU erwarten kann, die auf Zukunftssicherheit setzt, unterstützt die GM200 die Funktionen von DirectX 12.1 (ebenso wie die GM204). Alles Ältere – inklusive der GM 107, auf der die GeForce GTX 750 Ti basiert – ist auf den Funktionsumfang von DirectX 12.0 begrenzt. Wir haben auch bei AMD angefragt, ob seine CGN-basierten GPUs DirectX 12.0 oder 12.1 unterstützen; ein Vertreter des Unternehmens antwortete uns, dass er dies zu diesem Zeitpunkt nicht kommentieren könne.

Die Maxwell-Architektur enthält eine Reihe anderer Funktionen, von denen einige schon heute genutzt werden, während andere noch auf Unterstützung und Nutzung durch die Entwickler warten. Für weitere Informationen über Dynamic Super Resolution, Multi-Frame Samples Anti-Aliasing (übrigens eine gute Methode, um die Geschwindigkeitseinbußen durch Anti-Aliasing bei 4K-Gaming auf der Titan X zu minimieren), VR Direct und Voxel Global Illumination sollte man sich diese Seite in unserem Launch-Artikel zur GeForce GTX 970 und GTX 980 zu Gemüte führen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
74 Kommentare
    Dein Kommentar
  • moeppel
    Für den Preis und die Specs doch ein wenig ernüchternd, vor allem im Vergleich zu einer 980 bei der Preisdifferenz. Ganz zu schweigen von einer möglichen 980 Ti. Auch wenn 4K greifbarer wird was die FPS angeht, so ganz überzeugt mich die Karte dann trotzdem nicht.

    Je nach dem was zukünftige Titel dann noch im Schlepptau haben (evtl. Witcher 3) kommt damit dann auch nicht mehr weit, außer man betreibt sie tatsächlich im Verbund.

    Auch wenn die meisten Informationen der 390X derzeit auf Leaks bestehen, so denke ich, dass diese wohl das Rennen machen wird. Zumindest im Grafikbolidenbereich. Erschreckender ist eher der mehr oder weniger stagnierende Mittelstandbereich, der noch einiges zu gehen hat bevor 2560*1440 durchweg akzeptable spielbar ist.

    Mal abwarten ;)
    0
  • DJMABO
    Interessante Karte und für eine Single GPU eine beachtliche Leistung. Aber trotz allem löst sie bei mir nicht den "Habenwill" Reiz aus. Dazu ist sie 1. zu teuer, 2. noch nicht Leistungsfähig genug für gutes 4K Gaming (zu wenig Leistungsreserven) und 3. fehlen Tests und Erfahrungen in Verbindung mit VR. Dort strebt man Derzeit hohe Bildraten mit hohen Auflösungen an, wie ja schon einige Leaks im Internet zwitschern. Da ist es denkbar das die Titan X an ihre Grenzen kommt um die Bildraten konstant aufrecht halten zu können.
    0
  • Chemidemi
    Super Artikel erstmal...aber was noch interessant wäre, wie sie sich unter Wasserkühlung schlägt und was dann nach oben noch möglich wäre.
    Außerdem dürfte eine so hohe Temperatur bei den Speicherbausteinen wohl auch stark auf die Haltbarkeit gehen. (bei der 295X2 waren es glaube 108°C)
    Des Weiteren ist sie wie nicht anders zu erwarten sehr teuer und schafft 4K auf maximalen Details auch nur gerade so. Das klang bei der Veröffentlichung von ihr heute vom zuständigen CEO noch anders. Kam für mich eher so rüber als wäre 4K für die Titan X kein Problem...Marketing ist halt nicht alles. Am Ende zählen halt nur die ermittelten Zahlen.
    0
  • maguumo
    Danke für den ausführlichen Test. Finde die Karte wirklich interessant, nur warte ich lieber erstmal ab was AMD dagegen stellen kann bevor ich aufrüste...
    0
  • maguumo
    Bei der R9 295 X2 hatten glaube ich nur die VRMs derart hohe Temperaturen unter Last. Auch nicht gut, aber die Dinger sind ja glaube ich bis 125°C spezifiziert. Keinen Plan für was die VRAM Chips konzipiert sind...

    Was ist eigentlich die erwähnte Tropikalisierung? Bei google finde ich da nichts...
    0
  • alterSack66
    Guter Artikel. Ich spiele ja nicht mit so ner Auflösung sondern stell die Titanen nur ins Regal. :D Bin auch kein Ökofreak aber der Stromverbrauch der AMD-Karte ist im Vergleich schon beachtlich.
    0
  • gst
    Danke. ;)
    0
  • Tesetilaro
    puh... wenn die nicht so teuer wäre... aber mit dem gedanken bin ich vermutlich nicht alleine *g*

    Danke @toms für den test
    0
  • ShieTar
    Quote:
    Bei der R9 295 X2 hatten glaube ich nur die VRMs derart hohe Temperaturen unter Last. Auch nicht gut, aber die Dinger sind ja glaube ich bis 125°C spezifiziert. Keinen Plan für was die VRAM Chips konzipiert sind... Was ist eigentlich die erwähnte Tropikalisierung? Bei google finde ich da nichts...


    Ist eine spontante Eindeutschung des englischen/französischen "tropicalisation". Üblicherweise spricht man im deutschen wohl eher von "tropenfester Lakierung".
    0
  • maguumo
    So kann ich was damit anfangen, danke.
    0
  • FormatC
    Völlig richtig.

    Danke, dass Du für mich geantwortet hast, ich bin gerade erst von der CeBIT zurück. :)
    0
  • klomax
    1149 € Einführungspreis.
    Wer es sich leisten kann, wird wohl zugreifen.

    Bin mal auf das HBM-Monster von AMD gespannt.
    0
  • ShieTar
    999$ => 1149€. Vor drei Monaten wären es wohl noch 999€ geworden.
    0
  • Tesetilaro
    24312 said:
    1149 € Einführungspreis. Wer es sich leisten kann, wird wohl zugreifen. Bin mal auf das HBM-Monster von AMD gespannt.


    jain, ich könnte mir diese Karte bequemst aus der portokasse leisten, aber warum?
    Ich habe einfach den Anspruch nicht und bin vorrläufig mit meiner 290X mehr als zufrieden ;)

    aber in sachen AMD stimme ich Dir zu, meine vermutung ist, mehr power in jeder hinsicht, die frage ist halt, gehen leistungsgewinn im vergleich zur Titan auch ungefähr konform mit dem zuwachs beim verbrauch? wir werden sehen...
    0
  • Sven Ullrich
    Totaler Schnurz der Tite,l selbst meine Gigabyte GTX 780 Ti läuft in 4k und Ultra bei Crysis 3, Far Cry 4 ect ...
    0
  • alterSack66
    Bewegen sich die Bilder auch :??:
    0
  • derGhostrider
    Irgendwie habe ich ein Dejavu: Schon bei der Titan dachte ich mir "Gute Grafikkarte, aber irgendwie müsste die noch ein ganzes Stück schneller sein, damit ich sie wirklich kaufen wollen würde." - Preis/Leistung muss eben an irgendeiner Stelle passen - oder zumindest der Abstand zu sonstigen Grakas derartig extrem sein, dass man gerne einen Bonus zahlt.
    Bei mir ist es damals aus diesem Grund die 780er geworden: halber Preis bei grob 5% bis 10% weniger Leistung. Das war dann eine einfache Entscheidung.

    Nunja, die nächste Generation ist bereits angekündigt, AMD hat auch bereits mit den Säbeln gerasselt "kauft die nicht, wir kommen auch mit was neuem, was noch schneller ist!"
    ... da bleibt dann nur zu hoffen, dass die Herrn von AMD auch liefern können, was sie versprechen.

    Das aus meiner Sicht interessanteste im Artikel war eigentlich G-Sync. Es funktioniert genau in den Situationen, für die es gedacht ist. Von mir aus dürfte das in restlos alle Monitore verbaut werden.
    Auch Leute an High-End-Monitoren möchten gelegentlich mal ein Spielchen spielen! ;)
    0
  • Gucky68
    Hi habe das Glück den Acer Monitor nebst 2 mal GTX980 SLI nutzen zu können und kann dem Artikel nur voll und ganz zustimmen. Die immer angesprochenen Microruckler sind mir anscheinend durch Gsync bisher auch nicht aufgefallen. Kann nur bestätigen, dass sich Gsync mehr lohnt als die 120/144Hz Monitore.
    0
  • FormatC
    Exakt so schaut's aus. Ich habe ebenfalls ein SLI mit zwei wassergekühlten 980ern. Der Unterschied zwischen den Wiedergabequalitäten mit und ohne GSync ist frappierend und unterscheidet am Ende auch sehr deutlich zwischen Ekelanfall und wohliger Zufriedenheit beim Zocken :D
    1
  • klomax
    65059 said:
    ... ich könnte mir diese Karte bequemst aus der portokasse leisten, aber warum? Ich habe einfach den Anspruch nicht und bin vorrläufig mit meiner 290X mehr als zufrieden ;)


    Eine löbliche Einstellung. - Was gut funktioniert, das kann man auch eine Weile weiter benutzten und sich amortisieren lassen.

    Ich denke, dass es aber auch viele Leute gibt, die Spaß am Ausprobieren haben, wenn was Neues kommt. - Die, und natürlich die Dickschiff-Poser, sind ein lukrativer Kundenstamm für die Hersteller.

    Bei mir reicht's nur für (untere) Mittelklasse, mehr Geld gebe ich tatsächlich eher für die Spiele aus. - Die müssen dann auch auf einer flotten R7 einigermaßen laufen, mit ein paar Abstrichen. :)

    Die GTX 960 wäre daher eher mein Geschmack, wenn sie im Preis noch ein bisschen fällt.
    0