[UPDATE] Nvidia Titan X 12 GB: Neues Single-GPU-Flaggschiff

Neuer Monat, neue Pascal-GPU: Nvidias neue Titan X ist leistungsstärker als die GP104-basierte GeForce GTX 1080, obwohl beide Karten dieselbe DNA haben. Für rund 1200 US-Dollar wird sie aber wohl nur bei betuchten Enthusiasten zum Einsatz kommen.

Ihr habt ein Händchen für Wechselkursspiele mit Britischem Pfund und Japanischen Yen? Ihr besitzt ein fantastisches Rezept für eine scharfe Soße, die weltweit vertrieben wird? Ihr seid just zum Partner in der Firma eures Schwiegervaters aufgestiegen? Wer eine dieser Fragen bejahen kann, gehört zu einer Elite, die sich keinerlei Sorgen um Geld machen muss und neben einem Strandhaus auch einen Bentley und reichlich Bulgari-Schmuck besitzt.

UPDATE 16.08.2015: Mit dem heutigen Update erweitern wir unseren Launch-Artikel von Nvidias GeForce GTX Titan X 12GB auf Pascal-Basis um die Messungen zu Leistungsaufnahme, Temperaturverhalten und Betriebsgeräusch, die - neben anderen Inhalten - wir von Tom's Hardware Deutschland wegen unserer besonderen Messmöglichkeiten beisteuern.

Wie ihr wisst, sind diese Seiten normalerweise Teil des eigentlichen Launch-Artikels, der in diesem Fall am 3. August veröffentlich wurde.

Da Nvidia uns diesmal aber keine eigene Karte stellen konnte oder wollte, mussten wir das Tests-Sample unserer US-Kollegen nach Abschluss ihrer Messungen einfliegen lassen, was leider eine zeitliche Verzögerung bedeutet. Aber nun ist der Artikel ja endlich komplett.

Und für genau diese erlesene Käuferschicht bietet Nvidia nun auch die passende Grafikkarte für den heimischen Gaming-PC an: Die Titan X. Diese basiert auf der neuen GP102-GPU, bringt 3584 CUDA-Cores sowie 12 GByte GDDR5X mit, die über ein 384 Bit breites Speicherinterface angebunden sind. Die Karte wird nur über Nvidias eigenen Shop verkauft werden und soll 1200 US-Dollar kosten.

Bevor überhaupt ein einziges Benchmarkresultat veröffentlicht wurde, erhielt Nvidia bereits viel Lob für den Launch der dritten Pascal-GPU in ebenso vielen Monaten. Gleichzeitig gab es aber auch viel Kritik für den Preisaufschlag für das neue Flaggschiff – mit diesem Vorgehen hatte sich bereits zuvor Intel die Finger verbrannt, als der Core i7-6950X zu einem bis dato noch nie dagewesenen, offiziellen Verkaufspreis von 1723 US-Dollar vorgestellt wurde.

Weitere interessante Tests und Artikel zum Thema Grafikkarten
>>>   THDE intern: So messen und bewerten wir die Grafik-Performance
>>>   Pascal-Roundup: Nvidias GeForce GTX 1070 und GeForce GTX 1080 im Vergleich
>>>   Pascal-Roundup #2: Nvidia GeForce GTX 1060 im Vergleich
>>>   Nvidia GeForce GTX 1080 Founders Edition (Pascal, Launch-Artikel)
>>>   Nvidia GeForce GTX 1070 Founders Edition (Pascal, Launch-Artikel)
>>>   Effizienzanalyse & Leistungsaufnahme: GeForce GTX 1070/1080 vs. GTX 980 Ti
>>>   AMD Radeon RX 480 8GB (Polaris, Launch-Artikel)
>>>   AMD Radeon RX 480 im Detail: Leistungsaufnahme, Board-Layout & Normen
>>>   AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich
>>>   AMD Radeon RX 470 4GB (Polaris, Launch-Artikel)
>>>   AMD Radeon RX 460 4GB (Polaris, Launch-Artikel)
>>>   Maxwell-Roundup: GeForce GTX 970 und GeForce GTX 980 im Vergleich

Diejenigen, die sich grundsätzlich nur das Beste vom Besten kaufen, werden sich trotzdem nur wenig um die schleichende Luxussteuer kümmern. Alle, die ihren PC produktiv und erwerbsmäßig nutzen, werden ebenfalls bereitwillig einen Premium-Aufschlag zahlen, um in kürzerer Zeit mehr Aufgaben erledigen und somit mehr Geld verdienen zu können.

Die Titan X kostet 70 Prozent mehr als eine GeForce GTX 1080, bietet dafür 40 Prozent mehr CUDA-Cores und 50 Prozent mehr Speicherbandbreite. Uns war somit bereits vor dem Erhalt eines Testmusters klar, dass Preis und Leistung kaum linear skalieren würden. Aber dennoch waren wir sehr gespannt auf die Benchmark-Werte. Die Kernfrage ist die folgende: Ist die Titan X in der Lage, bei 4k-Auflösung deutlich mehr FPS als alle anderen Single-GPU-Lösungen zu bieten und endlich High-Quality-Gaming deutlich jenseits von 1920 x 1080 Pixeln möglich zu machen?

GP102: Wie die GP104-GPU, nur größer

Erstmals zeigte uns Nvidia die GP104-GPU (High-End-Ausbaustufe der Pascal-Architektur) in Form der GeForce GTX 1080. Im Geiste ist diese GPU der Nachfolger des GM204-Chips (High-End-Ausbaustufe der Maxwell-Architektur), der zuletzt auf der GTX 980 zum Einsatz kam. Da die Vorstellung der Pascal-Architektur mit der Umstellung des Fertigungsprozesses auf 16-nm-FinFET und mit der Einführung des schnelleren GDDR5X-Speichers zusammenfiel, war es der GTX 1080 möglich, 30 Prozent und mehr FPS zu liefern als die GTX 980 Ti oder die alte Version der Titan X, die beide noch auf GM200-Basis arbeiteten (Ultra-High-End Ausbaustufe der Maxwell-Architektur).

Aufgrund dieses erheblichen Leistungsplus hielt sich der Wunsch nach einer noch größeren Ausbaustufe zunächst zumindest ein wenig in Grenzen – vor allem, da bereits im Vorfeld klar war, dass der GP100 mit seinen 15,3 Milliarden Transistoren (Ultra-High-End-Ausbaustufe der Pascal-Architektur) nicht für den normalen Desktop-Einsatz, sondern für GPU-Compute-Operationen gedacht sein würde.

Mit dem GP102-Chip bietet Nvidia eine Zwischenstufe zwischen Highest-End-GPU und GP104 an. Die Architektur des GP102 ist der des GP104 sehr ähnlich, die neue GPU fällt allerdings größer aus. Hier gibt es sechs statt vier Graphics-Processing-Cluster und aus 20 Streaming-Multiprozessoren (SM) werden 30. Bei 128 FP32 CUDA Cores pro SM kommt der GP102 auf insgesamt 3840 programmierbare Building Blocks. Der Chip selbst ist ausgesprochen komplex und besteht aus 12 Milliarden Transistoren. Um die Chip-Ausbeute zu verbessern, deaktiviert Nvidia bei der Titan X zwei SMs, wodurch die Anzahl der tatsächlich zur Verfügung stehenden CUDA Cores auf 3584 beschnitten wird. Da jeder SM auch acht Textureinheiten beinhaltet, schrumpft deren Anzahl ebenfalls auf 224.

Die Spezifikationen der Titan X nennen eine Basistaktrate von 1417 MHz, wobei der typische Boost-Takt im Bereich von 1531 MHz liegt. Dadurch erreicht die Grafikkarte eine FP32-Rate von über 10,1 TFLOPS, das sind 23 Prozent mehr als bei der GeForce GTX 1080.

Zweifelsfrei hätte die GP104-GPU von einem noch breiteren Speicherinterface profitieren können, vor allem bei der Wiedergabe von 4k-Inhalten. Aber das höhere Potential des GP102-Chips im Bereich Shading und Texturing erfordert ein Rebalancing. Das Backend der GPU wächst somit auf 12 32-Bit-Speichercontroller an, wobei jeder an acht ROPs und 256 KByte L2 Cache (wie beim GP104) gebunden ist, was sich somit insgesamt zu 96 ROPs und 3 MByte Shared Cache summiert. Der Speicher ist über ein 384 Bit breites Interface angebunden, an dessen Ende 12 GByte GDDR5X mit 10 Gbit/s sitzen. Diesen GDDR5X kennen wir bereits von der GTX 1080.

Die theoretische Speicherbandbreite liegt bei 480 GByte/s (50 Prozent mehr als bei der GTX 1080 mit 320 GByte/s), obwohl der effektive Durchsatz eingedenk der Verbesserungen der Delta Color Kompression der Pascal-Architektur höher ausfallen sollte.

Warum wird aber immer noch auf GDDR5X gesetzt, zumal AMD uns die Vorteile von HBM-Speicher bereits vor über einem Jahr vor Augen führte? Möglicherweise war sich Nvidia während des Design-Prozesses des GP102 nicht sicher, ob eine kontinuierliche HBM2-Versorgung gewährleistet werden könne und setzte deshalb mit GDDR5X auf die sichere Option. Damit bleiben GP100-basierte Grafikkarten die einzigen in Nvidias Lineup, auf denen bereits HBM2 zum Einsatz kommt.

GPUTitan X (GP102)GeForce GTX 1080 (GP104)Titan X (GM100)
SMs282024
CUDA Cores358425603072
GPU Basis-Takt1417 MHz1607 MHz1000 MHz
GPU Boost-Takt1531 MHz1733 MHz1075 MHz
GFLOPs (Basistakt)10,15782286144
Textureinheiten224160192
Texel Füllrate342,9 GT/s277,3 GT/s192 GT/s
Speicher-Übertragungsrate10 Gbit/s10 Gbit/s7 Gbit/s
Speicher-Bandbreite480 GByte/s320 GByte/s336.5 GByte/s
ROPs966496
L2 Cache3 MByte2 MByte3 MByte
TDP250 Watt180 Watt250 Watt
Transistoren12 Milliarden7,2 Milliarden8 Milliarden
Fläche des DIE471 mm²314 mm²601 mm²
Fertigungsprozess16nm16nm28nm

Interessant ist, dass Nvidia sich offenbar in letzter Minute dazu entschloss, mit der Titan X auf Distanz zur Gaming-Familie der GeForce-Reihe zu gehen. Auf der Geforce.com-Landing-Page wird sie als „The World’s Ultimate Graphics Card“ angepriesen und der Zusatz „Gaming“ somit ausgelassen. Da wir es hier aber im Prinzip einfach mit einer größeren Version des GP104 zu tun haben, sollte die Titan X sich auch in der Gaming-Disziplin entsprechend gut schlagen.

Nvidias Entscheidung, die Titan X bei einem AI-Treffen an der Stanford University zu präsentieren, zeigt, dass sich der Hersteller diesmal mehr auf den Deep-Learning-Bereich konzentriert. Während FP16- und FP64-Operationen auf dem GP104 fürchterlich langsam ablaufen (das gilt somit auch für den GP102), unterstützen beide GPUs INT8 bei 4:1, wodurch sich beim Basistakt der Titan X 40,6 TOPS ergeben.

Folgt Tom's Hardware Deutschland auf Facebook, Google+ und Twitter.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
42 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • konradw
    Auf Seite 4 ist beim ersten Absatz das 4K Ergebnis reingerutscht, statt dem QHD!
  • bluray
    NVidia hat die Titan X konsequent weiterentwickelt. Habe selbst 2 TitanX auf Maxwell-Basis im Rechner drin. Die Karten haben eine extrem hohe Performance. Allerdings eben stattliche 2400 CHF, die ich dafür auf den Ladentisch gelatzt habe. Bei 4K läuft momentan jedes Spiel aus meiner Sammlung mit gut 60fps. Solange man nicht solche Schmakazien, wie 2xSSAO aktiviert, sollten solche Karten also dicke langen.

    Wer weiss, wenn NVidia seine 11xx-Generation herausbringt, was sich bis dahin alles tut. Aber derzeit sehe ich keinen Drang, auf die neue TitanX zu setzen...
  • Atent12345
    Wo bleibt der OC Test mit Wakü und Custom Bios wie es sich für eine Titan gehört ?
  • fffcmad
    So langsam kommen die Karten in die uneingeschraenkte 4K Eignung. Ich denke der Titan haette HBM2 sehr gut getan.
  • FormatC
    Anonymous sagte:
    Wo bleibt der OC Test mit Wakü und Custom Bios wie es sich für eine Titan gehört ?

    Erstens gibt es noch keine Fullcover zu kaufen (nur Vorbestellungen) und zweitens gibts aktuell kein OC-.BIOS. Drittens kommt die Karte erst per Post aus Kalifornien zu mir, Nvidia hatte sie an Chris geschickt. Dann sehen wir weiter :)
  • derGhostrider
    Ich bin erstaunt, dass die Grafikkarte so gut abschneidet, da ich weniger erwartet hätte.
    Vor allem haben mich dabei die Benchmarks beeindruckt, bei denen die minimale Framerate auf Augenhöhe der durchschnittlichen Framerate einer 1080 liegt, oder gar deutlich darüber.

    Ja, die Karte ist sau teuer. Ja, Preis/Leistung ist deutlich schlechter als bei der 1080 und noch viel schlechter, als bei einer 1060 oder RX480.
    Alles richtig.

    Die gebotene Leistung ist allerdings durchweg beeindruckend. Niedrige Latenzen, hohe minimale Frameraten.

    Da werde ich wohl bei der nächsten Graka-Generation doch mal wieder zugreifen... und dann auch endlich den Rechner ersetzen. ;)
  • FormatC
    Hubraum statt Spoiler :)
  • alterSack66
    Na ja, wer vernünftig 4K mit einer Einzelkarte spielen will muss halt paar Euro locker machen.
  • Joel__
    FormatC übertakte die Karte mal auf 1700mhz und lass GTA V in UHD damit laufen. Wäre noch interessant wie hoch die Karte mit dem Radiallüfter getaktet werden kann und ob sie dann noch Stabil läuft.
  • alterSack66
    1700 MHz? Sehr optimistisch.
  • kleinstblauwal
    Ach, Lüfter auf 100% stellen und den Kaltluftschlauch der Klimaanlage direkt auf den Lüfter richten. ... falls man nicht gleich zu einer GPU-Only WaKü greift und den Rest der Platine mit Aluklötzchen vollklebt und einen Luftstrom darauf richtet.
    Es ist halt fraglich, ob die Spannungsversorgung irgendwann dicht macht.
  • Jolly91
    Das sind alles nur spekulationen.

    Das einzige was man im Moment machen kann, ist einen alternativen Kühler, sei es Wakü, Lukü (Morpheus, Accelero, MK-26, Peter 2, etc...) draufzuschnallen um den Chip im Zaun zu halten.

    Wen der jetzt schon runtertaktet, kann man auch 2.000mhz reintippen und am Ende bekommt man sowieso nur 1.600mhz raus.
  • Joel__
    Jayztwocents hat schon 1721mhz in GTA erreicht durch den Lüfter. Muss man nur einstellen. 2000Mhz schafft er mit einem 3 Radial Lüfter locker. Oder man kann es auch in Öl eintauchen wie es Linustechtips getan hat, seine übertaktete Karte lief auf 49 Grad. Also kann man da locker 2000Mhz pushen mit nur 60 Grad GPU :)
  • fffcmad
    In Öl einlegen? Ist doch keine Sardine. Und das Öl krabbelkt ueberall lang. Auch durch die Kabel. Neee :
  • Zockerherz
    Im Test fehlt eine RX480 damit der grüner Balken länger wird um den Preis schön zu reden.
  • FormatC
    Was hat jetzt eine Mittelklasse-Karte mit dem High-End zu tun? Wir könne ja auch gern noch die damaligen Einstiegspreise der FuryX mit dazu stellen... ;)
  • bigreval
    Für mich absolut enttäuschend. Ich habe auf den GP-100 im Vollausbau MIT HBM2 gewartet, bzw. darauf spekuliert... Als Preis hatte ich so ca. 1800-1900 Euro angepeilt. Aber jetzt "nur" den 102, den auch noch beschnitten und "nur" DDR5X... Ne, Nvidia, so wird das mit mir nix werden... Und dann noch nicht mal Boardpartner-Karten. Könnte ja jemand mal richtig was gutes "Basteln", so mit richtig Leistung im Highest-End Bereich...

    Tut mir leid aber DAS ist nicht was ich mir für meinen Rechner als neue Graka erwartet habe. Schade das AMD die "grünen Jungs" nicht mehr so unter Druck setzen können wie früher... Dadurch entgeht uns Usern einiges an Technik zu, wenn auch sehr hohen, Preisen...
  • manowar
    doppel Post sorry
  • Jolly91
    Bleibt nur auf die 1080 Ti zu warten. HBM2, 16gb Vram, und Partnerkarten.