Anmelden mit
Registrieren | Anmelden

Nvidia GeForce GTX Titan 6 GB: GK110 auf einer Gamer-Karte

Nvidia GeForce GTX Titan 6 GB: GK110 auf einer Gamer-Karte
Von , Chris Angelini

Ein Jahr lang spekulierten alle über eine Flaggschiff-Gamerkarte mit etwas Größerem und Komplexerem als der GK104-GPU. Nun steht Nvidia kurz davor, die GeForce GTX Titan mit GK110-Chip auf den Markt loszulassen. Monsterkarte oder Mondpreiskandidat?

Nvidias GK110-GPU, bislang ausschließlich auf den Tesla-Karten K20 und K20X zu finden, besteht aus 7,1 Milliarden Transistoren. Zurzeit leben auch mehr als 7 Milliarden Menschen auf unserem schönen Planeten. Könnte man diesen Grafikchip also in Stücke zu je einem Transistor zerteilen, könnte man jedem Erdenbürger eines davon geben. Und wir haben gleich drei Grafikkarten mit je einem dieser Monsterchips, die das Herzstück von Nvidias neuer GeForce GTX Titan bilden, hier im Labor.

Laut Nvidia handelt es sich beim GK110 um den größten Chip, den Auftragsfertiger TSMC mit seinem 28-nm-Verfahren herstellen kann. Es scheint nun naheliegend, dass eine solche GPU teuer, stromhungrig und heiß sein und zudem noch mit einer geringen Chipausbeute zu kämpfen haben müsste. Und zwei dieser Annahmen treffen auch voll zu. Die anderen allerdings überraschenderweise nicht.

Die GTX Titan – für einen Neuling recht vertraut

Trotz ihres großen und hochkomplexen Grafikchips ist die GeForce Titan GTX beileibe keine riesige Karte. Tatsächlich ordnet sie sich mit ihren 26,7 cm ziemlich genau zwischen einer GeForce GTX 680 (25,4 cm) und der GeForce GTX 690 (knapp 28 cm) ein. Und wo die GeForce GTX 680 aufgrund ihrer Plastikverkleidung ein wenig billig wirkte, punktet die GTX Titan mit einer soliden, ansehnlichen Verschalung, die eindeutig von der GeForce GTX 690 abstammt.

Zwischen diesen beiden High-End-Karten existieren aber zwei nicht unwesentliche Unterschiede: Während die GTX 690 einen Axiallüfter braucht, um ihre beiden GPUs effektiv zu kühlen, sitzt auf der GeForce GTX Titan ein Radiallüfter, der die warme Abluft am Kartenende aus dem Gehäuse bläst. Mit anderen Worten: Die Heißluft wird nicht im Gehäuse zirkuliert – definitiv ein Vorteil. Leider ließ uns Nvidia aber auch wissen, dass die aus einer Magnesiumlegierung bestehende Verkleidung zu teuer war, und so besteht die gesamte Verschalung (bis auf das Kunststofffenster – eine weitere Anleihe bei der GTX 690) aus Aluminium

Radiallüfterkonstruktionen stehen oft in der Kritik, lauter als Axiallüfter zu sein. Das können wir zum Teil bestätigen, denn zwingt man den Lüfter manuell dazu, im obersten Drehzahlbereich zu rotieren, brüllt er einem seinen Protest förmlich vor. Überlässt man das Wärmemanagement und damit die Lüftersteuerung allerdings der Karte, dann ist die GeForce GTX Titan fast nicht zu hören. Zum Teil führt Nvidia das auf die Vapor-Chamber-Kühltechnik zurück, die sowohl bei Nvidias als auch AMDs High-End-Karten zum Einsatz kommen. Zusätzlich sollen aber auch eine bessere Wärmeleitpaste, die längeren Kühlrippen und das Dämmmaterial rund um den Lüfter ihren Beitrag zum geringeren Geräuschniveau leisten.  

Aber nicht nur bei Ästhetik und Akustik ähneln sich GeForce GTX Titan und GeForce GTX 690. Wie das Dual-GPU-Flaggschiff trägt auch die neue Karte entlang der Kartenkante ein „GeForce GTX“-Logo. Hier wie dort ist der grüne Text durch LEDs hintergrundbeleuchtet, und die Intensität lässt sich mithilfe der beigelegten Software regeln.

Vor der hinteren Anschlussleiste der Titan finden sich zwei SLI-Kontaktleisten. Nvidia erlaubt bei dieser Karte Konfigurationen mit zwei, drei und sogar vier Karten, wobei selbst der Hersteller freimütig zugibt, dass diese letzte Variante wohl vor allem dazu dienen dürfte, neue Benchmark-Rekorde zu setzen. Für normales Spielen ist ein Vier-Karten-Verbund sicherlich überdimensioniert.

Schon eine einzelne GeForce GTX Titan kann bis zu vier Displays gleichzeitig antreiben, drei davon im Surround-Modus. Display Nummer vier dient derweil für andere Aufgaben, beispielsweise um ein Browser-Fenster, ein Video oder eben Emails zu zeigen. Jedenfalls muss man dazu aber auch alle vier verfügbaren Display-Anschlüsse einsetzen, also die beiden Dual-Link DVI-Ausgänge sowie den jeweils in voller Größe vorliegenden HDMI- und Display-Port. Stecken zwei oder mehr Titan-Karten im System, fällt die Displaykonstellation entsprechend flexibler aus.

Obwohl die GK110-GPU der GTX Titan riesig ist, zeigt sie sich als weniger stormhungrig als zwei rund 3,5 Milliarden Transistoren umfassende GK104-Chips, die gemeinsam eine GeForce GTX 690 antreiben. Die Dual-GPU-Karte ordnet Nvidia mit einer TDP von 300 Watt ein, weshalb sie auch mit zwei 8-Pin-Stecker versorgt werden muss.

Die GeForce GTX Titan kommt laut Herstellerangaben mit 250 Watt aus, ebenso viel wie eine Radeon HD 7970. Dementsprechend trägt sie auch nur einen 6-Pin- und einen 8-Pin-Stromanschluss. Wenn wir alle Anschlüsse zusammen rechnen, dann kommen wir auf 75 Watt vom PEG-Slot, weitere 75 Watt vom 6-Pin-Stecker und 150-Watt aus der 8-Pin-Leitung, womit bei der Stromversorgung noch ausreichend Luft nach oben ist. Nvidia empfiehlt, dieser Karte mindestens ein Netzteil der 600-Watt-Klasse zur Seite zu stellen. Schaut man sich aber bei Komplettsystemanbietern um, stellt man fest, dass die meisten in ihren Mini-ITX-Rechnern Modelle mit 450 oder 500 Watt verbauen.


GeForce GTX Titan
GeForce GTX 690
GeForce GTX 680
Radeon HD 7970 GHz Ed.
Shader2.688
2 x 1.536
1.536
2.048
Textureinheiten
224
2 x 128
128
128
Full Color ROPs
48
2 x 32
32
32
GPU-Takt
836 MHz
915 MHz
1,006 MHz
1,000 MHz
Textur-Füllrate
187,5 Gtex/s
2 x 117,1 Gtex/s
128,8 Gtex/s
134,4 Gtex/s
Speichertakt
1.502 MHZ
1.502 MHz
1.502 MHz
1.500 MHz
Speicherbus
384-bit
2 x 256-bit
256-bit
384-bit
Speicherbandbreite288.4 GB/s
2 x 192.3 GB/s
192.3 GB/s
288 GB/s
Grafikspeicher
6 GB GDDR5
2 x 2 GB GDDR5
2 GB GDDR5
3 GB GDDR5
Die-Größe
551 mm2
2 x 294 mm2294 mm2365 mm2
Transistoren (Milliarden)
7,1
2 x 3,54
3,54
4,31
Strukturbreite
28 nm
28 nm
28 nm
28 nm
Stromanschlüsse
1 x 8-pin, 1 x 6-pin2 x 8-pin
2 x 6-pin
1 x 8-pin, 1 x 6-pin
Maximaler Stromverbrauch Power
250 W
300 W
195 W
250 W
Straßenpreis (US-Dollar)
$999*
$1,000
$460
$430

*UVP im US-Markt; Deutsche UVP: 950 Euro

Traut man sich, den mächtigen Kühler zu entfernen, kann man direkt auf die massive GPU, die Speicherchips und die Spannungsregulierung blicken.

Der GK110-Grafikprozessor läuft mit mindestens 836 MHz. Allerdings steht ihm auch eine verfeinerte Version von Nvidias GPU Boost zur Verfügung, und Nvidia verspricht, im Regelfall mit 876 MHz zu arbeiten. Aus eigener (Test-)Erfahrung im Rahmen unseres Launchartikels GeForce GTX 680 2GB im Test: Kepler schickt Tahiti auf die Insel wissen wir aber auch, dass Turbo Boost stark von einer Vielzahl von Faktoren beeinflusst wird – beispielsweise der Umgebungstemperatur. In unsererem World-of-Warcraft-Benchmark kommt die GTX Titan beispielsweise nur auf 70 Prozent ihrer maximal erlaubten Leistungsaufnahme. So taktet sich die GPU auf 933 MHz hoch, während sich die Kartentemperatur bei 77° Celsius einpendelt. Zu GPU Boost 2.0 schreiben wir gleich noch mehr.

Vorn wie hinten trägt die Karte zwölf 2-Gb-GDDR5-Speichermodule, was insgesamt 6 GB GDDR5-Speicher ergibt. Die 0,33-ns-Module stammen von Samsung und sind für bis zu 6.000 Mb/s zertifiziert, und Nvidia betreibt sie mit 1.502 MHz. An einen 384 Bit breiten Speicherbus angeschlossen liefern sie damit 288,4 GB/s an Speicherdurchsatz.

In der hinteren Hälfte der GTX Titan sind die sechs Spannungsphasen der GPU und die zwei Phasen für den Speicher recht einfach zu identifizieren. Zum Vergleich: Bei der GeForce GTX 690 verbaute Nvidia noch fünf Phasen pro GPU (also insgesamt zehn) sowie je eine Phase pro GPU für den Speicher. Das ist deshalb bemerkenswert, weil Nvidia bei der GeForce GTX Titan overvolting ermöglicht und erlaubt, was sich direkt auf die höchste Boost-Frequenz auswirkt, die die Karte dann erreichen kann. Indem wir die Spannungsregler in EVGAs Precision X bis zum Anschlag aufdrehten, konnten wir bei unserem Testexemplar die Taktfrequenz von den „typischen“ 876 MHz bis auf 1,2 GHz anheben. Dennoch blieb die GPU jederzeit unter einem vordefinierten Grenzwert von 87° Celsius.

17 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Faboan , 19. Februar 2013 15:52
    nützt alles nichts.jeder hat gewusst dass damit nochmal ordentlich leistung geliefert wird.
    das ist zwar schön,zu dem preis allerdings nutzlos.

    ist schön dass nvidia mit solcher technik/leistung protzt,aber unterm strich soll doch geld verdient werden?
    oder bleibts beim muskeln zeigen und wieder verschwinden?falls dem so ist: spart euch das in zukunft nvidia.ich will nicht wissen was ihr könnt,ich will wissen was ihr mir zu preisen verkaufen könnt die in irgendeiner art noch gerechtfertigt sind.
  • 7664stefan , 19. Februar 2013 16:21
    Einfache VWL. Auch für dieses Angebot wird es einen Markt, Preis und Käufer geben.
    Es gibt ja auch Menschen, die sich einen Lamborghini Diablo leisten.
    Ich frag mich gerade, wie man den ein Tripple-SLI aus Titanen ordentlich kühlen will?
  • Faboan , 19. Februar 2013 17:00
    dass das leute kaufen ist klar und auch völlig ok.
    sie passt preis/leistungstechnisch eben nicht wirklich rein (sofern man den einschätzungen glauben schenken darf)

    mini-ITX besitzer....are you fuckin serious?nennt mich ausverschämt aber meines wissens nach stellen die nicht die breite masse dar und sind daher wohl kaum eine profitable "zielgruppe"

    in meinem umfeld besitzen einige ein mini ITX (inklusive mir) aber da steck ich doch sowas nicht rein.überhaupt kenne ich keinen der annähernd midrange im mini ITX hätte.

    naja also doch erst wieder die gtx7 ernst nehmen.
  • texas , 19. Februar 2013 20:37
    Mal abwarten wie die Karte im Anwendungsbereich abschneiden wird, z.B. Videoschnitt mit Cuda. Vielleicht eine günstige Alternative zu den Profi-Karten.
  • alterSack66 , 19. Februar 2013 21:51
    Zitat :
    Testsystem bestehend aus Asus Rampage IV Extreme X79-Mainboard mit Core i7-3970X und 32 GB RAM in Quad-Channel-Konfiguration, zwei Corsair Neutron GTX-SSDs als 480 GB großes Striped RAID und drei der GeForce Grafik-Titanen
    Kann ich das Testsystem haben? :pt1cable:  Netzteil und Gehäuse dazu kann ich mir grad noch leisten.
  • kaan , 20. Februar 2013 01:52
    Damit könnte man wieder Vsync auf ein 144hz Monitor aktivieren.
  • Andreas Hecht , 20. Februar 2013 14:45
    Welches Gehäuse ist den das in dem die Titan verbaut ist?
  • benkraft , 21. Februar 2013 11:36
    Zitat :
    Welches Gehäuse ist den das in dem die Titan verbaut ist?


    @Andreas Hecht: Mehr dazu findest du in der englischen Version des Artikels (konkret hier: http://www.tomshardware.com/reviews/geforce-gtx-titan-gk110-review,3438-5.html). Es handelt sich um ein Komplettsystem eines US-Amerikanischen Anbieters namens GeekBox. Das Gehäuse ist ein SilverStone Temjin TJ11B-W.
  • 7664stefan , 21. Februar 2013 11:37
    Zitat :
    Welches Gehäuse ist den das in dem die Titan verbaut ist?


    Ähnelt stark dem Silverstone Raven Evolution was bei 3 Hitzköpfen wahrscheinlich die einzig sinnvolle Kühlmöglichkeit ist, um Überhitzen zu vermeiden. Der kommende Test wird es zeigen.
  • benkraft , 21. Februar 2013 11:42
    Zitat :
    Zitat :
    Welches Gehäuse ist den das in dem die Titan verbaut ist?


    Ähnelt stark dem Silverstone Raven Evolution was bei 3 Hitzköpfen wahrscheinlich die einzig sinnvolle Kühlmöglichkeit ist, um Überhitzen zu vermeiden. Der kommende Test wird es zeigen.


    Jap, lange ist es nicht mehr hin. ;) 
    Aber wir testen generell in einem offenen Aufbau.
  • borizb , 21. Februar 2013 14:28
    Sorry, aber der dauernde Vergleich mit SLI und CF Systemen hinkt doch schon lange. Ich bete gerne wieder alle Nachteile (Lautstärke, Stromverbrauch, Hitzeentwicklung, Mikroruckeln, Unterstützung von Spielen) runter, die man mit ner Single Karte einfach nicht hat, das scheint bei eurer (Be)Wertung komischerweise aber nur recht wenig einzufließen.

    Man hätte sich somit eher Sätze erhofft wie: Nvidia legt die Messlatte ganz nach oben / Die weltschnellste Serien Gamingkarte / Pure unverfälschte Leistung bei mega Bildqualität.

    Stattdessen jammert ihr wieder mal am Preis rum, der sicher keine Rolle spielt, denn sowas kaufen sich Leute die sich das leisten können, und nicht Leute die aufs Budget achten müssen.

    Eigentlich müsste somit sich das Thema darauf beschränken, ob jemand der die Kohle übrig hat, eine Single Grafikkartenlösung bekommt, die das beste ist, was man für Geld kaufen kann. Ihr geht das falsch an.

    Computerbase's Fazit trifft dagegen voll ins Schwarze: http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/22/
  • 7664stefan , 21. Februar 2013 14:40
    Zitat :
    Zitat :
    Zitat :
    Welches Gehäuse ist den das in dem die Titan verbaut ist?


    Ähnelt stark dem Silverstone Raven Evolution was bei 3 Hitzköpfen wahrscheinlich die einzig sinnvolle Kühlmöglichkeit ist, um Überhitzen zu vermeiden. Der kommende Test wird es zeigen.


    Jap, lange ist es nicht mehr hin. ;) 
    Aber wir testen generell in einem offenen Aufbau.


    Ben, dann verratet doch bitte auch (rein informativ) wie warm denn das triple-SLI im geschlossenen Gehäuse werden würde. Ich erinnere mit da an den Backofen vom Igor, in dem das Spielgelei gebrutzelt wurde. :D 
    http://www.tomshardware.de/HD6990-GTX590-Corsair-Obsidian-800D,testberichte-240761-12.html
  • benkraft , 21. Februar 2013 16:49
    Zitat :

    Ben, dann verratet doch bitte auch (rein informativ) wie warm denn das triple-SLI im geschlossenen Gehäuse werden würde. Ich erinnere mit da an den Backofen vom Igor, in dem das Spielgelei gebrutzelt wurde. :D 
    http://www.tomshardware.de/HD6990-GTX590-Corsair-Obsidian-800D,testberichte-240761-12.html


    Ich werde Chris mal fragen, aber die Dimensionen von damals erreichen wir sicher nicht. Die Titan hat ja einen Radiallüfter und schiebt die Abluft komplett aus dem Gehäuse - damit scheidet die Nutzung als Umluftbackofen eher aus...

    Update: Chris sagt, er wird die Karten noch mal in das SilverStone stecken. Er hat aber leider gerade ziemlich viel um die Ohren; ich kann also leider nicht sagen, wann er mal dazu kommt...
  • WolfsFac3 , 25. Februar 2013 13:15
    Interessanter Artikel über ne schöne Graka, vielen dank! Aber kann es sein, dass ihr euch auf Seite 1 verschrieben habt bei der Speicherangabe? Vielleicht bin ich ja auch doof, aber vorn wie hinten 12x2Gb-Module ergeben bei mir 48Gb und nicht 6? ^^
    Frage am Rande: Warum redet eigentlich in solchen Vergleichstests niemand mehr über die 4Gb-Variante der GTX 680? Ist die so uninteressant? Schade...
  • benkraft , 25. Februar 2013 16:19
    Zitat :
    Interessanter Artikel über ne schöne Graka, vielen dank! Aber kann es sein, dass ihr euch auf Seite 1 verschrieben habt bei der Speicherangabe? Vielleicht bin ich ja auch doof, aber vorn wie hinten 12x2Gb-Module ergeben bei mir 48Gb und nicht 6? ^^


    8 Bit sind ein Byte. Teilt man also 48 Gbit (12 Module a 2 Gbit x2, weil vorn und hinten) durch 8, bekommt man 6 GByte.
  • WolfsFac3 , 26. Februar 2013 00:59
    Ok, mein Fehler. Danke für die Korrektur!
    Bleibt die Frage, warum sich niemand mehr um die 'große' 680er schert?
  • 7664stefan , 26. Februar 2013 08:58
    Weil der minimale FPS-Gewinn nur bei hohen Auflösungen zum Tragen kommt, und dann auch die 680 nicht mehr wirklich Spaß macht. :D 

    Ich finde gerade keinen besseren Test: http://www.tweaktown.com/reviews/4665/palit_jetstream_geforce_gtx_680_4gb_video_card_review/index9.html

    Es gibt auch Games, bei denen die 680 mit 4GB VRAM weniger FPS produziert, als das 2GB Modell.