Nvidias GeForce GTX 670 im Test: Königsmörderin aus den eigenen Reihen?

Die GeForce GTX 680 mit GK104-Chip ist gerade mal einen Monat alt, da schickt sich die kleine Schwester GTX 670 an, sie mit einem hervorragenden Preis-Leistungs-Verhältnis vom Thron zu schubsen. Kann Nvidia dieses Mal genug Karten liefern?

Es war zwar schon immer etwas teurer, die schnellste Hardware zu besitzen, aber die aktuelle Preisentwicklung würde manchem Börsenmakler die Freudentränen in die Augen treiben. Nvidias Dual-GPU-Flaggschiff der letzten Generation kostete laut UVP zum Start 639 Euro. Die GTX 295, die ihre vorausging, kostete runde 400 Euro. Will man heute die schnellste Grafikkarte der Welt sein Eigen nennen, muss man knapp 1000 Euro auf den Tisch legen - wobei die Preise natürlich aufgrund der schlechten Verfügbarkeit auch gerne nach oben ausschlagen. 

In dem Kontext betrachtet fällt es schwer bei den aktuellen High-End-Modellen mit ernster Mine von einem guten Preis-Leistungs-Verhältnis zu sprechen. Als Nvidia uns aber sagte, man plane die GeForce GTX 670 für 329 Euro (plus MwSt., also etwa 391 Euro) anzubieten, war unser Interesse geweckt.

An dieser Stelle wollen wir einen kurzen Exkurs zu den Preisen einlegen, um den Grundstein für unsere Preis-Leistungs-Analyse im Laufe des Artikels zu legen. Die UVPs der Karten lauten 499 Euro für die GeForce GTX 680, 391 Euro für die GeForce GTX 670 und, laut AMD, “erhältlich ab 399 Euro” für die Radeon HD 7970. Tatsächlich  kostet eine GTX 680, sofern man sie lagernd entdeckt, mindestens 475 Euro, während die Radeon HD 7970 derzeit bis auf einzelne Ausschläge nach unten (bis hin zu etwa 385 Euro) auch wirklich für um die 400 Euro angeboten wird.
Das große Fragezeichen ist nun der Marktpreis der GTX 670. Wird die UVP gehalten, läge die Karte nur knapp unter der Radeon HD 7970, vielleicht zwischen 10 und 20 Euro. Ist noch etwas Luft im Preis, kann der Abstand natürlich noch größer ausfallen. Was der Markt am Ende entscheidet, steht selbstverständlich in den Sternen. 

Interessant ist, dass das Preisgefüge in den USA sehr anders aussieht. Dort kostet eine GTX 680 499 Dollar, während die HD 7970 mit 479 Dollar aufwärts weit weniger attraktiv ist als hierzulande. Noch deutlicher als sonst unterscheidet sich das Fazit im Bezug auf das Preis-Leistungs-Verhältnis, denn nicht nur sind die Preise andere, die Verhältnisse  der Kartenpreise zu einander sind es ebenfalls.

Der zweite Auftritt des GK104

Natürlich ist ein ansprechender Preis nur eine Variable die bei einer Kaufentscheidung berücksichtigt wird. Ebenso wichtig sind Performance und Verfügbarkeit, was gerade bei Nvidia derzeit ein wunder Punkt ist.

Klar, dass die nächste Frage dann lautet: “Und wie schnell ist die GeForce GTX 670?”

Das werden die Benchmarks zeigen. Doch schon die technischen Daten verraten viel darüber, was wir erwarten dürfen. Wie schon die GeForce GTX 680 basiert auch Nvidias neueste Karte auf der GK104-GPU. Waren bei der GTX 680 aber alle acht SMX-Cluster des GK104-Chips aktiviert, sind bei der GTX 670 nur sieben freigeschaltet. Ansonsten bleibt alles gleich.

Das bedeutet, dass die GeForce GTX 670 über insgesamt 1344 CUDA Cores (192 * 7) und 112 Textureinheiten (16 * 7) verfügt. Außerdem hat sie eine PolyMorph-Engine, vier Warp Scheduler und acht Dispatch Units eingebüßt. Allerdings soll die Architektur so ausgelegt sein, dass das Abschalten eines SMX mit den anderen verfügbaren Ressourcen der GPU skaliert. Wir haben auch unsere üblichen Tessellation-Tests durchgeführt und dabei festgestellt, dass die GTX 670 nur minimal schlechter als ihre große Schwester dasteht.

Das Back-End der GK104-GPU bleibt vom chirurgischen Eingriff aber unberührt und besteht somit aus vier ROP-Clustern, die acht 32-Bit Ganzzahl-Pixel pro Takt ausgeben können, also insgesamt 32. Vier 64-Bit Speichercontroller ergeben zusammen ein 256 Bit breites Speicherinterface.

Nvidia bestückt den Speicherbus wie bei der GTX 680 auch hier mit 2 GB GDDR5-Speicher, der mit einem Takt von 1502 MHz und einer effektiven Datenrate von 6008 MT/s läuft. Um die GeForce GTX 670 noch weiter von der teureren GTX 680 abzusetzen, senkt Nvidia den Kerntakt der kleineren Karte auf nominal 915 MHz. Per GPU Boost kann er sich aber auf bis zu 980 MHz erhöhen. 

Wie sich zeigen wird, wirken sich diese gezielten Eingriffe bei weitem nicht so stark aus, wie man vermuten würde.


GeForce GTX 670
GeForce GTX 680
Radeon HD 7950
Radeon HD 7970
Shader1344
1536
1792
2048
Textureinheiten
112
128
112
128
Full Color ROPs
32
32
32
32
GPU-Kerntakt
915 MHz
1006 MHz
800 MHz
925 MHz
Texturfüllrate 102.5 Gtex/s
128.8 Gtex/s
89.6 Gtex/s
118.4 Gtex/s
Speichertakt
1502 MHz
1502 MHz
1250 MHz
1375 MHz
Speicherbus
256-bit
256-bit
384-bit
384-bit
Speicherdurchsatz192.2 GB/s
192.3 GB/s
240 GB/s
264 GB/s
Grafikspeicher
2 GB GDDR5
2 GB GDDR5
3 GB GDDR5
3 GB GDDR5
Die-Größe
294 mm²
294 mm²365 mm²365 mm²
Transistoren (Milliarden)
3.54
3.54
4.31
4.31
Strukturgröße
28 nm
28 nm
28 nm
28 nm
PCIe-Stromanschlüsse
2 x 6-pin
2 x 6-pin
2 x 6-pin
1 x 8-pin, 1 x 6-pin
Maximale Leistungsaufnahme
170 W
195 W
200 W
250 W
UVP laut Hersteller
391 Euro
499 Euro
ab 329 Euro
ab 399 Euro


Ein Blick aufs Board

Nvidias GeForce GTX 680 ist 25,4 cm lang, und diese Angabe gilt sowohl für die Platine selbst als auch für die Abdeckung. Eine robuster Aluminiumrahmen umläuft die gesamte Karte und verleiht ihr die nötige Festigkeit die sie braucht, um ihren kräftigen, schweren Vapor-Chamber-Kühler mitsamt einem auf ein niedriges Laufgeräusch optimierten Radiallüfter zu tragen.

Die Referenzkarte der GeForce GTX 670 ist hingegen mit 24,3 cm nur wenig kürzer, die Platine selbst bringt es aber nur auf etwas über 17 cm. Laut Nvidia erlaubt es die niedrigere Leistungsaufnahme der GTX 670, die Chips und Schaltungen für die Spannungsversorgung und -regulierung näher an die andere Seite des Chips zu legen. Der wurde  seinerseits etwas gedreht, was angeblich der Signalintegrität zugute kommt.

Nvidia nutzt den gleichen Kühler, der auch auf der GeForce GTX 680 zum Einsatz kommt und löblicherweise die warme Abluft am Kartenende aus dem Gehäuse bläst. Allerdings kommt eine preiswertere Variante des Kühlkörpers zum Einsatz. Wie sich in den Lautstärke- und Wärmemessungen zeigt, führt das dazu, dass die kleinere Karte unter Last etwas lauter und etwas wärmer wird. Insgesamt fallen die Unterschiede aber alles andere als gravierend aus, und die GTX 670 ist deswegen in diesen Punkten nur minimal weniger attraktiv.

Da die GTX 670 mit einem SMX weniger und einem niedrigeren Kerntakt antritt, liegt die typische Leistungsaufnahme der Karte laut Nvidia bei 141 Watt. Das sind rund 30 Watt weniger als bei der GeForce GTX 680, die im Normalfall 170 Watt und unter Volllast maximal 195 Watt verbrauchen soll. Da ein x16-Slot nur 75 Watt liefert, benötigt die GTX 670 zwei 6-Pin PCIe-Stromanschlüsse, um den restlichen Energiebedarf zu decken. Für den Fall, dass man vergisst die zusätzliche Stromversorgung anzuschließen, hat Nvidia einen Warnhinweis eingebaut, der noch vor dem Booten angezeigt wird und den Nutzer daran erinnert, die fehlenden Kabel anzustecken.

Die GTX 670 trägt die gleichen vier Monitoranschlüsse wie die GeForce GTX 680, also zwei Dual-Link DVI-Buchsen (je einmal DVI-I und DVI-D) sowie je einen HDMI-Anschluss und einen DisplayPort-Ausgang in voller Größe. Alle vier lassen sich gleichzeitig nutzen, womit man zumindest zum Teil AMDs Eyefinity-Technologie kontert, die allerdings bis zu sechs Monitore mit nur einer Karte ansteuern kann.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
26 Kommentare
    Dein Kommentar
  • numerobis
    Schöner Test!
    Nutzt Mediaespresso cuda? Und wenn ja welche Version?
    Wär schon interessant mal nen cuda-basierten Renderer im Test zu sehen. Dass nvidia opencl boykottiert ist ja schon lange klar...
    0
  • benkraft
    Wir hatten da vor einem Jahr einen Test zu: Video-Transcoding unter der Lupe: APP, CUDA und Quick Sync im Vergleich . Unterstützt wurden von Arcsoft VideoConverter und Cyberlink Media Espresso alle drei Möglichkeiten, also CUDA, APP und QuickSync.

    Wir wollen die Analyse in den nächsten Wochen wiederholen um zu schauen, ob und was sich in den letzten Monaten getan hat.
    0
  • Binsenmeier
    Mal zwei bescheidene Fragen, wenn ich darf:
    Wozu genau soll man sich jetzt eine GTX 680 kaufen?
    Wann gibt es endlich einen funktionierenden VCE bei AMD? Zeit genug gab's doch wohl inzwischen, oder nicht?
    0
  • Brat
    gtx 680 ist wie im Artikel für Auflösungen jenseits des FullHDs oder MehrMonitorBetrieb als auch 8xssaa gedacht (brauchen wirklich nicht viele) und selbst da werden die 2gb ram schnell zum Flaschenhals.

    mich hätte der vergleich gtx670 zu radeon 7950/7970 OC mehr interessiert, sonst wird durch gpu boost vieles "verschönert"
    0
  • FormatC
    Zitat:
    mich hätte der vergleich gtx670 zu radeon 7950/7970 OC mehr interessiert, sonst wird durch gpu boost vieles "verschönert"
    Nächste Woche kommt ein Roundup zur HD 7950. Da sind auch Vergleichsbenchmarks zur GTX 670 drin. Außerdem hatte ich ja unlängst zur HD 7970 und dem OC im Vergleich zur GTX 680 was geschrieben. ;)
    0
  • numerobis
    Anonymous sagte:
    Unterstützt wurden von ArtCosft VideoTranscoder und Cyberlink Media Espresso alle drei Möglichkeiten, also CUDA, APP und QuickSync.

    Also sind die Werte im aktuellen Test mit CUDA entstanden oder wie muss ich das verstehen?
    0
  • El-Locko
    Jetzt wart ich nur noch auf die Herstellerdesign's. Super Karte und deutlich günstiger als eine GTX680.
    0
  • benkraft
    Anonymous sagte:
    Also sind die Werte im aktuellen Test mit CUDA entstanden oder wie muss ich das verstehen?


    Nein, auch nicht ganz. AMDs Nvidias Kepler Chips bringen dedizierte Hardware zum Transkodieren diverser Formate ins H.264-Format mit. Dieser Hardwareblock nennt sich NVEnc. Seit dem aktuellen Treiber funktioniert das auch gut, und die Werte der 600er-Karten sind mit NVEnc entstanden. Die älteren Nvidia-Karten rechnen noch klassisch per CUDA Filme um - deren Werte sind also tatsächlich mit CUDA entstanden. Ich hoffe, das hilft?
    0
  • oldDirty1@guest
    Sry übersehen, alles gut, Bitming wo?
    0
  • FormatC
    Kommt in die Charts.

    Ich teste derzeit außerdem noch 5 Boardpartner-Karten. Da ist eine dabei, die schafft unter absoluter Vollast alles unter 33 dB(A)! DAS nenne ich mal geil, aber GPGPU ist megafail. Blender mit der GTX 670 wird zum Desaster. Die GTX 670 ist der Hit, aber eben nur für reine Gamer. Nix für echte Männer, die ihre EON-Rechnung mit links zahlen :)
    0
  • numerobis
    benkraftNein, auch nicht ganz. AMDs Kepler Chips bringen dedizierte Hardware zum Transkodieren diverser Formate ins H.264-Format mit. Dieser Hardwareblock nennt sich NVEnc. Seit dem aktuellen Treiber funktioniert das auch gut, und die Werte der 600er-Karten sind mit NVEnc entstanden. Die älteren Nvidia-Karten rechnen noch klassisch per CUDA Filme um - deren Werte sind also tatsächlich mit CUDA entstanden. Ich hoffe, das hilft?

    ok, danke!
    Also muss man dann doch mal ne reine CUDA-Anwendung (Arion oder OctaneRender) testen, um zu sehen, ob da wirklich was gekappt wird.
    0
  • arutha87
    Anonymous sagte:
    [...] Da ist eine dabei, die schafft unter absoluter Vollast alles unter 33 dB(A)! DAS nenne ich mal geil, [...]


    Die fängt nicht zufällig mit P***t an und hört mit J*******m auf? ^^
    0
  • ashrakk
    @benkraft
    AMDs Kepler Chips :p???
    0
  • benkraft
    Oh maaaaan, war ich gestern breit - natürlich Nvidias Keplers :D
    0
  • FormatC
    Zitat:
    Die fängt nicht zufällig mit P***t an und hört mit J*******m auf? ^^
    :D
    0
  • Andrei756@guest
    Warum ist die 670 ein fail wenn man blender benutzt?
    0
  • FormatC
    Weil die GTX 670 im GPGPU-Sektor eine stehende Null ist. Es ist eine sehr gute Gamerkarte, leider nicht mehr und nicht weniger :)
    OpenCL ist mittlerweile in Blender implementiert, die Schnittstelle läuft für AMD- und Nvidia-Karten gleichermaßen. Nur dass OpenCL nicht wirklich zu den Stärken der GTX 670 gehört. Es ist nämlich genau der Teil der Karte, der durch seine fast völlige Abwesenheit für die bessere Effizienz sorgt.
    0
  • arutha87
    Anonymous sagte:
    :D

    Dann harre ich gespannt der Dinge die da kommen. :)
    0
  • 7664stefan
    Wäre eine spätere Freischaltung des 8. SMX-Cluster möglich und denkbar (so a la HD6950 mit anderem Bios) oder ist der mechanisch deaktiviert worden?
    Die Karte wird in Sachen P/L für Gamer nach der Einführungsphase der Kracher (Verhältnis entsprechend der 570/580, wobei die 570 auch die bessere Wahl war). ;)

    @El-Locko: Gut, dass du gewartet hast! Jetzt kannst du bald zuschlagen. :D
    0
  • Techniker Freak
    Wenn mich meine Erinnerung nicht trügt war die GF6 Serie die letzte von Nvidia bei der man etwas freischalten konnte.
    0