Die Enthusiast-Gemeinde wartet gespannt auf Nvidias neue Kepler-Architektur. Einige konnten den Blick auf unsere Ergebnisse wohl kaum abwarten und schauten schon früher bei uns rein. Heute können wir zeigen, wie sich Kepler gegen AMDs GCN schlägt.
Nvidia zieht gerne Parallelen. Bei der letzten Grafikkartengeneration teilte die Firma jedem Modell eine andere Rolle auf einem virtuellen Schlachtfeld zu. Die GeForce GTX 480 war der Panzer (tank), der sich durch mächtige Performance aber auch durch eine ebenso groß dimensionierte Leistungsaufnahme und Abwärme sowie einen selbstbewussten Preis auszeichnete. Die GeForce GTX 460 übernahm die Rolle des Jägers (hunter) und bot eine bessere Kombination aus Geschwindigkeit, Effizienz und Anschaffungskosten, die eher mit der Gamer-Zielgruppe kompatibel waren. Als Scharfschütze (sniper) sah Nvidia die GeForce GTS 450, deren Aufgabe es laut Nvidia sein sollte, bei 1680x1050 spielbare Bildraten zu ermöglichen.
Diese Kategorisierung mag im Rückblick vielleicht albern anmuten. Gleichzeitig hilft sie uns aber auch, die GeForce GTX 680 besser einzuordnen. Obwohl ihr Name (und ihre Preisempfehlung) nahe legen, es handle sich um den Nachfolger des derzeitigen Single-GPU-Flaggschiffs, ist diese Karte in Wirklichkeit ein Jäger: eine auf Gamer zugeschnittene Karte, bei der die Rechenleistungen in allgemeinen Aufgaben entgegen dem Trend deutlich heruntergeschraubt wurde. Andererseits erfüllt sie die Rolle der perfekt zugeschnittenen Gamer-Karte hervorragend - so wie ihre eigentliche Vorgängerin, die GeForce GTX 460.
GK104: Erdacht als Jäger, befördert zum Panzer.
Die Konkurrenz als Maßstab nehmen
Doch egal, welche Rolle ihr eigentlich zugedacht war, am Ende hat die Konkurrenz wohl den größten Einfluss auf die endgültige Positionierung. Gut möglich, dass AMD noch einige High-End-Karten auf seiner Roadmap hat, von denen bislang noch nichts zu sehen oder zu hören war. Im Kontext der sechs HD-7000-Modelle, die AMD bislang an den Start gebracht hat, weiß Nvidia allerdings sehr genau, wie die Gegenseite aufgestellt ist.
Wäre die Radeon HD 7970 30 oder gar 40 Prozent schneller, dann darf man davon ausgehen, dass die heute vorgestellte Karte nicht GeForce GTX 680 hieße. Möglicherweise hätte Nvidia sie stattdessen GTX 660 oder 670 genannt. Doch aufgrund der Performance von AMDs Spitzenkarte krönt Nvidia die eigentlich als Jäger konzipierte Karte kurzerhand zum Nachfolger des aktuellen Panzers - und lässt gleichzeitig keinen Zweifel daran, dass man an einem noch schwereren Geschütz arbeitet.
Was wir heute also in den Händen halten, ist eine 500-Dollar-Karte, die auf Nvidias GK104-GPU aufbaut, die speziell auf Gamer zugeschnitten ist (und nein, wir verraten an dieser Stelle noch nichts zum Thema Rechenleistung - alles zu seiner Zeit). Mit der GeForce GTX 680 behebt Nvidia einige der größten Nachteile der letzten Generation und gibt ihr gleichzeitig eine Handvoll spannender neuer Features mit.
Gestatten: Die GeForce GTX 680

Mit einer Länge von guten 25 cm ist die GTX 680 als Referenzkarte etwa einen guten Zentimeter länger als AMDs Radeon HD 7800 und ebensoviel kürzer als die HD 7900. Bei der Draufsicht erkennt man den Radiallüfter, der die warme Kühlluft am Kartenende aus dem Gehäuse befördert. Zur Entlüftung steht allerdings nur die Hälfte einer Slotblende zur Verfügung, doch keine Sorge – wie unsere Temperatur- und Lautstärkemessungen zeigen werden, gibt sich die GTX 680 in diesen Disziplinen keine Blöße.
Der Rest der beiden Slotblenden hält vier Display-Anschlüsse bereit, und zwar zwei Dual-Link DVI-Ausgänge, einen HDMI-Port in voller Größe sowie eine DisplayPort-Buchse. Alle vier lassen sich parallel nutzen, womit Nvidia endlich einen unserer größten (funktionalen) Kritikpunkte bei der Fermi-Generation aus dem Weg räumt und zu AMD aufschließt. Für uns bedeutet das, dass wir endlich auch Multi-Monitor-Tests nutzen können, um die unter unseren Lesern sicherlich weit weniger verbreitete Auflösung 2560x1600 in Einzelkartentests zu ergänzen oder sogar auf absehbare Zeit abzulösen. Wie AMD verspricht auch Nvidia, dass die Karte HDMI 1.4a beherrscht, Monitore mit einer horizontalen Auflösung von 4K ansteuern kann und sich auf Multi-Stream-Audio versteht.

Auch bei den internen Anschlüssen gibt es keinen Grund zur Klage: Die GTX 680 verfügt über zwei SLI-Anschlüsse, was SLI-Konstellationen mit zwei, drei oder vier Karten ermöglicht. Ähnlich gut kombinierbar sind AMDs Radeon HD 7970 und 7950 dank ihrer beiden CrossFire-Konnektoren. Bei der 7800-Serie ist hingegen bei zwei Karten Schluss.
Außerdem zeigt sich hier ein Hinweis darauf, dass Nvidias GK104-GPU eigentlich für den Einsatz in Mainstream-Systemen gedacht ist, denn die GeForce GTX 680 besitzt zwei 6-Pin PCIe-Stromanschlüsse. Zusammen mit dem Strom, den der PEG-Slot liefert, stehen der GTX 680 damit bis zu 225 Watt an elektrischer Leistung zur Verfügung. Nvidia gibt die maximale Leistungsaufnahme dieser Karte mit bis zu 195 Watt an. Der typische Stromverbrauch solle aber eher bei 170 Watt liegen. Behalten wir diese Zahlen einen Moment im Hinterkopf, denn wir wollen gleich noch einmal auf das Delta zwischen den „typischen“ 170 Watt und den maximal verfügbaren 225 Watt zu sprechen kommen.
Der Kühler der GeForce GTX 680
Laut Nvidia hat man bei dieser Karte viel Entwicklungsaufwand in den Dual-Slot-Kühler gesteckt, der seinen Teil zu einer selbst unter Volllast beeindruckend niedrigen Geräuschkulisse beiträgt. Werfen wir einen Blick unter die Plastikhaube, um uns die Zutaten des neuen Kühlers genauer anzuschauen...

Drei hufeisenförmige Heatpipes sind direkt in den GPU-Kühler eingesetzt und leiten die Abwärme schnell von der GK104-GPU weg. Die Heatpipes geben die thermische Energie anschließend an einen großen Aluminiumkühlkörper in doppelter Bauhöhe ab.
Nvidia spricht zudem von Optimierungen beim Kühlkörper selbst. Beispielsweise sind die Kühlfinnen dort abgewinkelt, wo die Luft aus dem Gehäuse austritt, was intern für mehr Platz zwischen dem Kühler und dem rückwärtigen Entlüftungsgitter sorgt. Diese neue Konstruktion soll die Temperaturen gegenüber der alten Konstruktion senken.
Außerdem hat Nvidia den Lüftermotor akustisch zusätzlich gedämmt - so hatte man es schon bei der GeForce GTX 580 gemacht, um sie leiser als ihre viel gescholtene Vorgängerin zu bekommen.
- GeForce GTX 680: Die Karte und ihre Kühllösung
- GK104: Der Chip und seine Architektur
- GPU Boost: Der Grafik-Turbo
- Overclocking: Wenn selbst GPU Boost nicht reicht
- PCI Express 3.0 und Adaptive V-Sync
- Test-Hardware und Benchmarks
- Benchmarks: 3DMark 11 (DX 11)
- Benchmarks: Battlefield 3 (DX 11)
- Benchmarks: Crysis 2 (DX 9/DX 11)
- Benchmarks: The Elder Scrolls V: Skyrim (DX 9)
- Benchmarks: DiRT 3 (DX 11)
- Benchmarks: World Of Warcraft: Cataclysm (DX 11)
- Benchmarks: Metro 2033 (DX 11)
- Benchmarks: Sandra 2012
- Benchmarks: GPGPU-Leistung in LuxMark 2.0
- Benchmarks: NVEnc und MediaEspresso 6.5
- Wärmeentwicklung und Lautstärke
- Leistungsaufnahme
- Performance pro Watt: Der Index
- GeForce GTX 680: Die Jägerin schlägt zu
Zudem glaube ich nicht das die GTX 680 nur als Jägerkarte gedacht war, aber Egal was Tomshardware schreibt, es ist Spieletechnisch ein Gleichstand zwischen diesen beiden Karten.
Und bis der GK110 kommt vergeht noch einiges an Zeit und diese wird AMD nutzen.
Nvidia kocht auch nur mit Wasser, demnach darf nicht vergessen werden, selbst wenn der GK110 50% mehr Shader als der GK104 hat, dann wird diese Karte keinen 1+ Ghz Takt haben eher 700-800 Mhz.
bitte bitte falls möglich: test zwischen beiden karten mit einfachen,gängigen oc-tools (ala afterburner) nach erreichen eines durschnitts stable OC beider karten.
Man darf eines nicht vergessen:
AMD hat in jeder Karte vor 6 Monaten immense Sicherheitsreserven einbauen müssen, weil der 28nm-Prozess nicht so weit ausgereift war. Dass Nvidia nach einem weiteren halben Jahr (die Hälfte der Zeit einer ganzen Kartengeneration) nun im Schnitt nicht mal 10% Mehrleistung rausholt, ist da fast schon erschütternd. Die bessere Effizienz erkauft man sich recht teuer durch einen "verkrüppelten" Chip, der bei OpenCL fast schon aufhört zu atmen. Was glaubt Ihr, was passiert, wenn die künftigen Spiele auf Dinge wie Bullet-Physik setzen? Dass die GTX 680 in Metro abkackt, ist nur der erste Beweis dafür, wo die Schwächen für die Zukunft liegen.
Das schreibt übrigens einer, der momentan eine GTX 580 Lightning im PC hat und seit Jahren immer wieder als AMD-Hasser beschimpft wird
Danke für den Test. Bestätigt in etwa überall, dass die Karte bei grösserer Auflösung als FullHD etwas einbricht. Eigentlich schade, weil gerade dies das Setting ist, welches wohl von "Enthusiasten" gebraucht wird (Oder FullHD mit allem drum und dran).
@formatc: sind natürlich argumente aber wenn es sich auch noch preislich rentiert und wir immer mit einer HD7970 konkurrieren...könnten die boardpartner rein technisch besseres OC potenzial bieten?heut zu tage beschränken die sich ja nicht mehr auf den kühler und den look.zudem muss man nvidia ja auch mal vollständigen,vor allem organisierten 3D support anrechnen (thema hatten wir ja kürzlich) physX ist ebenso ein thema.als gesamtpaket mit leichtem preisvorteil echt ne harte kiste gerade.