GeForce GTX 680 2GB im Test: Kepler schickt Tahiti auf die Insel

Die Enthusiast-Gemeinde wartet gespannt auf Nvidias neue Kepler-Architektur. Einige konnten den Blick auf unsere Ergebnisse wohl kaum abwarten und schauten schon früher bei uns rein. Heute können wir zeigen, wie sich Kepler gegen AMDs GCN schlägt.

Nvidia zieht gerne Parallelen. Bei der letzten Grafikkartengeneration teilte die Firma jedem Modell eine andere Rolle auf einem virtuellen Schlachtfeld zu. Die GeForce GTX 480 war der Panzer (tank), der sich durch mächtige Performance aber auch durch eine ebenso groß dimensionierte Leistungsaufnahme und Abwärme sowie einen selbstbewussten Preis auszeichnete. Die GeForce GTX 460 übernahm die Rolle des Jägers (hunter) und bot eine bessere Kombination aus Geschwindigkeit, Effizienz und Anschaffungskosten, die eher mit der Gamer-Zielgruppe kompatibel waren. Als Scharfschütze (sniper) sah Nvidia die GeForce GTS 450, deren Aufgabe es laut Nvidia sein sollte, bei 1680x1050 spielbare Bildraten zu ermöglichen.

Diese Kategorisierung mag im Rückblick vielleicht albern anmuten. Gleichzeitig hilft sie uns aber auch, die GeForce GTX 680 besser einzuordnen. Obwohl ihr Name (und ihre Preisempfehlung) nahe legen, es handle sich um den Nachfolger des derzeitigen Single-GPU-Flaggschiffs, ist diese Karte in Wirklichkeit ein Jäger: eine auf Gamer zugeschnittene Karte, bei der die Rechenleistungen in allgemeinen Aufgaben entgegen dem Trend deutlich heruntergeschraubt wurde. Andererseits erfüllt sie die Rolle der perfekt zugeschnittenen Gamer-Karte hervorragend - so wie ihre eigentliche Vorgängerin, die GeForce GTX 460.

GK104: Erdacht als Jäger, befördert zum Panzer.GK104: Erdacht als Jäger, befördert zum Panzer.

Die Konkurrenz als Maßstab nehmen

Doch egal, welche Rolle ihr eigentlich zugedacht war, am Ende hat die Konkurrenz wohl den größten Einfluss auf die endgültige Positionierung. Gut möglich, dass AMD noch einige High-End-Karten auf seiner Roadmap hat, von denen bislang noch nichts zu sehen oder zu hören war. Im Kontext der sechs HD-7000-Modelle, die AMD bislang an den Start gebracht hat, weiß Nvidia allerdings sehr genau, wie die Gegenseite aufgestellt ist.

Wäre die Radeon HD 7970 30 oder gar 40 Prozent schneller, dann darf man davon ausgehen, dass die heute vorgestellte Karte nicht GeForce GTX 680 hieße. Möglicherweise hätte Nvidia sie stattdessen GTX 660 oder 670 genannt. Doch aufgrund der Performance von AMDs Spitzenkarte krönt Nvidia die eigentlich als Jäger konzipierte Karte kurzerhand zum Nachfolger des aktuellen Panzers - und lässt gleichzeitig keinen Zweifel daran, dass man an einem noch schwereren Geschütz arbeitet.

Was wir heute also in den Händen halten, ist eine 500-Dollar-Karte, die auf Nvidias GK104-GPU aufbaut, die speziell auf Gamer zugeschnitten ist (und nein, wir verraten an dieser Stelle noch nichts zum Thema Rechenleistung - alles zu seiner Zeit). Mit der GeForce GTX 680 behebt Nvidia einige der größten Nachteile der letzten Generation und gibt ihr gleichzeitig eine Handvoll spannender neuer Features mit.

Gestatten: Die GeForce GTX 680

Mit einer Länge von guten 25 cm ist die GTX 680 als Referenzkarte etwa einen guten Zentimeter länger als AMDs Radeon HD 7800 und ebensoviel kürzer als die HD 7900. Bei der Draufsicht erkennt man den Radiallüfter, der die warme Kühlluft am Kartenende aus dem Gehäuse befördert. Zur Entlüftung steht allerdings nur die Hälfte einer Slotblende zur Verfügung, doch keine Sorge – wie unsere Temperatur- und Lautstärkemessungen zeigen werden, gibt sich die GTX 680 in diesen Disziplinen keine Blöße.

Der Rest der beiden Slotblenden hält vier Display-Anschlüsse bereit, und zwar zwei Dual-Link DVI-Ausgänge, einen HDMI-Port in voller Größe sowie eine DisplayPort-Buchse. Alle vier lassen sich parallel nutzen, womit Nvidia endlich einen unserer größten (funktionalen) Kritikpunkte bei der Fermi-Generation aus dem Weg räumt und zu AMD aufschließt. Für uns bedeutet das, dass wir endlich auch Multi-Monitor-Tests nutzen können, um die unter unseren Lesern sicherlich weit weniger verbreitete Auflösung 2560x1600 in Einzelkartentests zu ergänzen oder sogar auf absehbare Zeit abzulösen. Wie AMD verspricht auch Nvidia, dass die Karte HDMI 1.4a beherrscht, Monitore mit einer horizontalen Auflösung von 4K ansteuern kann und sich auf Multi-Stream-Audio versteht.

Auch bei den internen Anschlüssen gibt es keinen Grund zur Klage: Die GTX 680 verfügt über zwei SLI-Anschlüsse, was SLI-Konstellationen mit zwei, drei oder vier Karten ermöglicht. Ähnlich gut kombinierbar sind AMDs Radeon HD 7970 und 7950 dank ihrer beiden CrossFire-Konnektoren. Bei der 7800-Serie ist hingegen bei zwei Karten Schluss.

Außerdem zeigt sich hier ein Hinweis darauf, dass Nvidias GK104-GPU eigentlich für den Einsatz in Mainstream-Systemen gedacht ist, denn die GeForce GTX 680 besitzt zwei 6-Pin PCIe-Stromanschlüsse. Zusammen mit dem Strom, den der PEG-Slot liefert, stehen der GTX 680 damit bis zu 225 Watt an elektrischer Leistung zur Verfügung. Nvidia gibt die maximale Leistungsaufnahme dieser Karte mit bis zu 195 Watt an. Der typische Stromverbrauch solle aber eher bei 170 Watt liegen. Behalten wir diese Zahlen einen Moment im Hinterkopf, denn wir wollen gleich noch einmal auf das Delta zwischen den „typischen“ 170 Watt und den maximal verfügbaren 225 Watt zu sprechen kommen.

Der Kühler der GeForce GTX 680

Laut Nvidia hat man bei dieser Karte viel Entwicklungsaufwand in den Dual-Slot-Kühler gesteckt, der seinen Teil zu einer selbst unter Volllast beeindruckend niedrigen Geräuschkulisse beiträgt. Werfen wir einen Blick unter die Plastikhaube, um uns die Zutaten des neuen Kühlers genauer anzuschauen...

Drei hufeisenförmige Heatpipes sind direkt in den GPU-Kühler eingesetzt und leiten die Abwärme schnell von der GK104-GPU weg. Die Heatpipes geben die thermische Energie  anschließend an einen großen Aluminiumkühlkörper in doppelter Bauhöhe ab.

Nvidia spricht zudem von Optimierungen beim Kühlkörper selbst. Beispielsweise sind die Kühlfinnen dort abgewinkelt, wo die Luft aus dem Gehäuse austritt, was intern für mehr Platz zwischen dem Kühler und dem rückwärtigen Entlüftungsgitter sorgt. Diese neue Konstruktion soll die Temperaturen gegenüber der alten Konstruktion senken.

Außerdem hat Nvidia den Lüftermotor akustisch zusätzlich gedämmt - so hatte man es schon bei der GeForce GTX 580 gemacht, um sie leiser als ihre viel gescholtene Vorgängerin zu bekommen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
47 Kommentare
    Dein Kommentar
  • MarkusGathome
    Sehr schön, bin auf die Karten von den Boardpartnern und deren eigenen Kühllösungen gespannt.
    0
  • Bignon
    Wow, ich bin offiziell beeindruckt. Ich habe wirklich gedacht Nvidia würde maximal gleichziehen mit den 7900er. Jetzt freue ich mich wie ein Schnitzel was GK110 Chip leistet.
    0
  • Tom997@guest
    Naja die 7970 läuft auch mit angezogener Handbremse jede kann ohne Probleme 1 GHZ erreichen, fast jede Karte mach locker die 1,2 Ghz, gut dann sind es 30 Watt mehr aber dennoch ein anderer Leistungslevel.

    Zudem glaube ich nicht das die GTX 680 nur als Jägerkarte gedacht war, aber Egal was Tomshardware schreibt, es ist Spieletechnisch ein Gleichstand zwischen diesen beiden Karten.

    Und bis der GK110 kommt vergeht noch einiges an Zeit und diese wird AMD nutzen.

    Nvidia kocht auch nur mit Wasser, demnach darf nicht vergessen werden, selbst wenn der GK110 50% mehr Shader als der GK104 hat, dann wird diese Karte keinen 1+ Ghz Takt haben eher 700-800 Mhz.
    0
  • _revO
    Wieso zwei DVI Anschlüsse und nicht 2 HDMI und ein mal DVI-Analog?
    0
  • designer11@guest
    hauptsache bis zum 15mai sind die karten günstiger, sodass ich meine gt8800 ersetzen kann und diablo3 genießen kann
    0
  • Faboan
    das ist eben die frage...wer lässt seine karte schon auf default laufen da ja eigentlich immer min 10% mehr drin sind.ein test von mit bordmitteln übertakteten gtx680 und einer HD7970 wäre sehr interessant.am ende steht ja die frage: "welche karte ist die schnellere nachdem ich etwas an der performance geschraubt habe" ich vermute fast dass dann die HD7970 wieder die nase gleichauf evtl sogar etwas weiter vorne hat.nicht zuletzt wegen der sache mit dem eingeschränkten energieverbrauch (den ja performance-enthusiasten gerne in kauf nehmen)

    bitte bitte falls möglich: test zwischen beiden karten mit einfachen,gängigen oc-tools (ala afterburner) nach erreichen eines durschnitts stable OC beider karten.
    0
  • 775FANBoy@guest
    Bravo Nvidia! Ich warte aber noch etwas ab und werde meine Gigabyte 460 OC @925/1850/2200 gegen eine 660 GTX oder 670 GTX tauschen. Hoffe meine CPU Q9550 @3.5Ghz bei Full HD reicht dafür noch aus ???
    0
  • Faboan
    @fanboy: enge kiste mit der CPU,mal die leistung der karten abwarten.wenn die 680 als "jägerin" geplant war kann es unter umständen sein dass sie auf tieferer ebene in sachen performance ne echte lücke lassen.alles reine spekulation.
    0
  • ladykiller
    Also alles wie gedacht, ich reite weiter meine 6990 und warte ab was sich tut.
    0
  • alterSack66
    Die 3-6 FPS mehr durchs Übertakten machen das Spiel auch nicht schöner.
    0
  • FormatC
    Quote:
    ich vermute fast dass dann die HD7970 wieder die nase gleichauf evtl sogar etwas weiter vorne hat
    Eine der hier verfügbaren 7970 läuft (mit Powertune auf 20%) stabil bei 1325 MHz. Das sind immerhin 400 MHz mehr. Die andere "nur" mit 1275 Mhz. Das macht ein Plus von 350 Mhz. Gerade mal BF3 auf der Männerauflösung von 2560x1440 und Ultra laufen lassen - immerhin 4fps mehr (8% plus gegenüber den Werten der GTX 680 hier). Und das in Nvdias Lieblingsspiel ;)
    0
  • Faboan
    ok aber jetzt müsste man der 680 fairer weise auch die sporen geben.8% mehr durch gutes OC gegenüber nvidia referenz ist solala.man liest dass das OC potenzial mit GPU boost eher bescheiden ausfällt bzw ein effektives overclocken nicht längerfristig zu erreichen ist,an anderer stelle hört man von einem,weiter unerklärtem, "huge OC potential" schwierig schwierig
    0
  • FormatC
    BF3 ist Nvidia-Domäne. 8% bei knapp unter 50fps sind eine Menge, wenn man die Ausgangslage ohne OC bei BF3 betrachtet. Das OC-Potential der 680 ist nicht so berauschend, wie man meinen sollte. Die Reserven sind schon ziemlich ausgelutscht.

    Man darf eines nicht vergessen:
    AMD hat in jeder Karte vor 6 Monaten immense Sicherheitsreserven einbauen müssen, weil der 28nm-Prozess nicht so weit ausgereift war. Dass Nvidia nach einem weiteren halben Jahr (die Hälfte der Zeit einer ganzen Kartengeneration) nun im Schnitt nicht mal 10% Mehrleistung rausholt, ist da fast schon erschütternd. Die bessere Effizienz erkauft man sich recht teuer durch einen "verkrüppelten" Chip, der bei OpenCL fast schon aufhört zu atmen. Was glaubt Ihr, was passiert, wenn die künftigen Spiele auf Dinge wie Bullet-Physik setzen? Dass die GTX 680 in Metro abkackt, ist nur der erste Beweis dafür, wo die Schwächen für die Zukunft liegen.

    Das schreibt übrigens einer, der momentan eine GTX 580 Lightning im PC hat und seit Jahren immer wieder als AMD-Hasser beschimpft wird :D
    0
  • crazymath
    Wichtig ist auf jedenfall, dass es wieder "Konkurrenz" gibt und man darf sich wie schonmal erwähnt auf die mobilen Beschleuniger freuen.

    Danke für den Test. Bestätigt in etwa überall, dass die Karte bei grösserer Auflösung als FullHD etwas einbricht. Eigentlich schade, weil gerade dies das Setting ist, welches wohl von "Enthusiasten" gebraucht wird (Oder FullHD mit allem drum und dran).
    0
  • avatar_87
    Schöner Test. Bei CB wird Nvidias Effizienz als wahre Revolution angepriesen. Hier wird dagegen auch erklärt, dass Nvidia sich das mit einer immens beschnittenen gpgpu Leistung erkauft hat. Die gtx 680 ist eine gute Karte, keine Frage. Vor allem das Adaptive Vsync gefällt. Und der Framelimiter ist nett für Leute die sich eine überdimensionierte Karte kaufen :D. Aber die Eierlegende Wollmilchsau ist auch das nicht. Für mich ist die interessanteste Spielerkarte aktuell die HD 7870. Die wird bestimmt auch noch günstiger die Tage.
    0
  • Faboan
    oh ja preisvorteil für uns wird kommen! hat ja schon teilweise einzug gehalten.
    @formatc: sind natürlich argumente aber wenn es sich auch noch preislich rentiert und wir immer mit einer HD7970 konkurrieren...könnten die boardpartner rein technisch besseres OC potenzial bieten?heut zu tage beschränken die sich ja nicht mehr auf den kühler und den look.zudem muss man nvidia ja auch mal vollständigen,vor allem organisierten 3D support anrechnen (thema hatten wir ja kürzlich) physX ist ebenso ein thema.als gesamtpaket mit leichtem preisvorteil echt ne harte kiste gerade.
    0
  • avatar_87
    3D macht Kopfdruck und PhysX braucht kein Mensch. GPU beschleunigtes Physik gibt es längst für beide Lager. Das haben wir directx 11 zu verdanken. Solange Nvidia PhysX aber noch in den Köpfen der Leute rumwust und Leute sich einbilden BF 3 oder sonstige Toptitel würden das nutzen, solange wird Nvidia weiterhin die Werbetrommel schlagen.
    0
  • Faboan
    klar ist physX jetzt nicht DAS feature,aber in einigen games wichtig.metro wurde ja auch als galgen genannt da wäre zb Batman doch ne positive gegenmeldung ;) (ich hatte damals ne ageia physX card von asus mit 128MB YAY!!! xD)nebeneffekte von 3D sind mal individuell und dahingestellt.es bleibt ein feature und das bietet nvidia eben im gegensatz zu amd professionell an. das sind ja auch nur zusatzleckerli die ich nannte weil ich ja vom gesamtpaket sprach.die hat amd eben leider nicht,ich wünschte ja auch es wäre anders...
    0
  • csc@guest
    die performance/watt berechnung ist falsch.
    0