GeForce GTX 690 4 GB im Test: Doppelt so schnell, dreimal so schick

Nvidias GeForce GTX 690 tritt mit zwei GK104-GPUs an und soll knapp 1000 Euro kosten. Wer sich diese Karte leisten kann, bekommt praktisch die gleiche Performance wie mit zwei GTX 680 in SLI. Vorausgesetzt, man kann sie denn im Handel finden.

Power ist unbestreitbar sexy. Das beste Beispiel sind Superboliden vom schlage eines Bugatti Veyron Super Sport, Aston Martin One-77 oder Lamborghini Reventón. Sie alle haben auch etwas anderes gemeinsam: Sie sind sündhaft teure Edelschlitten, bei denen meisten Autofahrern feuchte Augen bekommen - und sie bleiben wohl für die allermeisten unerreichbar.

Und dennoch sind sie unbestreitbar sexy.

Dass für die Beschreibung von schneller Computertechnik auch gerne mal ebenso schnelle Autos herhalten müssen hat Tradition, und auch wir können uns solche Vergleiche manchmal nicht verkneifen. Wenn man ehrlich ist, sind die aber alles andere als realistisch. Immerhin kosten allein vier neue Reifen für einen Veyron etwa so viel wie 35 Core i7-3960X-CPUs. Dass Intel für seine Flaggschiff-Prozessoren 1000 Dollar verlangt, klingt für die meisten von uns abwegig, und doch ist ein solcher Rechenbolide für die meisten eher erreichbar als manch vierrädriger Luxus, den die Welt so bereithält.

Eine der GK104-GPUs auf unserer GTX 690.Eine der GK104-GPUs auf unserer GTX 690.

Auf den ersten Blick mag Nvidias neue GeForce GTX 690 ob ihres Preisschildes ebenfalls in die Kategorie “stark und unbezahlbar” fallen. Doch auch wenn die knapp 1000 Euro, die Nvidia verlangt, erst einmal nach viel klingen - sie sind für Gaming-Enthusiasten doch greifbarer als es ein Bugatti, Aston Martin oder Lamborghini für den Auto-Liebhaber sind.

Natürlich wird man mindestens ein 30-Zoll-Display anschließen wollen, um seine Fähigkeiten voll auszureizen, aber auch die Hürde kann man nehmen, wenn man in dieser Preisklasse spielt. Im Gegensatz zu unseren Kollegen von der Motorsport-Presse haben wir es aber ein wenig schwerer, denn wir können mit unserem Testobjekt nicht einfach ein paar Runden drehen, sagen dass es ein phantastisches Erlebnis war und darauf vertrauen, dass unsere Leser ohnehin niemals in die Lage kommen werden, sich zwischen ihm und beispielsweise einem Paar GTX 680ern zu entscheiden. Oder zwei Radeon HD 7970.

Nein, die GTX 690 muss sich dem kompletten Test stellen, so wie alle anderen Karten auch, die sich auf unserem Nürburgring für GPUs einfinden.

Was die technischen Daten anbelangt, ist unser heutiger Artikel aber eine Ausnahme: Obwohl wir erst heute einen kompletten Artikel darüber veröffentlichen dürfen, sind alle wichtigen Daten schon einige Tage bekannt, denn Nvidia stellte die GeForce GTX 690 auf der LAN 2012 in Shanghai vor. Dennoch wollen wir noch den obligatorischen Blick unter die Haube werfen und schauen, was die Dual-GPU-Karte eigentlich so antreibt. Dann geht es aber umgehend auf die Teststrecke, wo der Bolide dann in unserem üblichen Parcours zeigen muss, was bei 1920x1080, 2560x1600 und 5760x1080 in ihm steckt.

GeForce GTX 690, unter der Haube

Bei der GeForce GTX 690 kommen zwei GK104-GPUs zum Einsatz. Da sie in keiner Weise beschnitten sind, können sie auf insgesamt 3072 CUDA-Cores (1536 x 2), 256 Textureinheiten (128 x 2) und 64 Full-Color-ROPs (32 x 2) zugreifen.

Der NF200-Brückenchip, der auf der GTX 590 die beiden GF110-GPUs mit einander verband, ist nicht mehr mit von der Partie. Der Chip war auf PCI-Express 2.0 beschränkt, und die GK104-GPUs beherrschen bereits PCIe 3.0.

Deshalb kommt stattdessen ein PEX 8747zum Einsatz, ein in 40 nm gefertigter Weichen-Chip der dritten Generation von PLX, der an seinen 5 Ports bis zu 48 Lanes bereitstellen kann. Dieser Chip kommuniziert mit jeder der GK104-GPUs über eine 16 Lanes breite PCIe-3.0-Verbindung und stellt zum restlichen System ebenfalls eine 16-Lane-Verbindung her. Der Weichen-Chip wurde speziell für den Einsatz im Grafiksektor entwickelt, verbraucht in etwa 8 Watt und weist eine Latenz von 126 ns auf. Damit sollte er sich als Schaltstelle zwischen den beiden GPUs nicht negativ auf die Performance auswirken. Außerdem beherrscht der PEX 8747 noch weitere Fähigkeiten wie Multicast, die ehemals ein Alleinstellungsmerkmal des NF200 waren.

Jeder der beiden Grafikprozessoren verfügt über einen eigenen 256 Bit breiten Speicherbus, an dem jeweils 2 GB GDDR5-Speicher hängen. Laut Nvidia handelt es sich dabei um den gleichen 6 GT/s schnellen Speicher, der auch auf der GeForce GTX 680 zum Einsatz kommt, womit den GPUs jeweils 192 GB/s an Speicherdurchsatz zur Verfügung steht. Der Kerntakt der GK104 fällt hingegen ein wenig niedriger aus und liegt auf der GTX 690 bei 915 statt 1006 MHz. Die Taktratensenkung war notwendig, um die angepeilte TDP von 300 Watt einhalten zu können. Solange diese Marke aber nicht überschritten wird, erlaubt Nvidia den GPUs allerdings sogar, sich per GPU Boost auf bis zu 1019 MHz hochzutakten - also nur etwas weniger als die 1058 MHz, die eine GTX 680 laut offizieller Spezifikation erreicht.

Überhaupt spielt die Leistungsaufnahme bei der GeForce GTX 690 eine gewichtige Rolle. Die GeForce GTX 590 durfte beispielsweise bis zu 365 Watt aufnehmen. Rechnet man zusammen, dass davon 75 Watt aus dem PEG-Steckplatz und jeweils weitere 150 Watt  aus zwei 8-Pin Steckern stammten wird klar, dass die GTX 590 schon recht nahe am theoretischen Maximum operierte. Da die Kepler-Architektur aber in puncto Effizienz einen so großen Schritt nach vorn gemacht hat, kommt Nvidia bei der GTX 690 mit 300 Watt aus. Und dennoch finden sich auch an der neuen Karte wieder zwei 8-Pin-Steckplätze, sodass zusammen mit den 75 Watt des PEG-Slots wieder bis zu 375 Watt abgerufen werden könnten.

Doch nicht nur die technischen Daten der GTX 690 überzeugen. Man merkt auch der Karte selbst an, dass Nvidias Ingenieure lange überlegt haben, wie sie innerhalb der Vorgaben eine leise Karte konstruieren könnten, die dennoch gut ihre Wärme ableiten kann und dabei auch noch gut aussieht. Das Ergebnis ist eine wirklich solide, robuste und feste Karte, die optisch weit mehr hermacht als jedes andere Referenzdesign, das wir bislang gesehen haben.

Der äußere Rahmen besteht nicht wie so häufig (und wie bei der GTX 680) aus Kunststoff sondern aus mit Chrom beschichtetem Aluminium. Das Lüftergehäuse ist aus einer Magnesiumlegierung gefertigt, was im Vergleich zu Kunststoffabdeckungen angeblich die Wärmeabgabe verbessern und für geringere Vibrationen sorgen soll.

Jede der GPUs wird von zwei Vapor-Chamber-Kühlern bedeckt, wie sie AMD und Nvidia auch schon in der Vergangenheit genutzt haben. Kleine Fensterchen aus Polykarbonat erlauben neugierigen Enthusiasten hier aber einen Blick auf die Kühlfinnen. Außerdem sitzt an der Oberseite noch eine LED, die über eine von Nvidia entwickelte API angesteuert werden kann. Nvidia wird die konkrete Umsetzung wohl den Boardpartnern überlassen, aber denkbar ist beispielsweise, dass die Helligkeit mit der GPU-Auslastung steigt. Aktuell leuchtet die LED allerdings einfach, wenn die Karte aktiv ist.

Nun kommen wir zu einem Punkt, der sicherlich für sehr gemischte Reaktionen sorgen wird: Nvidia verbaut einen mittig angeordneten Axiallüfter, der laut eigenen Angaben für einen hohen Luftdurchsatz bei geringer Lautstärke optimiert sein soll. Der Nachteil an Axiallüftern ist, dass sie nur die Abwärme einer GPU am Kartenende aus dem Gehäuse befördern, während die warme Kühlluft der zweiten GPU einfach wieder ins Gehäuse geblasen wird. AMD und Nvidia setzten schon bei der letzten Generation bei ihren Dual-GPU-Karten auf Axiallüfter, woraus wir schließen können, dass dieser Ansatz für Karten wie diese besonders sinnvoll ist. Immerhin liegt die TDP der GeForce GTX 690 unter der einer GTX 590, was für einen geringeren Kühlaufwand spricht.

Dennoch bleibt das Problem der im Gehäuse verwirbelten Abluft, was für alle anderen Komponenten einen höheren Kühlaufwand bedeutet. Man stelle sich beispielsweise eine Konfiguration mit zwei GeForce GTX 690 vor, was immerhin die einfachste Möglichkeit eines Quad-SLI darstellt. Dabei wird effektiv die komplette Abwärme zweier GeForce GTX 680 ins Gehäuse geleitet anstatt sie nach außen zu befördern. Eine optimale Lösung ist das nicht...

Das Anschlussfeld der GTX 690 trägt drei Dual-Link DVI-Ports sowie eine mini-DisplayPort-Buchse, womit die Karte bis zu vier Monitore gleichzeitig ansteuern kann. Dank eines SLI-Anschlusses kann man zwei GeForce GTX 690 zusammen und somit ein Quad-SLI-Gespann erstellen.

Drei Monitore an zwei GeForce GTX 680 anzuschließen kann eine nervige Angelegenheit sein. Obwohl jede Karte vier Anschlüsse bietet, gibt es je nachdem, ob die Displays mit DVI, HDMI oder DisplayPort angebunden werden, empfohlene Kombinationen. Bei einer GeForce GTX 690 mit drei DVI-Anschlüssen ist die Situation deutlich einfacher und entspannter.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
40 Kommentare
    Dein Kommentar
  • h0scHi
    Die schalten schon Werbung in der U-Bahn für die Karte. 1000€ für Mikroruckler, naja jeder wie er es braucht.
    1
  • paradox13371ftw
    Hmm gerade das mit den Mikrorucklern interessiert mich sehr und wie sich das mit dem adaptiven Vsync verhält. Ist ja jetzt auch nicht gerade unwichtig bei der Karte. Und das fehlt jetzt im Test oder habs ichs nur übersehen ?
    2
  • randomiza
    Mikroruckler treten ja nur bei niedrigen FPS auf und das wird mit der Karte hoffentlich nie der Fall sein :)

    Ich hatte jetzt bis gestern 2x GTX 460 im SLI in meinem Rechner und hatte nicht einmal Mikroruckler. Jedenfalls nicht bemerkt.
    0
  • 7664stefan
    Sehr leidenschaftlicher Test! :D

    Wenn ein Güterzug über die Gleise von Köln nach Hamburg fährt, hört man die Verbindunen der Gleise deutlich; bei der Geschwindigkeit des ICE kriegt man davon dann fast nix mehr mit. :D
    Wer soll denn bei 180FPS Microruckler sehen können?

    Mich interessiert noch, ob bei der 690 auch die Thermal Control (wie bei der 680) die Karte ab einer Temperatur von X bremst, oder nicht? Hat nVidia dieses Limit mit der 690 aufgehoben oder nur nach oben korrigiert?
    -1
  • microruckler@guest
    Zum thema mikroruckler. dies hat computerbase getestet und ist sehr angetan von der 690!

    http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/8/#abschnitt_mikroruckler
    0
  • Sebi87@guest
    ich habe jetzt schon 2 gtx 570 @ sli. wie hier jeder über die mikroruckler jammert.
    hattet ihr schon einmal karten mit sli? anscheinend nicht.

    ich würde mir direkt 2 davon kaufen aber ich sehe es nicht ein dass die amis "nur" 1000 dollar bezahlen müssen und wir direkt 1000€.

    find ich persönlich ne frechheit.
    werde noch bisschen warten und die karte irgendwo in amerika bestellen.
    0
  • 7664stefan
    @Sebi, warte erst mal ab, bis Preise verfügbar sind. So um die 900 Euro sind nach zwei Wochen realistisch. :)
    0
  • Sebi87@guest
    @stefan

    schau mal bei alternate.de oder auf der evga homepage.

    bei der evga homepage, da kostet die wenn man oben auf eu english einstellt: 1000€
    wenn man us english einstellt 1000 dollar. :(
    also für die 750€ (1000 dollar) würde ich sie auf jeden fall bestellen.

    ist auf jeden fall eine super karte.
    da ich ja eigentlich auch so ein kleiner freak bin was pc hardware angeht würde ich mir das doch mal gönnen wollen aber 250€ mehr zu zahlen seh ich nicht ein. :)

    naja wie du sagst. abwarten und tee trinken
    0
  • h0scHi
    Auf Computerbase-Tests kann man einen Furz geben ähnlich wie auf TH, wenn der Trend der letzten Tests sich weiter bestätigt. Was nicht von Herr Wallossek kommt ist irgendwie nur halbherzig...
    Aus eigener Erfahrung sage ich dass SLI Schrott ist. Manche SLI-Nutzer sind ja auch so verblendet von ihrer teuren Technik dass sie die Mikroruckler gar nicht mehr warnehmen und dann überall behaupten es gäbe keine. Aber hey, wie gesagt jedem das Seine.

    Zwei Karten kaufen wollen und über die Wechselkurse jammern? Baby baby balla balla
    -5
  • benkraft
    58814 said:
    Auf Computerbase-Tests kann man einen Furz geben ähnlich wie auf TH, wenn der Trend der letzten Tests sich weiter bestätigt. ...


    Autsch. Was genau fehlt dir denn in den Tests und wo sind wir nur halbherzig. Ich kann dir versprechen, dass ich hier mit vollem Einsatz dabei bin. Was können wir tun, um aus deiner Sicht besser zu werden? Ehrliche Frage mit Bitte um ehrliche Antwort.

    Edit: Ich bin jetzt nicht sicher, warum die Frage negativ bewertet wird. Als Chefredakteur interessiert mich, was wir verbessern können. Gern auch per PN.
    2
  • Mudvayne!@guest
    @h0scHi: Endlich mal jemand der mir voll und ganz aus der Seele spricht!

    +1
    -5
  • MortiPCM
    Microruckler sind wohl auch solche Gruselgeschichten, erfunden von Leuten die es sich nicht leisten können...
    Ich hatte jedenfalls mit 2 560Ti, die nun nicht alzu stark sind, auch bei nicht allzu hohen FPS keinerlei Probleme.
    Wenn die 690 nicht grüne LEDs hätt würde sie bei mir einziehen, so werdens 2 680.
    1
  • Sebi87@guest
    @MortiPCM: Endlich mal einer der mir voll und ganz aus der Seele spricht. ;)
    0
  • Matze86@guest
    @h0schi
    Würdest du gerne 500€ mehr bezahlen wollen wenn du es irgendwo anders billiger kaufen könntest?
    Aber nein. Anscheinend ist das für dich Trinkgeld.

    Es kommt mir so vor wie es Morti gesagt hat. Groß das M*** aufreißen aber einfach nur neidisch sein
    auf Leute die sich es leisten könnten...

    Es geht hier um die Karte und nicht was Jemand sch**** findet. Lasst doch die Leute in Ruhe die das toll finden und jammert woanders.

    Die Karte ist wohl das Beste was es im Moment gibt. Die Benchmarks beweisen es ;)
    0
  • Hotze@1342720950@guest
    @h0scHi:
    Was ist denn an den Tests so schlecht?
    Und wenn du die so schlecht findest wieso liest du die dann?
    Oder liest du nur die Überschrift und Postest was die Tasten hergeben?

    @all:
    Ein bisschen Nettikette kann man ja wohl wahren! Das gilt auch für viele (nicht alle) Andere die Kommentare abgeben!
    Losbashen und nicht mal sagen was nicht passt...
    Aber genau wie im echten Leben, manchmal kann man seine Meinung nicht mit Fakten ausdrücken.
    Erst neulich sagte mir einer dass mein Auto echter Mist ist (Fusch.In.Allen.Teilen!). Auf meine Frage was daran so schlecht sei und ob er schonmal einen gefahren hat kam nichts mehr!

    @benkraft:
    Eure Tests sind echt sehr in Ordnung!
    2
  • 7664stefan
    Ganz ehrlich? Im Gegensatz zu anderen Redaktionen testet THG objektiv, fair, ehrlich und übt auch berechtigte Kritik, die sich die Hersteller auch ab und an zu Herzen nehmen und Verbesserungen umsetzen. Also nicht populistische Presse al la Blöd-Zeitung, sondern...sucht es euch aus. ;)
    Denkt mal an wenig an die Personen, die Tage und Nächte damit verbringen, damit ihr zum Release derartige Tests lesen dürft.
    Da sag ich nur wieder mal: Dank an die THG-Redaktion, die solche Test-Samples nur wegen ihres guten Rufes bekommt. :)
    Schleimmodus=disabled. :D
    3
  • pescA
    Alle die sich hier über die $-Preise aufregen:
    Rechnet selbst nach. 1000$ + MwSt + Zoll = ? Genauuuuuu ;)

    Ansonsten eine Karte, die die Welt nicht braucht. Hoffentlich führt die Ähnlichkeit des PCBs zur 590 zu einer Asus Mars III.

    Und ich finde die THG-Tests stehen anderen in nichts nach. Damit meine ich ausdrücklich die Tests, nicht die teils auf Werbeniveau gesunkenen News.
    0
  • alterSack66
    Schöne Karte :) Aber wer oder zu was braucht man "Man stelle sich beispielsweise eine Konfiguration mit zwei GeForce GTX 690 vor" ? Und vor allem welche CPU brauchts dazu?
    0
  • anonymerWitzbold@guest
    Dieser Test ist mit großen Abstand der schlechteste von allen die ich gelesen habe, aber gut man kann nicht alles haben ^^

    Quote:
    Ich bin jetzt nicht sicher, warum die Frage negativ bewertet wird. Als Chefredakteur interessiert mich, was wir verbessern können.

    Selten sooooooo gelacht :D
    -3
  • h0scHi
    Wenn ich "teure Technik" schreibe braucht man mir nicht gleich Neid unterstellen. An meinem Hobby muss ich nicht sparen. Alles was für mich bei Grafikkarten zählt ist das Spielgefühl und das ist bislang mit einer schnellen Einzelkarte besser.
    Es sei denn man beweist das Gegenteil, die Beseitigung von Mikrorucklern. Deswegen habe ich die Diskussion losgetreten, kein Wort dazu im Artikel. Das die Dual-GPU-Karten laut, heiß, teuer und schnell sind ist eigentlich klar, wird im Großen und Ganzen sicherlich so bleiben. Die interessanteste Thematik wurde weggelassen.

    Weshalb ist der i5-3570K bei den Ivy-Bridge-Tests nirgends vertreten? Kommt da noch was?
    Aus einem Overclocking-Test sollte man doch rauskriegen wie hoch sich eine Ivy-Bridge CPU, mit oder ohne Hyperthreading und unter anständiger Luftkühlung, takten lässt. Der Push-Pin-Kühler ist zwar sehr komfortabel aber fehl am Platz bei so einem Artikel. Es gibt doch eigentlich genug Rückmeldung aus den Kommentaren. Man könnte es darauf reduzieren dass mir die Tests unvollständig vorkommen, das Interessanteste fehlt meist. Sagen wir das Spektrum ist zu klein, Interessant ist ja für jeden wieder was anderes.

    Das Daumen-Bashing ist echt albern, von mir kommt nichts.
    -1