Schauen wir uns mal Nvidias Referenzdesign für die GTX 980 an. Zuerst das Offensichtliche: Die Karte wird von einer Variante der gleichen, klassischen Outfits umhüllt, das Nvidia mit der GeForce GTX 690 einführte. Die GTX 980 ist keine besonders große Karte, aber dafür ist Gewicht nicht von schlechten Eltern – hier trägt sicherlich auch die Back-Plate aus Metall auf.
| Spezifikationen und Daten | |
|---|---|
| Formfaktor: | echtes 2-Slot-Design |
| Länge (vom Slot-Panel bis zum Ende): | 26,8 cm |
| Höhe (vom Slot bis zur Oberkante): | 11,1 cm |
| Tiefe 1 (vom PCB zur Frontabdeckung): | 3,6 cm |
| Tiefe 2 (vom PCM zur Back-Plate): | 0,3 cm |
| Gewicht: | 1030 g |
| Anschlüsse: | 1x DL-DVI-I, 1x HDMI 2.0, 3x DisplayPort |
Mit dem erstmals auf der GTX Titan Black Windforce OC vorgestellten Windforce 600W-Kühler sollte man auf der sicheren Seite sein, denn dieser sehr schmale Kühler konnte bereits auf der älteren Karte überzeugen. Auch die neuen Rotorblätter sind wieder vertreten.
Der 6,5 cm große Radiallüfter ist das gleiche Modell, das schon bei der originalen GeForce Titan zum Einsatz kam. Wirft man nur einen beiläufigen Blick auf die Front der Karte, könnte man sie glatt mit der Titan verwechseln – zumindest wenn man den Schriftzug nahe der Slot-Blende ignoriert. Der größte optische Unterschied ist die Tatsache, dass die Kühlerfinnen hinter der transparenten Abdeckung schwarz sind.
Die Back-Plate hat ein praktisches, kleines Türchen, das man entfernen kann, wenn mehr Kühlleistung benötigt wird. Das ist beispielsweise dann nötig, wenn zwei GTX 980 im SLI-Verbund genutzt werden. Die Titan hat übrigens keine Back-Plate.
Obacht: Hier gibt es nur zwei PCIe-Stromanschlüsse mit sechs Pins - und ungewohnter Anblick bei einer High-End-Karte zu sehen. Der "Geforce GTX"-Schriftzug leuchtet übrigen grün, wenn Strom anliegt.
An Displayausgängen gibt es drei Mal DisplayPort 1.2, einen DVI-Anschluss (Dual-Link) sowie einen einzelnen HDMI-Port. Die ist übrigens die erste Karte mit HDMI 2.0, so dass 4K-Videoausgabe bei 60 Hz möglich ist. Bei Verwendung des vorherigen Standards mussten zwei DisplayPort-Anschlüsse gemeinsam für ein solches Display genutzt werden; nur dann waren 60 Hz bei 4K-Auflösung möglich.
- Gestatten, GM204: Eine neue Maxwell-GPU ist in der Stadt
- Neue Features für die GeForce GTX 970 und GTX 980
- Nvidia GeForce GTX 980 (Referenzkarte)
- Gigabyte GTX 980 WindForce OC
- Gigabyte GTX 970 WindForce OC
- EVGA GTX 970 Superclock ACX 2.0
- Testsystem und Benchmarks
- Benchmarks: Battlefield 4 And Thief
- Benchmarks: Arma 3 und Grid Autosport
- Benchmarks: Assassin's Creed IV, Watchdogs und Far Cry 3
- Richtig messen und Maxwells Geheimnis erkennen
- Leistungsaufnahme im Detail
- Leistungsaufnahme in der Gesamtübersicht
- Effizienzbetrachtung
- Temperaturen und Lautstärke
- Fazit: Preis, Performance und Performance in Balance










die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
Ich habe mich schon den halben Tag gewundert, warum auf anderen Seiten bereits die neuen Artikel veröffentlicht wurden, während die Seite mit dem liebevollsten Grafikparcours sich brav zurück hält. Aber jetzt ist ja alles da. :-)
Ist ein überarbeiteter Kühler verbaut. Angeblich gab es vom Neuen nicht genug (Produktion), deshalb werden beide Varianten angeboten.
Tatsächlich ist für mich auch die 970 die Karte die ich wählen würde zur Zeit. Allerdings fühle ich mit meiner 7870 (1080p Moni) noch keinen Aufrüstdruck. Vlt. beim Witcher? Mal sehen. Und das ist auch für mich das Problem aller aktuellen Performance / High End Karten zu stark für 1080p und zu schwach für 4k. Angesichts dessen was so in ca. 2 Jahren in Monitormarkt ansteht (Oled 4K) finde ich den kauf eines neuen Monitors auch blöd, und damit auch den Kauf einer GK zur Zeit. Na, kommt Zeit, kommt Rat.
Wobei ich sehe, das eure GTX 780Ti mit Standardtakt arbeitete, und da zum einen noch viel Luft nach oben ist, und zum anderen könnte das den Maxwell Karten konkurrenz machen.
Es wäre durchaus interessant die GTX 780Ti, die GTX 970 / GTX 980 und die R9-280X und R9-290X im moderat übertakteten Zustand auf Effizienz zu testen, dann könnte viel Licht ins Dunkel gebracht werden.
Vor allem im GPGPU Bereich, wo die Maxwell Architektur punkten soll, könnte man noch einen Benchmark durchführen, um zu sehen wie sich die höhere Leistungsaufnahme auf die Geschwindigkeit auswirkt.
Du kannst maximal 10% überlasten solltest das aber nicht darauf hin auslegen.
Im Prinzip sollte es gehen im schlimmsten Fall schaltet das NT ab. Überlastschutz.
Empfehlen würde ich es aber nicht, ein paar Watt mehr wären schon gut.
Sinnvoll ist es nur bedingt da der Prozessor viel zu schwach ist zumindest für viele games.
Danke, Big-K. Das Netzteil habe ich mir letzten Winter geholt, extra-"schwach" wegen der Effizienz. Nun rächt sich das.
CPU wahr hier noch nie der Flaschenhals (geht ja bis 3,1/3,4GHz und wirklich deutlich mehr bekommt man ohne übertakten heute sowieso noch nicht von der Intel-Stange).
Wenn ich jetzt v.a spielen will (1080p, Ultra Details) die GTX970 also richtig fordere, verbraucht sie dann also doch deutlich mehr als die angegebene TDP von ~165W? (Xeon E3 1231, Corsair CS 550W, 8GB Ram)
Hintergrund ist einfach nur die Überlegung der Stromkosten wegen: Möchte meine HD6850 (TDP ~140W) upgraden und hatte an eine R9 280x gedacht (TDP~250W), und bei dem doch deutlich niedrigerem TDP der GTX970 hätte ich den Aufpreis von ~ 80€ nach ein paar Jahren wieder raus....dachte ich, aber wie muss ich die Spitzen der Lastaufnahmen denn jetzt interpretieren? Verbraucht die GTX970 dann am Ende doch soviel wie zB eine R9 280x bei hoher Gaming-Auslastung? Sind die 165W TDP also am Ende nur Augenwischerei?
Als angekündigt wurde das die 980 nur 16 sm haben wird dachte ich nicht das die so gut abschneidet aber der Takt machts wohl möglich.
Was mir nur nicht ganz klar ist, wenn powertune schon mit 100 kHz arbeitet wie hochfrequent arbeitet nv boost?
Da die Leistungsaufnahme in games nur etwa die Hälfte wie im GPGPU beträgt könnte man daraus schließen das die Hälfte der Zeit gar nichts berechnet wird? Vielleicht sollte man mal verschiedenen Spiele einzeln auf ihren Stromverbrauch untersuchen.