Betrachten wir zunächst die technischen Parameter der Board-Partner-Karte von Gigabyte mit Übertaktung ab Werk. Da es sich laut Hersteller um vorselektierte Chips handelt, sollten vor allem die Übertaktbarkeit und Effizienz besser ausfallen als der Durchschnitt.
Zumindest bei unserer Karte können wir diese Annahme auch bestätigen. Unser Testmuster fiel vor allem bei der Leistungsaufnahme sehr positiv auf und zeigt auch, welches Potential noch in Maxwell steckt, wenn die Streuung minimiert und die Serienproduktion verfeinert werden kann.
Gut gefallen haben uns auch die insgesamt sechs Videoausgänge (3x DisplayPort, 2x DVI und 2x HDMI; davon dank Nvidias Vorgaben jeweils vier gleichzeitig benutzbar) der Gigabyte-Karte - das Referenzdesign hat nur fünf (einen statt zwei DVI-Ports). Mit HDMI 2.0 ist man zudem auch für die Zukunft gerüstet. Der zusätzliche DVI-Ausgang ist übrigens ein proprietäres Design von Gigabyte, das zum Patent angemeldet ist.
| Spezifikationen und Daten | |
|---|---|
| Formfaktor: | echtes 2-Slot-Design |
| Länge (vom Slot-Panel bis zum Ende): | 29,7 cm |
| Höhe (vom Slot bis zur Oberkante): | 10,8 cm |
| Tiefe 1 (vom PCB zur Frontabdeckung): | 3,5 cm |
| Tiefe 2 (vom PCM zur Back-Plate): | 0,5 cm |
| Gewicht: | 1196 g |
| Anschlüsse: | 1x DVI-I, 1x DVI-D, 1x HDMI 2.0, 3x Display Port |
| Pro: | - vorselektierte GPUs für bessere Übertaktbarkeit und niedrigere Leistungsaufnahme - insgesamt sechs Videoausgänge (bessere Anschlussmöglichkeiten) - echtes 2-Slot-Design, eigent sich gut für SLI-Betrieb - große Kühlreserven |
| Kontra: | - etwas zu hohe Drehzahlen unter Vollast (BIOS Update soll folgen) |
Mit dem erstmals auf der GTX Titan Black Windforce OC vorgestellten Windforce 600W-Kühler sollte man auf der sicheren Seite sein, denn dieser sehr schmale Kühler konnte bereits auf der älteren Karte überzeugen. Auch die neuen Rotorblätter sind wieder vertreten.
Die Back-Plate kühlt leider nicht mit und dient nur der Stabilisierung des Kühlers von der Rückseite aus.
Die vertikale Anordnung der Kühllamellen befördert die warme Abluft nach unten und oben, jedoch nicht in Richtung Festplatten bzw. SSD.
Zwei PCI-Express-Anschlüsse mit acht Pins sollen für eine stabilere Übertaktbarkeit sorgen. Der Windforce-Schriftzug leuchtet im Betrieb übrigens blau.
Insgesamt drei DisplayPort-Anschlüsse, ein HDMI-2.0-Port und zwei Dual-Link-DVI-Ausgänge lasten die Slot-Blende fast vollständig aus.
- Gestatten, GM204: Eine neue Maxwell-GPU ist in der Stadt
- Neue Features für die GeForce GTX 970 und GTX 980
- Nvidia GeForce GTX 980 (Referenzkarte)
- Gigabyte GTX 980 WindForce OC
- Gigabyte GTX 970 WindForce OC
- EVGA GTX 970 Superclock ACX 2.0
- Testsystem und Benchmarks
- Benchmarks: Battlefield 4 And Thief
- Benchmarks: Arma 3 und Grid Autosport
- Benchmarks: Assassin's Creed IV, Watchdogs und Far Cry 3
- Richtig messen und Maxwells Geheimnis erkennen
- Leistungsaufnahme im Detail
- Leistungsaufnahme in der Gesamtübersicht
- Effizienzbetrachtung
- Temperaturen und Lautstärke
- Fazit: Preis, Performance und Performance in Balance








die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
Ich habe mich schon den halben Tag gewundert, warum auf anderen Seiten bereits die neuen Artikel veröffentlicht wurden, während die Seite mit dem liebevollsten Grafikparcours sich brav zurück hält. Aber jetzt ist ja alles da. :-)
Ist ein überarbeiteter Kühler verbaut. Angeblich gab es vom Neuen nicht genug (Produktion), deshalb werden beide Varianten angeboten.
Tatsächlich ist für mich auch die 970 die Karte die ich wählen würde zur Zeit. Allerdings fühle ich mit meiner 7870 (1080p Moni) noch keinen Aufrüstdruck. Vlt. beim Witcher? Mal sehen. Und das ist auch für mich das Problem aller aktuellen Performance / High End Karten zu stark für 1080p und zu schwach für 4k. Angesichts dessen was so in ca. 2 Jahren in Monitormarkt ansteht (Oled 4K) finde ich den kauf eines neuen Monitors auch blöd, und damit auch den Kauf einer GK zur Zeit. Na, kommt Zeit, kommt Rat.
Wobei ich sehe, das eure GTX 780Ti mit Standardtakt arbeitete, und da zum einen noch viel Luft nach oben ist, und zum anderen könnte das den Maxwell Karten konkurrenz machen.
Es wäre durchaus interessant die GTX 780Ti, die GTX 970 / GTX 980 und die R9-280X und R9-290X im moderat übertakteten Zustand auf Effizienz zu testen, dann könnte viel Licht ins Dunkel gebracht werden.
Vor allem im GPGPU Bereich, wo die Maxwell Architektur punkten soll, könnte man noch einen Benchmark durchführen, um zu sehen wie sich die höhere Leistungsaufnahme auf die Geschwindigkeit auswirkt.
Du kannst maximal 10% überlasten solltest das aber nicht darauf hin auslegen.
Im Prinzip sollte es gehen im schlimmsten Fall schaltet das NT ab. Überlastschutz.
Empfehlen würde ich es aber nicht, ein paar Watt mehr wären schon gut.
Sinnvoll ist es nur bedingt da der Prozessor viel zu schwach ist zumindest für viele games.
Danke, Big-K. Das Netzteil habe ich mir letzten Winter geholt, extra-"schwach" wegen der Effizienz. Nun rächt sich das.
CPU wahr hier noch nie der Flaschenhals (geht ja bis 3,1/3,4GHz und wirklich deutlich mehr bekommt man ohne übertakten heute sowieso noch nicht von der Intel-Stange).
Wenn ich jetzt v.a spielen will (1080p, Ultra Details) die GTX970 also richtig fordere, verbraucht sie dann also doch deutlich mehr als die angegebene TDP von ~165W? (Xeon E3 1231, Corsair CS 550W, 8GB Ram)
Hintergrund ist einfach nur die Überlegung der Stromkosten wegen: Möchte meine HD6850 (TDP ~140W) upgraden und hatte an eine R9 280x gedacht (TDP~250W), und bei dem doch deutlich niedrigerem TDP der GTX970 hätte ich den Aufpreis von ~ 80€ nach ein paar Jahren wieder raus....dachte ich, aber wie muss ich die Spitzen der Lastaufnahmen denn jetzt interpretieren? Verbraucht die GTX970 dann am Ende doch soviel wie zB eine R9 280x bei hoher Gaming-Auslastung? Sind die 165W TDP also am Ende nur Augenwischerei?
Als angekündigt wurde das die 980 nur 16 sm haben wird dachte ich nicht das die so gut abschneidet aber der Takt machts wohl möglich.
Was mir nur nicht ganz klar ist, wenn powertune schon mit 100 kHz arbeitet wie hochfrequent arbeitet nv boost?
Da die Leistungsaufnahme in games nur etwa die Hälfte wie im GPGPU beträgt könnte man daraus schließen das die Hälfte der Zeit gar nichts berechnet wird? Vielleicht sollte man mal verschiedenen Spiele einzeln auf ihren Stromverbrauch untersuchen.