Battlefield 4
Wir eröffnen den Benchmarkparcours mit einem der derzeit beliebtesten First-Person-Shooter, der auf die fortschrittliche ‚Frostbite‘-Grafikengine zurückgreift: Battlefield 4.
Nvidias neue GeForce GTX 980 liefert einen glänzenden Auftritt, segelt mit Leichtigkeit an der GK110-basierten GTX 780 Ti vorbei und setzt sich an die Spitze. Außerdem schlägt die GeForce GTX 970 die Radeon 9 290X im DirectX-Durchlauf. AMDs Single-GPU-Flaggschiff kann nur bei Verwendung der hauseigenen Mantle API gleichziehen.
In Full-HD-Auflösung setzten sich Nvidias neue Grafikkarten sich problemlos durch, gehen wir also einen Schritt weiter und schauen uns die Ergebnisse der Bildausgabe im 4K-Format an. Unglücklicherweise mussten wir hier das Detaillevel von ‚Ultra‘ auf ‚High‘ zurücksetzen, um die Grenze von minimal 30 und durchschnittlich 40 FPS nicht zu unterschreiten.
Die GeForce GTX 980 gibt weiterhin den Ton an, aber der Abstand zum Verfolgerfeld schrumpft. Im Vergleich zu den Radeons fällt die GTX 970 ein wenig zurück, schneidet aber immer noch sehr stark a – vor allem, wenn man den günstigen Anschaffungspreis der Karte mit in Betracht zieht.
Thief
Thief ist ein weiterer aktueller Spieletitel, der Grafikkarten ordentlich fordert. Wir beginnen mit Full-HD-Auflösung und den Qualitätseinstellung auf "very high detail".
Ebenso wie bereits in Battlefield 4 kann sich auch hier die GeForce GTX 980 an der Spitze breitmachen, die GTX 970 landet unmittelbar hinter der GTX 780 Ti. Selbst bei Verwendung des Mantle-Renderpfads ist die Radeon R9 290X nicht in der Lage, Nvidias GTX 970 zu schlagen, die sich erneut als Preis-Leistungs-Sieger erweist. Aber wie sieht es in Ultra-HD-Auflösung aus?
Auch bei Thief mussten wir die Qualitätseinstellungen etwas zurückschrauben, um ein flüssiges Spielen zur ermöglichen und das ursprüngliche ‚very high details‘ Preset durch ‚normal‘ ersetzen. Bei einer Auflösung von 3840x2160 Bildpunkten sieht Thief dann aber immer noch beeindruckend aus. Ein kleiner Hinweis in Bezug auf die Frame-Zeit-Latenzen: Die Grafikengine des Spiels sorgte bei allen Grafikkarten im Testfeld für kleine Lags, die allerdings nur messbar sind und während des Spielens selbst nicht weiter auffallen.
- Gestatten, GM204: Eine neue Maxwell-GPU ist in der Stadt
- Neue Features für die GeForce GTX 970 und GTX 980
- Nvidia GeForce GTX 980 (Referenzkarte)
- Gigabyte GTX 980 WindForce OC
- Gigabyte GTX 970 WindForce OC
- EVGA GTX 970 Superclock ACX 2.0
- Testsystem und Benchmarks
- Benchmarks: Battlefield 4 And Thief
- Benchmarks: Arma 3 und Grid Autosport
- Benchmarks: Assassin's Creed IV, Watchdogs und Far Cry 3
- Richtig messen und Maxwells Geheimnis erkennen
- Leistungsaufnahme im Detail
- Leistungsaufnahme in der Gesamtübersicht
- Effizienzbetrachtung
- Temperaturen und Lautstärke
- Fazit: Preis, Performance und Performance in Balance
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
Ich habe mich schon den halben Tag gewundert, warum auf anderen Seiten bereits die neuen Artikel veröffentlicht wurden, während die Seite mit dem liebevollsten Grafikparcours sich brav zurück hält. Aber jetzt ist ja alles da. :-)
Ist ein überarbeiteter Kühler verbaut. Angeblich gab es vom Neuen nicht genug (Produktion), deshalb werden beide Varianten angeboten.
Tatsächlich ist für mich auch die 970 die Karte die ich wählen würde zur Zeit. Allerdings fühle ich mit meiner 7870 (1080p Moni) noch keinen Aufrüstdruck. Vlt. beim Witcher? Mal sehen. Und das ist auch für mich das Problem aller aktuellen Performance / High End Karten zu stark für 1080p und zu schwach für 4k. Angesichts dessen was so in ca. 2 Jahren in Monitormarkt ansteht (Oled 4K) finde ich den kauf eines neuen Monitors auch blöd, und damit auch den Kauf einer GK zur Zeit. Na, kommt Zeit, kommt Rat.
Wobei ich sehe, das eure GTX 780Ti mit Standardtakt arbeitete, und da zum einen noch viel Luft nach oben ist, und zum anderen könnte das den Maxwell Karten konkurrenz machen.
Es wäre durchaus interessant die GTX 780Ti, die GTX 970 / GTX 980 und die R9-280X und R9-290X im moderat übertakteten Zustand auf Effizienz zu testen, dann könnte viel Licht ins Dunkel gebracht werden.
Vor allem im GPGPU Bereich, wo die Maxwell Architektur punkten soll, könnte man noch einen Benchmark durchführen, um zu sehen wie sich die höhere Leistungsaufnahme auf die Geschwindigkeit auswirkt.
Du kannst maximal 10% überlasten solltest das aber nicht darauf hin auslegen.
Im Prinzip sollte es gehen im schlimmsten Fall schaltet das NT ab. Überlastschutz.
Empfehlen würde ich es aber nicht, ein paar Watt mehr wären schon gut.
Sinnvoll ist es nur bedingt da der Prozessor viel zu schwach ist zumindest für viele games.
Danke, Big-K. Das Netzteil habe ich mir letzten Winter geholt, extra-"schwach" wegen der Effizienz. Nun rächt sich das.
CPU wahr hier noch nie der Flaschenhals (geht ja bis 3,1/3,4GHz und wirklich deutlich mehr bekommt man ohne übertakten heute sowieso noch nicht von der Intel-Stange).
Wenn ich jetzt v.a spielen will (1080p, Ultra Details) die GTX970 also richtig fordere, verbraucht sie dann also doch deutlich mehr als die angegebene TDP von ~165W? (Xeon E3 1231, Corsair CS 550W, 8GB Ram)
Hintergrund ist einfach nur die Überlegung der Stromkosten wegen: Möchte meine HD6850 (TDP ~140W) upgraden und hatte an eine R9 280x gedacht (TDP~250W), und bei dem doch deutlich niedrigerem TDP der GTX970 hätte ich den Aufpreis von ~ 80€ nach ein paar Jahren wieder raus....dachte ich, aber wie muss ich die Spitzen der Lastaufnahmen denn jetzt interpretieren? Verbraucht die GTX970 dann am Ende doch soviel wie zB eine R9 280x bei hoher Gaming-Auslastung? Sind die 165W TDP also am Ende nur Augenwischerei?
Als angekündigt wurde das die 980 nur 16 sm haben wird dachte ich nicht das die so gut abschneidet aber der Takt machts wohl möglich.
Was mir nur nicht ganz klar ist, wenn powertune schon mit 100 kHz arbeitet wie hochfrequent arbeitet nv boost?
Da die Leistungsaufnahme in games nur etwa die Hälfte wie im GPGPU beträgt könnte man daraus schließen das die Hälfte der Zeit gar nichts berechnet wird? Vielleicht sollte man mal verschiedenen Spiele einzeln auf ihren Stromverbrauch untersuchen.