Neues Test-Setup für die Leistungsaufnahme
Maxwell stellte uns erneut vor eine große Herausforderung: Will man pro Grafikkarte wirklich alle vier maximal auftretenden Versorgungsschienen sauber und exakt messen, um den Tricks der Stromsparmechanismen auf die Schliche zu kommen, benötigt man am Ende acht analoge Kanäle am Oszilloskop.
Schließlich muss man ja für jede der vier einzelnen Schienen sowohl Spannung als auch Stromstärke in Echtzeit parallel messen und abspeichern können. Denn wenn man mit vorab ermittelten Festwerten für die Spannungen arbeitet, kann man nämlich nicht nur erneut gehörig daneben liegen, sondern man tut es auch. Doch wie ist so ein Problem zu lösen?
Deshalb haben gemeinsam mit unserem Messtechnik-Partner HAMEG (Rohde & Schwarz) nach einer praktikablen Lösung gesucht. Diese besteht nun darin, mit gleich zwei geeigneten Oszilloskopen parallel (Master-Slave, getriggert) zu messen und aufzuzeichnen. Damit können wir nun - je nach Aufgabenstellung - Ströme und Spannungen gleichzeitig in Auflösungen von bis zu einer Mikrosekunde sauber messen.
Diese Intervalle sollte man natürlich der konkreten Aufgabe besser anpassen, um nicht in der aufkommenden Datenflut zu ertrinken. Wenn wir beispielsweise bei Grafikkarten in den 1-Minuten-Diagrammen mit einer Millisekunde auflösen, werden die dazwischen im Mikrosekundenbereich anfallenden Messwerte bereits vorher im Oszilloskop als brauchbarer Mittelwert zusammengefasst.
Wir messen mit Hilfe einer speziellen Riser-Card direkt am Mainboard die Versorgung über den PCI-Slot (PEG) jeweils für die 3,3-Volt- und 12-Volt-Schiene:
Zusätzlich messen wir die beiden separaten PCIe-Stromanschlüsse ebenfalls einzeln für Spannung und Stromstärke:
Das komplette Test-Setup und den Weg dorthin haben wir ja bereits ausführlich in einem Grundlagenartikel ausführlich beschrieben.
| Messverfahren: | berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card) berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung direkte Spannungsmessung am Netzteil Infrarot-Überwachung in Echtzeit |
|---|---|
| Messgeräte: | 2x HAMEG HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion 4x HAMEG HZO50 Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC) 4x HAMEG HZ355 (10:1 Tastteiler, 500 MHz) 1x HAMEG HMC 8012 Digitalmultimeter mit Speicherfunktion 1x Optris PI450 80Hz Infrared Camera + PI Connect |
| Testsystem: | Intel Core i7-5960X @4.2 GHz + Raijintek Triton Water Cooler 16 GByte G.Skill Ripjaws DDR4 2666 (4x 4 GByte) MSI X99 Gaming 7 2x Transcend SSD370 (System, Applikationen + Daten, Storage) Be Quiet Dark Power Pro 1200W Microcool Banchetto 101 |
Wie dies alles im Detail aussieht und was man aus solchen Werten noch so alles ableiten kann, das sehen wir nun.
Nvidias Boost in der Praxis: Maxwell ist schneller
Theoretisch is ja alles klar, aber wo holt Maxwell plötzlich so einen großen Effizienzschub her? Dass die Kernspannung der GPU je nach Lastszenario und Temperatur möglichst schnell und granulär angepasst werden kann, wissen wir ja schon von Nvidias Boost bei der Kepler-Generation und analog auch von AMDs Power Tune.
Maxwell legt bei dieser Spannungssteuerung noch einmal richtig nach, aber wie wir später noch sehen werden, ist bei voller Shader-Last kaum noch ein großer Vorteil zu Kepler sichtbar. Der hauptsächliche Zugewinn liegt im somit Umstand, dass Maxwell bedeutend besser mit den wechselnden Lasten umgehen und die Leistungsaufnahme noch gezielter an die tatsächliche Last anpassen kann. Je stärker und schneller die Anforderungen der Applikation schwanken, umso besser kann Maxwell also punkten.
Schauen wir uns dazu einmal an, was Maxwell innerhalb von nur einer einzigen, kurzen Millisekunde macht und wie sich die Leistungsaufnahme ändert. Diese schwankt zwischen 100 und satten 290 Watt hin und her, was unterm Strich in diesem Interval nur einen tatsächlichen Mittelwert von ca. 176 Watt ergibt. Trotzdem können bis fast 300 Watt umgesetzt werden, wenn es wirklich notwendig ist. Ansonsten tritt die GPU auf die Bremse.
Schauen wir nun, wie sich die Stromstärke und die Spannung des Netzteils unter diesen Bedingungen auf den wichtigen 12-Volt-Schienen in der Summe zueinander verhalten:
Wir sehen, dass auch das Netzteil keine konstante Versorgungsspannung von 12 Volt liefert. Denn sowohl die Spikes, die die Sekundärkondesatoren entleeren, als auch das wesentlich niedriger taktende Netzteil, welches wiederum versucht, diese Elkos wieder aufzuladen, sorgen für leichte Spannungswechsel, mit denen dann allerdings die fünf Phasen auf der Grafikkarte klarkommen müssen.
Allein schon anhand dieser ganzen Wechselwirkungen ist die Messung also nicht ganz so einfach, wie man es vielleicht denken möchte und wir verweisen in diesem Zusammenhang erneut auf den weiterführenden Grundlagenartikel.
- Gestatten, GM204: Eine neue Maxwell-GPU ist in der Stadt
- Neue Features für die GeForce GTX 970 und GTX 980
- Nvidia GeForce GTX 980 (Referenzkarte)
- Gigabyte GTX 980 WindForce OC
- Gigabyte GTX 970 WindForce OC
- EVGA GTX 970 Superclock ACX 2.0
- Testsystem und Benchmarks
- Benchmarks: Battlefield 4 And Thief
- Benchmarks: Arma 3 und Grid Autosport
- Benchmarks: Assassin's Creed IV, Watchdogs und Far Cry 3
- Richtig messen und Maxwells Geheimnis erkennen
- Leistungsaufnahme im Detail
- Leistungsaufnahme in der Gesamtübersicht
- Effizienzbetrachtung
- Temperaturen und Lautstärke
- Fazit: Preis, Performance und Performance in Balance







die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
die GTX980 zieht in der Detailbetrachtung 185W und keine 200W. Oder?
Ich habe mich schon den halben Tag gewundert, warum auf anderen Seiten bereits die neuen Artikel veröffentlicht wurden, während die Seite mit dem liebevollsten Grafikparcours sich brav zurück hält. Aber jetzt ist ja alles da. :-)
Ist ein überarbeiteter Kühler verbaut. Angeblich gab es vom Neuen nicht genug (Produktion), deshalb werden beide Varianten angeboten.
Tatsächlich ist für mich auch die 970 die Karte die ich wählen würde zur Zeit. Allerdings fühle ich mit meiner 7870 (1080p Moni) noch keinen Aufrüstdruck. Vlt. beim Witcher? Mal sehen. Und das ist auch für mich das Problem aller aktuellen Performance / High End Karten zu stark für 1080p und zu schwach für 4k. Angesichts dessen was so in ca. 2 Jahren in Monitormarkt ansteht (Oled 4K) finde ich den kauf eines neuen Monitors auch blöd, und damit auch den Kauf einer GK zur Zeit. Na, kommt Zeit, kommt Rat.
Wobei ich sehe, das eure GTX 780Ti mit Standardtakt arbeitete, und da zum einen noch viel Luft nach oben ist, und zum anderen könnte das den Maxwell Karten konkurrenz machen.
Es wäre durchaus interessant die GTX 780Ti, die GTX 970 / GTX 980 und die R9-280X und R9-290X im moderat übertakteten Zustand auf Effizienz zu testen, dann könnte viel Licht ins Dunkel gebracht werden.
Vor allem im GPGPU Bereich, wo die Maxwell Architektur punkten soll, könnte man noch einen Benchmark durchführen, um zu sehen wie sich die höhere Leistungsaufnahme auf die Geschwindigkeit auswirkt.
Du kannst maximal 10% überlasten solltest das aber nicht darauf hin auslegen.
Im Prinzip sollte es gehen im schlimmsten Fall schaltet das NT ab. Überlastschutz.
Empfehlen würde ich es aber nicht, ein paar Watt mehr wären schon gut.
Sinnvoll ist es nur bedingt da der Prozessor viel zu schwach ist zumindest für viele games.
Danke, Big-K. Das Netzteil habe ich mir letzten Winter geholt, extra-"schwach" wegen der Effizienz. Nun rächt sich das.
CPU wahr hier noch nie der Flaschenhals (geht ja bis 3,1/3,4GHz und wirklich deutlich mehr bekommt man ohne übertakten heute sowieso noch nicht von der Intel-Stange).
Wenn ich jetzt v.a spielen will (1080p, Ultra Details) die GTX970 also richtig fordere, verbraucht sie dann also doch deutlich mehr als die angegebene TDP von ~165W? (Xeon E3 1231, Corsair CS 550W, 8GB Ram)
Hintergrund ist einfach nur die Überlegung der Stromkosten wegen: Möchte meine HD6850 (TDP ~140W) upgraden und hatte an eine R9 280x gedacht (TDP~250W), und bei dem doch deutlich niedrigerem TDP der GTX970 hätte ich den Aufpreis von ~ 80€ nach ein paar Jahren wieder raus....dachte ich, aber wie muss ich die Spitzen der Lastaufnahmen denn jetzt interpretieren? Verbraucht die GTX970 dann am Ende doch soviel wie zB eine R9 280x bei hoher Gaming-Auslastung? Sind die 165W TDP also am Ende nur Augenwischerei?
Als angekündigt wurde das die 980 nur 16 sm haben wird dachte ich nicht das die so gut abschneidet aber der Takt machts wohl möglich.
Was mir nur nicht ganz klar ist, wenn powertune schon mit 100 kHz arbeitet wie hochfrequent arbeitet nv boost?
Da die Leistungsaufnahme in games nur etwa die Hälfte wie im GPGPU beträgt könnte man daraus schließen das die Hälfte der Zeit gar nichts berechnet wird? Vielleicht sollte man mal verschiedenen Spiele einzeln auf ihren Stromverbrauch untersuchen.