Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test

Leistungsaufnahme im Detail

Testsystem und -Methoden

Für die genauen Messmethoden und Testaufbauten empfehlen wir unseren Grundlagenartikel Grundlagen GPUs: Leistungsaufnahme, Netzteilkonflikte & andere Mythen. Um den Besonderheiten von Boost 3.0 besser zu entsprechen, haben wir deshalb zusätzlich noch je zwei weitere Messungen mit anderen Zeitintervallen (500 nS, 10 ms) zur Plausibilitätsprüfung vorgenommen und die Stromzangenadapter neu kalibrieren lassen (Ergebnisse, Verzögerung).

Das Testequipment als solches hat sich gegenüber den vorangegangenen Tests jedoch nicht geändert.

Leistungsaufnahme
Messverfahren:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung am Netzteil
Infrarotüberwachung in Echtzeit
Messgeräte:
2x Rohde & Schwarz HMO 3054
(500 MHz Mehrkanal-Oszillograph mit Speicherfunktion)
4x Rohde & Schwarz HZO50, Stromzangenadapter
(1 mA bis 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, Tastteiler (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012
(Digitalmultimeter mit Speicherfunktion)
1x Optris PI640, Infrarotkamera + PI Connect

Wir möchten eingangs erneut darauf hinweisen, dass sich die Messungen im Idle etwas schwieriger gestalten, da sich das Lastverhalten auch beim eigentlich leeren Desktop sporadisch ändern kann. Deshalb nutzen wir zur Überprüfung zusätzlich eine Langzeitmessung, aus der wir für die Durchschnittsermittlung den repräsentativsten Ausschnitt von zwei Minuten wählen und dann vergleichen.

Bei den Minimal- und Maximalwerten in den nachfolgenden Tabellen bitten wir zu beachten, dass die jeweiligen Extreme nicht immer gleichzeitig auftreten müssen. Deshalb ist der Wert für die Summe innerhalb eines Messintervals nicht zwingend identisch mit der Summe aller Teilwerte für die einzelnen Rails, die aus anderen Messintervallen stammen können.

Leistungsaufnahme im Idle

Hier gibt es schon einmal recht Erfreuliches zu berichten, denn wir messen am Ende ganze 6,8 Watt über alles im Leerlauf, wobei hierbei ja noch Einiges auf Lüfter, Speicher und Spannungswandlerverluste entfällt. Am Ende dürfte der Chip ungefähr auf bereingte fünf Watt kommen, was ein echter Spitzenwert ist. Betrachten wir nun noch die Bildergalerie mit den detaillierten Messergebnissen:

 MinimumMaximumDurchschnitt
PCIe gesamt:0 Watt
16 Watt
4 Watt
Mainboard 3.3V:0 Watt
0 Watt
0 Watt
Mainboard 12V:1 Watt
13 Watt
3 Watt
Grafikkarte gesamt:1 Watt
27 Watt
7 Watt

Leistungsaufnahme beim Gaming

Jetzt wird es interessant: Wir messen im Gaming-Loop in Metro Last Light und bei Ultra-HD-Auflösung knapp 173 Watt, nachdem wir die Grafikkarte auf Betriebstemperatur gebracht haben und sie leider mit rund 84 °C auch ins thermische Limit rennt.

Die Leistungsaufnahme im kalten Zustand ohne Taktlimitierung liegt bei reichlich 178 Watt. Damit ist auch die TDP-Angabe seitens Nvidia ziemlich exakt, zumal das im BIOS gesetzte Power-Limit ebenfalls exakt diesem Wert entspricht.

Wir wollen zunächst die GeForce GTX 1080 mit der direkten Vorgängerin GTX 980 im Referenz-Design vergleichen, die es im gleichen Loop auf reichlich 180 Watt Leistungsaufnahme brachte. Da uns Nvidia mit Boost 3.0 auch eine verbesserte Spannungsversorgung verspricht, bei der vor allem die Schwankungen bei der anliegenden Spannung deutlich kleiner ausfallen sollen, vergleichen wir nun zunächst beide Karten im identischen Testdurchlauf:

Es ist sehr auffällig, dass die Spikes oberhalb von 300 Watt bei der GeForce GTX 1080 kaum noch vorhanden sind, während sie bei der GeForce GTX 980 noch extrem häufig auftreten. Insgesamt sind die Kurvenverläufe kompakter und deutlich gleichmäßiger, obwohl der effektive Durchschnittswert sehr ähnlich ausfällt!

Für die Detailverliebten haben wir alle Messdiagramme noch einmal als Bildergalerie zusammengefasst:

 MinimumMaximumDurchschnitt
PCIe gesamt:5 Watt
273 Watt
133 Watt
Mainboard 3.3V:0 Watt
0 Watt
0 Watt
Mainboard 12V:15 Watt
62 Watt
40 Watt
Grafikkarte gesamt:24 Watt
311 Watt
173 Watt

Wir sehen anhand der Analyse am Mainboard-Slot, dass im Durchschnitt nur 40 Watt aufgenommen werden, während der mit 150 Watt zertifizierte 8-Pin-Anschluss 133 Watt stemmen muss. Damit liegt man sogar noch etwas unter dem theoretischen Limit, wobei rein elektrisch sogar bis zu 400 Watt technisch möglich wären.

Wir können hier also Entwarnung geben, zumal der 8-Pin-Anschluss an einer Quadro M6000 im Workstationbereich satte 170 Watt liefern muss und es dabei nie Probleme gab.

Leistungsaufnahme beim Gaming mit Übertaktung

Kommen wir nun zur Leistungsaufnahme beim Gaming und der maximal möglichen Übertaktung, die wir mit unserem Sample erreichen konnten. Dazu haben wir das Power-Target auf die maximal möglichen 120 Prozent gesetzt und den Basistakt so angehoben, das 2,1 GHz Boost-Takt zumindest anfangs erreicht werden.

Und welch Wunder: Die Messwerte steigen von den gemessenen 173 Watt um über 19 Prozent auf 206 Watt an! Nicht schön für alle, die jetzt Angst um den externen Spannungsversorgungsanschluss haben, aber locker im Bereich dessen, was in der Praxis noch nicht zu Schäden führt (siehe Quadro M6000).

 MinimumMaximumDurchschnitt
PCIe gesamt:25 Watt
342 Watt
158 Watt
Mainboard 3.3V:0 Watt
0 Watt
0 Watt
Mainboard 12V:20 Watt
72 Watt
48 Watt
Grafikkarte gesamt:35 Watt
392 Watt
206 Watt

Da sich ein ein längerer Effizienzvergleich erst dann anbietet, wenn Board-Partner-Karten mit leistungsfähigerer Kühlung erhältlich sein werden, beschränken wir uns an dieser Stelle zunächst auf einen kurzen Überblick, werden aber in einem späteren Folgeartikel um so genauer auf dieses Thema eingehen.

Aktuell stellt sich die Skalierung von Takt, Leistungsaufnahme und Gaming-Performance bei unterschiedlichen Lasten (also Auflösungen) so dar:


FPS
(Original)
Watt
(Original)
FPS
(OC)
Watt
(OC)
Anstieg
in FPS
Anstieg
in Watt
Metro Last Light @ UHD:
54,1
173
58,8
206
+8,6%
+19,1%
Metro Last Light @ FHD:
145,0
166
154,3
191
+6,4%
+15,1%
Thief @ UHD:
59,2
170
64,8
200
+9,5%
+17,7%
Thief @ FHD:
109,9
146
116,2
164
+5,7%
+12,3%

Leistungsaufnahme im Stresstest

Testen wir nun aus, wie restriktiv das Power-Target greift, und was passiert, wenn man den Chip so richtig genüsslich grillt!

Mit 176 Watt bleibt man knapp unter dem gesetzten Power-Limit, wobei die Karte bereits deutlich an Takt verliert, wie wir gleich noch sehen werden. Hier greifen Temperaturlimit und die Stromstärkenbegrenzung im PWM-Controller in gleichem Maße.

 MinimumMaximumDurchschnitt
PCIe gesamt:10 Watt
172 Watt
128 Watt
Mainboard 3.3V:0 Watt
1 Watt
0 Watt
Mainboard 12V:21 Watt
64 Watt
48 Watt
Grafikkarte gesamt:31 Watt
224 Watt
176 Watt

Zwischenfazit

Es bleibt festzuhalten, dass die 180-Watt-Grenze ohne Übertaktung nie überschritten wird - was nach Auskunft befragter Ingenieure technisch auch gar nicht möglich wäre. Alle Plausibilitätsmessungen - egal in welcher zeitlichen Auflösung - ergaben ähnliche Werte, wobei vor allem die Messung mit den 10-ms-Intervallen etwas höher ausfiel, was aber der etwas ungenaueren Erfassung geschuldet sein dürfte.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
106 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Solide Leistung und gute Wahl für 2560*1440. Für 4K tauglich halte ich sie dann immer noch nicht, auch wenn die Richtung erkennbar ist.

    Bei dem Preispunkt vorerst allerdings äußerst uninteressant. Belibt noch abzuwarten, wie viel Luft nach oben ist bei den OC Modellen und wo diese sich preislich einrichten werden.

    Bei DX12 sieht es dann tatsächlich nach einem Nvidia Brute-Force Versuch aus, als tatsächlichen Architekturverbesserungen.

    800€ ist nicht wenig, noch viel weniger, wenn man weiß, dass der große Pascal noch gar nicht das Licht der Welt erblickt hat ;)
    0
  • FormatC
    UVP ;)
    0
  • ybox720
    SLI darf noch keiner machen?
    0
  • moeppel
    Zitat:
    UVP ;)


    Ich sehe das Problem darin, dass Boardhersteller den Founder-Märchenpreis als Grundlage nehmen können, da diese das Referenzdesign ohne Weiteres links liegen lassen dürften ;)

    Letztlich wäre ich nicht überrascht, wenn es sich hier nur um einen Money-Grab handelt, der in einigen Monaten belächelt wird (siehe Titan-Karten).

    Ich warte nun geduldig bis diese Performance in die gehobene Mittelklasse bzw. Oberklasse Einzug findet. Die 1070, so nehme ich an, wird sich irgendwo bei der 980Ti einordnen - oder drunter.

    In einigen Wochen sind wir schlauer. :D
    0
  • ybox720
    Ich finde übrigens den "Founder Preis" garnicht so Märchen... Momentan bekommt man gehörig mehrleistung gegenüber einer TI. Somit ist sie auch teurer. Wird sich sicher noch einpendeln. Fast Sync find ich auch interessant.
    0
  • Plitz
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)
    0
  • gst
    Exaktamundo. ;)
    0
  • amd64
    Wie gewohnt, super Artikel!

    "Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde."

    Da werden sich die Board Partner sicherlich breit machen, oder? :D
    0
  • ybox720
    Zitat:
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)

    "Ja, hallo bin ich hier bei der Computerbase-Redaktion? Hier Tomshardware. Ihr habt doch auch so eine GTX 1080 bekommen. Könnten wir da nicht..." Ok, ich weiß, die Brücke fehlt.
    1
  • Plitz
    Nu kennt man die NDA Bestimmungen nicht. Vielleicht war es ja so geregelt, dass man die Karte an niemanden externen weitergeben darf, was ja auch gut nachvollziehbar ist.
    0
  • Anonymous
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...
    0
  • moeppel
    Anonymous sagte:
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...


    Das wahrlich Makabere daran ist aber noch, dass Leute es hinnehmen, da die Produkte in Relation zueinander positioniert werden, statt wie es eigentlich sein müsste, sein Portfolio rundum zu erneuern nach so einem Sprung. Der Node Shrink ist längst überfällig, man ist über 5 Jahre auf 28nm rumgeeiert. Alles was keine 1070/1080/Polaris ist, gehört zum Altmetall. Dinosaurier einer Ära, die längst hätte verschwinden müssen.

    Aus Optimierungssicht hatte es aber sicher Vorteile, so lange auf 28nm gefangen zu sein.

    Die 20-30% Mehrleistung ist das mindesten, was ich von einem fast 50% Shrink erwarten würde.

    Mich würde es nicht verwundern, wenn wir die 1080 binnen 12 Monaten in der Mittelklasse sehen, sobald sie den Fertigungsprozess unter Kontrolle habe und die Speichertechnologien und Engpässe verfügbar sind. Zumindest glaube ich nicht, dass die Hersteller es nicht könnten, wenn sie wollten.

    Ich befürchte, dass die 1070 u.U so kastriert wird, dass Leistung einer 980 in die gehobene Mittelklasse gedrückt wird. Aufgrund des einfachen GDDR5 Speicher mit Nvidias oftmal recht spärlich gewähltem (bzw. nicht skalierenden) Speicherbus bleibt sie vermutlich weiter unter ihrem (theoretischen) Potential. Lässt dann aber Raum, um ein 'Ti' dran zu hängen, sofern die Konkurenz was aus dem Hut zaubern sollte.

    Der Geduldige wird belohnt werden, hoffe ich :D
    0
  • Derfnam
    Sehr enttäuschend. Gut, dass ich sowas erst in wenigstens 5 Jahren brauchen werde, dann ist das die neue Fußhupe :D
    0
  • FormatC
    Schöne Fußhupe. Miep, miep... :)

    Ich habe in diesem Stil noch 'ne Fermi 480 OC mit Accelero, eine 580 Lightning, eine 680 Lightning, eine 780 GHz Edition, eine 980 Strix und dann eben auch die 1080 zum rumhupen.
    0
  • Derfnam
    Und die 5 Jahre alte 580 ist die (nicht mehr ganz so) neue 750 Ti und ich zahl nie mehr als 150.- für ne Karte. Paßt scho.
    0
  • Chemidemi
    Ich Tippe mal aufgrund des Aufbaues der GPU wird sich ein Vergleich in FHD wohl nicht lohnen oder? Wird sich wohl ähnlich wie bei den Fury-Karten Verhalten die erst ab WQHD ihre stärke ausspielen konnten.
    0
  • FormatC
    Falsch, die GTX 1080 rennt fast permanent ins CPU Limit. Ich habe sogar einen *piep*950X bis auf 4.*piep* GHz geprügelt und es hat noch fast linear mit dem CPU-Takt skaliert Für Full-HD reichen auch kleine Karten.
    0
  • Chemidemi
    Ah das erklärt die amüsanten Ergebnisse anderer Seiten und das Geheule der dortigen Leser. ^^
    Danke für die Antwort und sehr schicker Test.
    Ich Tippe mal die Preise werden sich wohl noch nach unten korrigieren so in den 600 € Bereich und dann mit der Ti unter 600 € in etwa? Oder ist dies eher unrealistisch?
    0
  • FormatC
    Wir haben 1080p bewusst weggelassen, weil der Skylake sogar mit OC nur noch limitiert.
    Jetzt muss erst mal Intel liefern, ich hätte gern 30% auf den aktuellen i7 6700K. :)


    Wo lag die 980 vor 2 Wochen und wo nach dem Launch? Diese Spanne sollte auch hier realistisch sein, falls AMD liefern kann. Wenn nicht, vergiss es.
    0
  • Chemidemi
    Ich würde sagen sie ist etwa 50-100 € gefallen, also wäre man im Bereich zwischen 650-750 €. Naja wenn man die Leistung und vorallem die neuen Funktionen mit einbezieht ist das durchaus gerechtfertigt. Dazu der neue Speicher, welcher erst kürzlich in die Maßen Produktion ging. Aber das vergessen leider sehr viele und sehen nur Balken in einem Diagramm wo die versprochene Leistungsverdoppelung nicht immer sichtbar ist. Diese liegt halt an anderer Stelle und die Entwicklung der ganzen Funktionen wird wohl auch ein Großteil der Entwicklungskosten ausgemacht haben schätze ich.
    0