Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test

Temperaturen und Lautstärke

Temperaturen und Taktrate

Kommen wir nun zur Kühlung und damit zur Stunde der Wahrheit: Während auf der Nvidia-Präsentation noch euphorisch von einer luftgekühlten Karte gesprochen wurde, die in der gezeigten Demo die 65°-Marke nicht überschritt, sieht dies in der Realität etwas anders aus - auch wenn der Temperaturanstieg immerhin drei Minten dauert. Dann aber muss auch bei dieser Karte das gesetzte Temperatur-Target von etwa 83-84°C helfend eingreifen. Beim Stresstest werden es dann auch schon einmal 85°C.

Wir haben uns aber die ganze Zeit gewundert, wie Nvidia bei der Präsentation die gezeigten 65°C erreicht haben will. Um das Temperaturlimit zu umgehen, haben wir dann zum Test einfach mal den Lüfter auf (laute!) 100 Prozent gestellt - und genau das war des Rätsels Lösung!

Bei unserem Standard-Setup mit 22°C Raumtemperatur sind es nur noch 68 bis 69°C und in einem Raum bei 20°C sowie der weniger fordernden Full-HD-Auflösung dann exakt die 65°C von der Produktvorstellung. Dass diese Geräuschentwicklung in einem voll gefüllten Saal mit Hintergrundmusik nicht weiter auffällt, war dabei sicher einkalkuliert reiner Zufall.

Die Folgen dieser Schaumbremse sind nur logisch, denn in gleichem Maße sinkt der tatsächlich anliegende Takt im Gaming-Loop auf den Basistakt ab - und vom Boost bleibt überhaupt nichts mehr übrig. Beim Stresstest ist es sogar noch ärger, denn der Takt fällt unter das, was Nvidia bei 1607 MHz als Basistakt definiert hat.

Kommen wir erneut zur orangenen Kurve des Übertaktungsdurchlaufs zurück. Wir registrieren am Anfang erstaunliche 2126 MHz, die sich im weiteren Verlauf bei 2088 MHz einpendeln. Lässt man das Spiel bei Full-HD laufen, spart man nicht nur satte 34 Watt Leistungsaufnahme ein, die nicht in Wärme umgesetzt werden, sondern wird dann von der Karte sogar mit einem konstanten Boost-Takt oberhalb der 2,1-GHz-Marke belohnt!

Zusammenfassend kann man also sagen, dass die Mission DHE-Kühlung durchaus funktioniert, jedoch auch bei dieser Karte enge technische Grenzen gesetzt werden und bei echten und herausfordernden Lasten sogar eine Übertaktung sinnlos wird. In Full-HD war die Last merklich geringer - aber wer kauft schon so eine performante Karte für kleine Bildschirme?

Infrarotmessung im Idle

Der wärmste Punkt im Idle ist einer der Dual-Channel-MOSFETS bei den Spannungswandlern mit zu vernachlässigenden 38°C - aber wo soll auch Abwärme herkommen, wenn die Leistungsaufnehme unter sieben Watt liegt? Das ganze Testobjekt hat quasi Körpertemperatur, mehr nicht.

Infrarotmessung beim Gaming-Loop

Man merkt es am Wert und sieht es optisch auch an der Platine: Die Vapor-Chamber verrichtet ihren Dienst annehmbar, denn die Platinentemperatur unter der GPU liegt zwei bis drei Kelvin unterhalb des Messwertes der GPU-Diode! Wäre die Kühlung noch einen Tick besser, würde wohl auch das thermische Limit keine Rolle mehr spielen. Im Notfall kann der Anwender also auch gern mit einem eigenen Lüfterprofil experimentieren.

Infrarotmessungen im Stresstest

Bemerkenswert auch hier: Die Spannungswandler spielen beim thermischen Schaulaufen keine Rolle! Einzig die GPU heizt, was die Grillkohle hergibt, und die Platinentemperatur erreicht nach angemessener Zeit das gleiche Temperaturniveau wie die GPU. Jetzt laufen nach der "thermischen Durchweichung" des PCBs auch die Speicherchips hart an der Grenze ihrer Spezifikation, aber noch nicht im roten Bereich.

Da jedoch kaum jemand in der Praxis längere Stresstests laufen lässt, ist dieser Anwendungsfall in der Praxis wohl eher auszuschließen.

Lüfterdrehzahlen und Geräuschentwicklung

Gemessen wird wie immer in unserem refexionsarmen Raum auf einem wassergekühlten, speziellen Silent-System. Die praktische Untergrenze unseres Raum-im-Raum-Konzeptes liegt bei circa 22 dB(A) - bedingt durch die laufende Hardware. Allerdings werden wir diesen Wert mit einer solchen Karte wohl nie benötigen.

Wer weitere Details zu unseren Messungen wissen möchte, sei auf den Grundlagenartikel Tom's Hardware intern: So testen wir Geräuschemissionen verwiesen.

Testsystem und Hardware
Mikrofon:
NTI Audio M2211 (mit Kalibrierungsdatei, Low Cut bei 50 Hz)
Verstärker:
Steinberg UR12 (mit Phantomspeisung für die Mikrofone)
Hardware:Grafikkarten-Testsystem mit optimierter Wasserkühlung:
- Intel Core i7-5930K @ 4,2 GHz, wassergekühlt
- Crucial Ballistix Sport, 4x 4 GByte DDR4-2400
- MSI X99S XPower AC
- 1x Crucial MX200, 500-GByte-SSD (System)
- 1x Corsair Force LS, 960-GByte-SSD (Anwendungen, Daten)
- Be Quiet! Dark Power Pro, 850-Watt-Netzteil
Wasserkühlung:
- Alphacool VPP655 Pumpe (abgeregelt)
- Alphacool NexXxos-CPU-Kühler
- Phobya Balancer
- Alphacool 24-cm-Radiator
- 2x 12 cm Noiseblocker eLoop-Lüfter @400 U/min
Software:Smaart v.7
Messraum:
eigener reflexionsarmer Messraum, 3,5 x 1,8 x 2,2 m (LxTxH)
Kontrollmessungen:Axialmessungen, lotrecht zur Mitte der Schallquelle(n), Messabstand 50 cm
Ausgabewerte:
- Geräuschentwicklung in dBA (Slow) als RTA-Messung
- Frequenzspektrum der emittierten Geräusche (Grafik)

Werfen wir jetzt einen Blick auf die Geräuschentwicklung im Gaming-Loop, nachdem die Karte ihre Maximaltemperaturen erreicht hat (siehe Temperatur-Diagramme oben).

Mit den gemessenen 41,6 dB(A) liegt die DHE-Karte noch recht gut im Rennen, wenn wir dieses Ergebnis mit preiswerteren Custom-Designs der GeForce GTX 980 vergleichen. Außerdem schafft man im direkten Vergleich zur GeForce GTX 980 im Referenz-Design immerhin einen um zwei Dezibel niedrigeren Geräuschpegel.

Bei Torture-Test stehen für die GeForce GTX 1080 dann 46,8 dB(A) auf der Anzeige, was sogar deutliche 3,2 dB(A) unter dem damaligen Messwert für die GeForce GTX 980 liegt.

Das entstehende, nach oben hin sehr breitbandige Lüftergeräusch ist angenehm, weil es ein fast reines Rauschen ist und man den Motor des Lüfters nie einzeln heraushören kann. Im Gegensatz zu den brummigen und sehr billigen Axiallüftern der ehemaligen AMD-Referenzkarten und dem, was manche Board-Partner verbauen, ist der Geräuschteppich durchaus erträglich und tolerierbar.

Zwischenfazit

Die Kühllösung ist per se nicht schlecht, auch wenn die Karte unnötig an Performance verliert, weil sie bei richtiger Last dann doch ins thermische Limit läuft. Hier können wir uns dann auch die Board-Partner-Lösungen freuen, die garantiert deutlich leiser und vor allem auch wesentlich kühler agieren werden.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
106 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Solide Leistung und gute Wahl für 2560*1440. Für 4K tauglich halte ich sie dann immer noch nicht, auch wenn die Richtung erkennbar ist.

    Bei dem Preispunkt vorerst allerdings äußerst uninteressant. Belibt noch abzuwarten, wie viel Luft nach oben ist bei den OC Modellen und wo diese sich preislich einrichten werden.

    Bei DX12 sieht es dann tatsächlich nach einem Nvidia Brute-Force Versuch aus, als tatsächlichen Architekturverbesserungen.

    800€ ist nicht wenig, noch viel weniger, wenn man weiß, dass der große Pascal noch gar nicht das Licht der Welt erblickt hat ;)
    0
  • FormatC
    UVP ;)
    0
  • ybox720
    SLI darf noch keiner machen?
    0
  • moeppel
    Zitat:
    UVP ;)


    Ich sehe das Problem darin, dass Boardhersteller den Founder-Märchenpreis als Grundlage nehmen können, da diese das Referenzdesign ohne Weiteres links liegen lassen dürften ;)

    Letztlich wäre ich nicht überrascht, wenn es sich hier nur um einen Money-Grab handelt, der in einigen Monaten belächelt wird (siehe Titan-Karten).

    Ich warte nun geduldig bis diese Performance in die gehobene Mittelklasse bzw. Oberklasse Einzug findet. Die 1070, so nehme ich an, wird sich irgendwo bei der 980Ti einordnen - oder drunter.

    In einigen Wochen sind wir schlauer. :D
    0
  • ybox720
    Ich finde übrigens den "Founder Preis" garnicht so Märchen... Momentan bekommt man gehörig mehrleistung gegenüber einer TI. Somit ist sie auch teurer. Wird sich sicher noch einpendeln. Fast Sync find ich auch interessant.
    0
  • Plitz
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)
    0
  • gst
    Exaktamundo. ;)
    0
  • amd64
    Wie gewohnt, super Artikel!

    "Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde."

    Da werden sich die Board Partner sicherlich breit machen, oder? :D
    0
  • ybox720
    Zitat:
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)

    "Ja, hallo bin ich hier bei der Computerbase-Redaktion? Hier Tomshardware. Ihr habt doch auch so eine GTX 1080 bekommen. Könnten wir da nicht..." Ok, ich weiß, die Brücke fehlt.
    1
  • Plitz
    Nu kennt man die NDA Bestimmungen nicht. Vielleicht war es ja so geregelt, dass man die Karte an niemanden externen weitergeben darf, was ja auch gut nachvollziehbar ist.
    0
  • Anonymous
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...
    0
  • moeppel
    Anonymous sagte:
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...


    Das wahrlich Makabere daran ist aber noch, dass Leute es hinnehmen, da die Produkte in Relation zueinander positioniert werden, statt wie es eigentlich sein müsste, sein Portfolio rundum zu erneuern nach so einem Sprung. Der Node Shrink ist längst überfällig, man ist über 5 Jahre auf 28nm rumgeeiert. Alles was keine 1070/1080/Polaris ist, gehört zum Altmetall. Dinosaurier einer Ära, die längst hätte verschwinden müssen.

    Aus Optimierungssicht hatte es aber sicher Vorteile, so lange auf 28nm gefangen zu sein.

    Die 20-30% Mehrleistung ist das mindesten, was ich von einem fast 50% Shrink erwarten würde.

    Mich würde es nicht verwundern, wenn wir die 1080 binnen 12 Monaten in der Mittelklasse sehen, sobald sie den Fertigungsprozess unter Kontrolle habe und die Speichertechnologien und Engpässe verfügbar sind. Zumindest glaube ich nicht, dass die Hersteller es nicht könnten, wenn sie wollten.

    Ich befürchte, dass die 1070 u.U so kastriert wird, dass Leistung einer 980 in die gehobene Mittelklasse gedrückt wird. Aufgrund des einfachen GDDR5 Speicher mit Nvidias oftmal recht spärlich gewähltem (bzw. nicht skalierenden) Speicherbus bleibt sie vermutlich weiter unter ihrem (theoretischen) Potential. Lässt dann aber Raum, um ein 'Ti' dran zu hängen, sofern die Konkurenz was aus dem Hut zaubern sollte.

    Der Geduldige wird belohnt werden, hoffe ich :D
    0
  • Derfnam
    Sehr enttäuschend. Gut, dass ich sowas erst in wenigstens 5 Jahren brauchen werde, dann ist das die neue Fußhupe :D
    0
  • FormatC
    Schöne Fußhupe. Miep, miep... :)

    Ich habe in diesem Stil noch 'ne Fermi 480 OC mit Accelero, eine 580 Lightning, eine 680 Lightning, eine 780 GHz Edition, eine 980 Strix und dann eben auch die 1080 zum rumhupen.
    0
  • Derfnam
    Und die 5 Jahre alte 580 ist die (nicht mehr ganz so) neue 750 Ti und ich zahl nie mehr als 150.- für ne Karte. Paßt scho.
    0
  • Chemidemi
    Ich Tippe mal aufgrund des Aufbaues der GPU wird sich ein Vergleich in FHD wohl nicht lohnen oder? Wird sich wohl ähnlich wie bei den Fury-Karten Verhalten die erst ab WQHD ihre stärke ausspielen konnten.
    0
  • FormatC
    Falsch, die GTX 1080 rennt fast permanent ins CPU Limit. Ich habe sogar einen *piep*950X bis auf 4.*piep* GHz geprügelt und es hat noch fast linear mit dem CPU-Takt skaliert Für Full-HD reichen auch kleine Karten.
    0
  • Chemidemi
    Ah das erklärt die amüsanten Ergebnisse anderer Seiten und das Geheule der dortigen Leser. ^^
    Danke für die Antwort und sehr schicker Test.
    Ich Tippe mal die Preise werden sich wohl noch nach unten korrigieren so in den 600 € Bereich und dann mit der Ti unter 600 € in etwa? Oder ist dies eher unrealistisch?
    0
  • FormatC
    Wir haben 1080p bewusst weggelassen, weil der Skylake sogar mit OC nur noch limitiert.
    Jetzt muss erst mal Intel liefern, ich hätte gern 30% auf den aktuellen i7 6700K. :)


    Wo lag die 980 vor 2 Wochen und wo nach dem Launch? Diese Spanne sollte auch hier realistisch sein, falls AMD liefern kann. Wenn nicht, vergiss es.
    0
  • Chemidemi
    Ich würde sagen sie ist etwa 50-100 € gefallen, also wäre man im Bereich zwischen 650-750 €. Naja wenn man die Leistung und vorallem die neuen Funktionen mit einbezieht ist das durchaus gerechtfertigt. Dazu der neue Speicher, welcher erst kürzlich in die Maßen Produktion ging. Aber das vergessen leider sehr viele und sehen nur Balken in einem Diagramm wo die versprochene Leistungsverdoppelung nicht immer sichtbar ist. Diese liegt halt an anderer Stelle und die Entwicklung der ganzen Funktionen wird wohl auch ein Großteil der Entwicklungskosten ausgemacht haben schätze ich.
    0