Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test

Display-Pipeline, SLI und Boost 3.0

Pascals Display-Pipeline: HDR-Ready

Als wir uns letztes Jahr mit AMD im kalifornischen Sonoma trafen, ließ der Hersteller einige Details zu seiner Polaris-Architektur durchblicken. Eines davon war eine Display-Pipeline, die HDR-Content und -Displays (High Dynamic Range) unterstützt.

Da überrascht es kaum, dass Nvidias Pascal-Architektur eine ähnliche Funktionalität bietet - die teilweise schon mit Maxwell eingeführt wurde. Der Display-Controller der GP104-GPU bringt beispielsweise 12 Bit Farbtiefe, Unterstützung für BT.2020 Wide Color Gamut, die elektro-optische Transferfunktion SMPTE-2084 sowie HDMI 2.0b mit HDCP 2.2 mit.

Zu dieser Liste kommt beschleunigtes HEVC-Decoding bei 4K60p und 10/12 Bit Farbtiefe durch Fixed-Function-Hardware, was wiederum auf Support für die Version 2 des HEVC-Standards hindeuten würde. Bislang griff Nvidia auf einen Hybridansatz zurück, bei dem Software genutzt wurde. Aber wir vermuten, dass für Nvidias Unterstützung von Microsofts kontroverser PlayReady-3.0-Spezifikation eine schnellere und effizientere Lösung her musste.

Die Architektur unterstützt auch HEVC-Encoding in 10 Bit Farbtiefe bei 4K60p für HDR-Aufnahme oder -Streaming - und Nvidias meint auch schon eine "Killer-App" dafür zu haben: Mit GP104s Encoding-Hardware und der kommenden GameStream-HDR-Software kann man HDR-fähige Games auf ein Shield-Gerät streamen, das mit einem HDR-fähigen Fernseher verbunden ist. Das Shiled-Gerät ist mit einem eigenen HEVC-Decoder mit Unterstützung für 10-Bit-pro-Pixel-Farbtiefe bestückt, so dass die Pipeline von einem zum anderen Ende erhalten bleibt.


GeForce GTX 1080
GeForce GTX 980
H.264 Encode
Yes (2x 4K60p)
Yes
HEVC Encode
Yes (2x 4K60p)Yes
10-bit  HEVC Encode
Yes
No
H.264 Decode
Yes (4K120p up to 240 Mb/s)
Yes
HEVC Decode
Yes (4K120p/8K30p up to 320 Mb/s)
No
VP9 Decode
Yes (4K120p up to 320 Mb/s)
No
10/12-bit HEVC Decode
Yes
No

Ergänzend zum HDMI-2.0b-Support ist die GeForce GTX 1080 DisplayPort-1.2-zertifiziert sowie DP-1.3/1.4-ready und übertrumpft so AMD Polaris’ DP-1.3-fähigen Display-Controller, bevor jener überhaupt das Licht der Welt erblickt hat. Aber zum Glück für AMD definiert die Version 1.4 dieser Spezifikation keinen schnelleren Übertragungsmodus – die 32,4 GBit/s von HBR3 stellen immer noch die Speerspitze dar.

Die GeForce GTX 1080 Founders Edition bietet drei DP-Anschlüsse, einen HDMI-2.0b-Port und einen DVI-Ausgang (Dual-Link). Wie die GTX 980 kann auch die GTX 1080 vier unabhängige Monitore gleichzeitig befeuern. Aber anstelle der höchstens 5120 x 3200 Pixel beim Anschluss zweier DP-1.2-Kabel unterstützt die GTX 1080 eine maximale Auflösung von 7680 x 4320 Pixeln bei 60Hz.

SLI: Now Officially Supporting Two GPUs

Traditionell waren Nvidias Grafikkarten-Top-Modelle mit zwei Anschlüsse an der Oberseite ausgestattet, mit denen man zwei, drei oder vier Karten zu einem SLI-Verbund zusammenschließen konnte.

Die beste Skalierung durften sich Enthusiasten von Dual-Konfigurationen erwarten. Bei größeren Setups nahmen die Performance-Zugewinne je weiterer Karte sukzessive ab, da sich die Fallstricke und Engpässe multiplizierten.

Aber einige Enthusiasten setzten dennoch auf 3- oder 4-Wege-Setups, um das letzte Quäntchen Leistung aus der Hardware kitzeln und natürlich auch damit ein bisschen damit prahlen zu können.

Die Zeiten ändern sich allerdings. Laut Nvidia unterstützt die GeForce GTX offiziell nur 2-Wege-SLI. Der Grund: Schwierigkeiten in Sachen sinnvoller Skalierung bei den neuesten Games – zweifellos auch in Bezug auf DirectX 12.

Aber warum hat die Karte dann immer noch zwei Anschlüsse? Die Antwort: Mittels neuer SLI-Brücken können beide Anschlüsse simultan genutzt werden, um einen Dual-Link-Modus zu etablieren. Man kommt so nicht nur in den Genuss der Vorteile eines zweiten Interfaces – Pascal hebt den I/O-Speed gleichzeitig von den 400 MHz der Vorgängergeneration auf 650 MHz an. Alles zusammen sorgt dafür, dass sich die Bandbreite zwischen den beiden Grafikprozessoren mehr als verdoppelt.

Viele Gamer werden keinen Vorteil in einer schnelleren Verbindung sehen; die Auswirkungen zeigen sich primär bei hohen Auflösungen und Bildwiederholraten. Nvidia zeigte allerdings ein FCAT-Capture, dass zwei GeForce GTX 1080 beim Spielen von Middle earth: Shadow of Mordor auf drei 4K-Displays zeigte.

Wenn man beide Karten mit der alten Brücke verband, resultierte das in ständigen Frame-Time-Spikes – und das wiederum lässt sich sehr einfach als vorhersehbares Timing-Problem deuten, das sich im Gameplay als gefühltes Stottern manifestieren wird. Bei Verwendung der neuen Bridge waren die Spikes weder so zahlreich, noch so stark ausgeprägt wie bei der alten Bridge, was in einem gefühlt flüssigeren Gameplay resultieren sollte.

Nvidia fügte außerdem hinzu, dass seine SLI-High-Bandwith-Brücken nicht die einzigen sind, die den Dual-Link-Modus unterstützen: Existierende Brücken mit LED-Beleuchtung sollen ebenfalls mit bis zu 650 MHz arbeiten können, wenn man sie auf Pascal-basierten Boards nutzt. Letztlich sind es nur die flexiblen oder „nackten“ Standard-Brücken, um die man einen Bogen machen sollte, wenn man mit 4K-Auflösung (oder noch höher) spielt. Schaut im Zweifel einfach in der folgenden Tabelle nach, die weiter Angaben von Nvida enthält:


1920x1080
2560x1440
@ 60Hz
2560x1440
@ 120Hz+
4K
5K
Surround
Standard Bridge
x
x




LED Bridge
x
x
x
x


High-Bandwidth Bridge
x
x
x
x
x
x

Aber was was der Grund für diese uncharakteristische Kehrtwende bezüglich 3- und 4-Wege-SLI-Setups von einer Firma, die sich dem Verkauf von Hardware und der Suche nach immer höherer Performance verschrieben hat?

Zyniker könnten jetzt sagen, dass Nvidia sich nicht für den Mangel an Leistungszugewinnen bei 3- und 4-Wege-SLI-Konfigurationen in einem Gaming-Markt verantworten will, der diesem Rendering-Ansatz zunehmend ablehnend gegenübersteht. Aber Nvidia selbst besteht weiterhin darauf, dass es nur das Beste für seine Kunden im Sinn hat, da Microsoft immer mehr Kontrolle über Multi-GPU-Konfigurationen in die Hände der Spieleentwickler legt, die wiederum Technologien wie Split-Frame-Rendering anstelle von AFR ausprobieren.

Enthusiasten, denen das alles herzlich egal ist und die einfach nur Speed-Rekorde älterer Software brechen wollen, können die GTX 1080 dennoch in 3- und 4-Wege-Konstellationen laufen lassen. Sie müssen dazu mit Hilfe einer Nvidia-Software eine einzigartige Hardware-Signatur erstellen, mit der sie dann einen „Unlock-Key“ anfordern können. Da die neuen SLI-HB-Brücken nur mit maximal zwei Karten funktionieren, muss man dazu natürlich auch ältere LED-Brücken für 3-/4-Wege-Setups auftreiben, die den 650-Mhz-Takt der GP104-GPU unterstützen.

Eine kleine Einführung in Boost 3.0

Nvidia hat Boost noch einmal verfeinert - was ja auch zu erwarten war. Da wäre einerseits die verbesserten Power Estimation, also die Vorhersage dessen, was an Last in der Folgezeit anliegen könnte, die natürlich auch von der deutlich verbesserten Preemption (siehe Einführung) profitiert.

Damit kann der Arbitrator im Zusammenspiel mit allen aktuellen Sensorwerten (Stromfluss, Spannungen, Temperaturen, Lüfter usw.) eine noch genauere Einstellung der verfügbaren Boost-Taktraten und der dafür benötigten Spannungen vornehmen. Andererseits sind diese Sprünge nun merklich niedriger, so dass auch deutlich niedrigere Lastspitzen entstehen, obwohl die Intervalle zwischen den einzelnen Zuständen sogar geringer ausfallen als früher.

Dies ermöglicht im Umkehrschluss auch ein deutlich effizienteres Arbeiten der GPU. Betrachten wir Nvidias Schema, dann sehen wir, welcher Spielraum bei Boost 2.0 noch verschenkt wurde. Waren bisher im BIOS die einzelnen Boost-Taktraten in Schritten zusammen mit den korrespondierenden Spannungen in Tabellen hinterlegt, lässt sich nun dieses Takt-Spannungs-Verhältnis auch mehr oder weniger frei anpassen, ohne das BIOS selbst modden zu müssen.

Das funktioniert auch dann, wenn man beim Übertakten den Offset verschiebt, während man sich früher neben der linearen Taktanhebung mit einer ebenso linearen Spannungsanhebung zufrieden geben musste. Nun aber kann auch hier sehr filigran mit den Spannungen umgegangen werden, denn jede Taktfrequenz kann so eine optimale, noch ausreichende Spannung zugewiesen bekommen, ohne gleich alles mit dem Holzhammer erschlagen zu müssen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
106 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Solide Leistung und gute Wahl für 2560*1440. Für 4K tauglich halte ich sie dann immer noch nicht, auch wenn die Richtung erkennbar ist.

    Bei dem Preispunkt vorerst allerdings äußerst uninteressant. Belibt noch abzuwarten, wie viel Luft nach oben ist bei den OC Modellen und wo diese sich preislich einrichten werden.

    Bei DX12 sieht es dann tatsächlich nach einem Nvidia Brute-Force Versuch aus, als tatsächlichen Architekturverbesserungen.

    800€ ist nicht wenig, noch viel weniger, wenn man weiß, dass der große Pascal noch gar nicht das Licht der Welt erblickt hat ;)
    0
  • FormatC
    UVP ;)
    0
  • ybox720
    SLI darf noch keiner machen?
    0
  • moeppel
    Zitat:
    UVP ;)


    Ich sehe das Problem darin, dass Boardhersteller den Founder-Märchenpreis als Grundlage nehmen können, da diese das Referenzdesign ohne Weiteres links liegen lassen dürften ;)

    Letztlich wäre ich nicht überrascht, wenn es sich hier nur um einen Money-Grab handelt, der in einigen Monaten belächelt wird (siehe Titan-Karten).

    Ich warte nun geduldig bis diese Performance in die gehobene Mittelklasse bzw. Oberklasse Einzug findet. Die 1070, so nehme ich an, wird sich irgendwo bei der 980Ti einordnen - oder drunter.

    In einigen Wochen sind wir schlauer. :D
    0
  • ybox720
    Ich finde übrigens den "Founder Preis" garnicht so Märchen... Momentan bekommt man gehörig mehrleistung gegenüber einer TI. Somit ist sie auch teurer. Wird sich sicher noch einpendeln. Fast Sync find ich auch interessant.
    0
  • Plitz
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)
    0
  • gst
    Exaktamundo. ;)
    0
  • amd64
    Wie gewohnt, super Artikel!

    "Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde."

    Da werden sich die Board Partner sicherlich breit machen, oder? :D
    0
  • ybox720
    Zitat:
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)

    "Ja, hallo bin ich hier bei der Computerbase-Redaktion? Hier Tomshardware. Ihr habt doch auch so eine GTX 1080 bekommen. Könnten wir da nicht..." Ok, ich weiß, die Brücke fehlt.
    1
  • Plitz
    Nu kennt man die NDA Bestimmungen nicht. Vielleicht war es ja so geregelt, dass man die Karte an niemanden externen weitergeben darf, was ja auch gut nachvollziehbar ist.
    0
  • Anonymous
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...
    0
  • moeppel
    Anonymous sagte:
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...


    Das wahrlich Makabere daran ist aber noch, dass Leute es hinnehmen, da die Produkte in Relation zueinander positioniert werden, statt wie es eigentlich sein müsste, sein Portfolio rundum zu erneuern nach so einem Sprung. Der Node Shrink ist längst überfällig, man ist über 5 Jahre auf 28nm rumgeeiert. Alles was keine 1070/1080/Polaris ist, gehört zum Altmetall. Dinosaurier einer Ära, die längst hätte verschwinden müssen.

    Aus Optimierungssicht hatte es aber sicher Vorteile, so lange auf 28nm gefangen zu sein.

    Die 20-30% Mehrleistung ist das mindesten, was ich von einem fast 50% Shrink erwarten würde.

    Mich würde es nicht verwundern, wenn wir die 1080 binnen 12 Monaten in der Mittelklasse sehen, sobald sie den Fertigungsprozess unter Kontrolle habe und die Speichertechnologien und Engpässe verfügbar sind. Zumindest glaube ich nicht, dass die Hersteller es nicht könnten, wenn sie wollten.

    Ich befürchte, dass die 1070 u.U so kastriert wird, dass Leistung einer 980 in die gehobene Mittelklasse gedrückt wird. Aufgrund des einfachen GDDR5 Speicher mit Nvidias oftmal recht spärlich gewähltem (bzw. nicht skalierenden) Speicherbus bleibt sie vermutlich weiter unter ihrem (theoretischen) Potential. Lässt dann aber Raum, um ein 'Ti' dran zu hängen, sofern die Konkurenz was aus dem Hut zaubern sollte.

    Der Geduldige wird belohnt werden, hoffe ich :D
    0
  • Derfnam
    Sehr enttäuschend. Gut, dass ich sowas erst in wenigstens 5 Jahren brauchen werde, dann ist das die neue Fußhupe :D
    0
  • FormatC
    Schöne Fußhupe. Miep, miep... :)

    Ich habe in diesem Stil noch 'ne Fermi 480 OC mit Accelero, eine 580 Lightning, eine 680 Lightning, eine 780 GHz Edition, eine 980 Strix und dann eben auch die 1080 zum rumhupen.
    0
  • Derfnam
    Und die 5 Jahre alte 580 ist die (nicht mehr ganz so) neue 750 Ti und ich zahl nie mehr als 150.- für ne Karte. Paßt scho.
    0
  • Chemidemi
    Ich Tippe mal aufgrund des Aufbaues der GPU wird sich ein Vergleich in FHD wohl nicht lohnen oder? Wird sich wohl ähnlich wie bei den Fury-Karten Verhalten die erst ab WQHD ihre stärke ausspielen konnten.
    0
  • FormatC
    Falsch, die GTX 1080 rennt fast permanent ins CPU Limit. Ich habe sogar einen *piep*950X bis auf 4.*piep* GHz geprügelt und es hat noch fast linear mit dem CPU-Takt skaliert Für Full-HD reichen auch kleine Karten.
    0
  • Chemidemi
    Ah das erklärt die amüsanten Ergebnisse anderer Seiten und das Geheule der dortigen Leser. ^^
    Danke für die Antwort und sehr schicker Test.
    Ich Tippe mal die Preise werden sich wohl noch nach unten korrigieren so in den 600 € Bereich und dann mit der Ti unter 600 € in etwa? Oder ist dies eher unrealistisch?
    0
  • FormatC
    Wir haben 1080p bewusst weggelassen, weil der Skylake sogar mit OC nur noch limitiert.
    Jetzt muss erst mal Intel liefern, ich hätte gern 30% auf den aktuellen i7 6700K. :)


    Wo lag die 980 vor 2 Wochen und wo nach dem Launch? Diese Spanne sollte auch hier realistisch sein, falls AMD liefern kann. Wenn nicht, vergiss es.
    0
  • Chemidemi
    Ich würde sagen sie ist etwa 50-100 € gefallen, also wäre man im Bereich zwischen 650-750 €. Naja wenn man die Leistung und vorallem die neuen Funktionen mit einbezieht ist das durchaus gerechtfertigt. Dazu der neue Speicher, welcher erst kürzlich in die Maßen Produktion ging. Aber das vergessen leider sehr viele und sehen nur Balken in einem Diagramm wo die versprochene Leistungsverdoppelung nicht immer sichtbar ist. Diese liegt halt an anderer Stelle und die Entwicklung der ganzen Funktionen wird wohl auch ein Großteil der Entwicklungskosten ausgemacht haben schätze ich.
    0