Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test

Neue Strukturbreite, neues Glück? Nvidia legt mit Pascal und der auf der GP104-GPU basierenden GeForce GTX 1080 ordentlich vor - doch werden die geweckten Erwartungen wirklich voll erfüllt?

Die Computex naht (oder Launch-Season, wie wir es mittlerweile titulieren) und Nvidia lässt den ersten großen Paukenschlag mit einer Implementierung seiner Pascal-Architektur für Gamer los. Die GP104-GPU treibt die neuen GeForce GTX-Karten 1070 und 1080 an. Wir schauen uns heute die GeForce GTX 1080 an, aber die GTX 1070 sollte Anfang Juni auf den Markt kommen - und ihr wird wiederum zweifelsfrei bis Ende 2016 ein breiten Portfolio Pascal-basierter Grafikarten folgen.

Pascal verspricht mehr Leistung sowie bessere Effizienz, bringt mehr Ressourcen in seiner Grafik-Pipeline mit, ist dichter auf einem kleineren Die gepackt, verfügt über schnelleren Speicher an einem überarbeiteten Controller und sollte das neue Heilsmittel für VR- und 4K-Gaming sein. Aber wie bei jedem Launch einer neuen Architektur gibt es noch viel mehr zu sehen - unter der Haube.

Wie immer fühlen wir den Versprechen der Hersteller genau auf den Zahn und testen, was das Zeug hält. Viel Spaß beim Lesen!

Kann die GeForce GTX 1080 das High-End-Segement durcheinanderwirbeln?

Nvidias GeForce GTX 1080 ist die schnellere von zwei Desktop-Grafikkarten, die diesen Monat vorgestellt wurden. Beide nutzen die GP104-GPU, die übrigens schon Nvidias zweite GPU ist, die auf der Pascal-Architektur basiert. Nvidias CEO Jen-Hsun Huang köderte Enthusiasten während seiner Präsentation zudem mit der Behauptung, dass die GeForce GTX 1080 schneller sein soll als zwei GTX 980 im SLI-Verbund.

Man sagte uns, dass die GTX 1080 mehr Performance bietet und dabei weniger Leistung aufnimmt als die 900er Serie. Sie soll außerdem die Performance des ehemaligen Flaggschiffs GeForce GTX Titan X nahezu verdoppeln und dabei dreimal so effizient sein – zumindest bezogen auf bestimmte VR-Workloads. Trotzdem: Wenn sich diese Aussagen auch nur ansatzweise bewahrheiten, bedeutet das einen neuen Höhepunkt in Sachen High-End-PC-Gaming, auch wenn die GeForce GTX 1080 non-Ti mit Sicherheit nur das vorübergehende Flaggschiff sein dürfte.

VR-Gaming steht gerade erst am Anfang – und heftige Anforderungen an die Grafik-Hardware stellen eine nicht zu unterschätzende Barriere für den Einstieg dar. Dazu kommt noch, dass die meisten aktuell verfügbaren Games noch nicht auf die Nutzung von Multi-GPU-Rendering programmiert sind. Das bedeutet, dass man generell auf die schnellste Single-GPU-Grafikkarte limitiert ist, die man finden kann. Wenn eine GTX 1080 wirklich zwei 980er übertrumpfen kann, sollte sie kein Problem mit aktuellen VR-Titeln haben und den Bedarf an Multi-GPU-Setups egalisieren.

Das 4K-Ökosystem entwickelt sich ebenfalls langsam, aber stetig. Zum Ende des Jahres werden neue Display-Schnittstellen mit mehr Bandbreite erwartet, dank denen 4K-Monitore mit 120-Hz-Panels und dynamischen Bildwiederholraten möglich werden. AMD und Nvidia bewarben zwar auch schon die High-End-Modelle der Vorgängergenerationen mit der Fähigkeit zum 4K-Gaming, aber wenn man flüssig spielbare Performance haben wollte, musste man qualitative Kompromisse eingehen. Nvidias GeForce GTX 1080 könnte die erste Grafikkarte sein, mit der man wirklich sauber bei 3840 x 2160 Pixeln spielen kann – und zwar mit allen Detaileinstellungen auf Maximum.

Und wie sieht es mit Multi-Monitor-Setups aus? Viele Gamer geben sich mit drei Full-HD-Monitoren (1920 x 1080 Pixel) zufrieden – oft aber nur, um ihre Hardware zu schonen. Denn für eine effektive Auflösung von 7860 x 1440 – bei drei WQHD-Displays – wollen sekündlich (!) eine halbe Milliarde Pixel verarbeitet werden. Und es gibt sogar Enthusiasten, die den WQHD-Zwischenschritt am liebsten überspringen und gleich zu einem Array aus drei 4K-Displays mit einer effektiven Auflösung von 11.520 x 2160 Pixeln wechseln würden.

Aber gut – das dürfte sogar für Nvidias neuestes Gaming-Flaggschiff ein bisschen zu übertrieben und exotisch sein. Aber Nvidia hat Technologien in seine GP104-GPU eingebettet, die bessere Performance mit Workloads versprechen, die am dringendsten mehr Power brauchen – 4K und Surround. Aber bevor wir uns mit diesen Extras beschäftigen schauen wir uns erst einmal die GP104 und die ihr zugrunde liegende Pascal-Architektur etwas genauer an.

Was steckt in der GP104?

AMD und Nvidia haben sich seit Anfang 2012 auf 28-nm-Prozesstechnik verlassen. Anfänglich konnten die beiden Hersteller mit Karten wie der Radeon HD 7970 und der GeForce GTX 680 große Sprünge machen. Über die nächsten vier Jahre hinweg mussten sie auf der Suche nach dem High-Performance-Gral allerdings immer kreativer werden. Was die Radeon R9 Fury X und die GeForce GTX 980 Ti schaffen, ist angesichts ihrer Komplexität einfach nur erstaunlich. GK104 – Nvidias Erstversuch in Sachen 28-nm-Prozesstechnik – war ein 3,5-Mrd.-Transistoren-Chip. GM 200, das Herz der GeForce GTX 980 Ti und der GeForce GTX Titan X, hatte acht Milliarden Transistoren an Bord.

Mit dem Wechsel hin zu TSMCs 16-nm-FinFET-Plus-Prozesstechnik (16FF+) können Nvidias Ingenieure erst mal durchschnaufen: Laut dem Chip-Fertiger ist 16FF+ bis zu 65 Prozent schneller und ermöglicht die doppelte Dichte oder eine um 70 Prozent niedrigere Leistungsaufnahme als 28HPM – und Nvidia nutzt garantiert eine optimierte Kombination dieser Attribute für die Fertigung seiner GPUs. TSMC behauptet außerdem, dass es den Metal-Backend-Prozess seiner existierenden 20-nm-Prozesstechnik nutzt – nur halt mit FinFETs statt planaren Transistoren. Obwohl dieser Schritt laut TSMC den Ertrag erhöhen und die Prozessreife verbessern soll, ist es schon ziemlich bezeichnend, dass es keine High-Performance-20-nm-Prozesstechnik gab (wie gesagt: Grafikkartenhersteller setzen seit vier Jahren auf 28 nm).

Folgerichtig ist der geistige Nachfolger der GM204-GPU aus 7,2 Milliarden Transistoren zusammengesetzt, die sich auf einer Fläche von 314 mm² zusammenballen – man vergleiche das mit den 5,2 Milliarden Transistoren der GM204 auf einem 398-mm²-Die. In der höchsten Ausbaustufe beinhaltet eine GP204 vier Graphics Processing Cluster (GPC). Jeder GPC beinhaltet fünf Thread/Texture Processing Clusters (TPC) und die Raster Engine. Ein TPC wiederum kombiniert einen Streaming Multiprocessor (SM) und eine PolyMorph-Engine.

Der SM besteht aus 128 CUDA-Kernen (SinglePrecision), einem 256-KByte-Register, 96 KByte Shared Memory, 48 KByte L1/Textur-Cache und acht Textur-Einheiten. Die PolyMorph-Engine der vierten Generation enthält einen neuen Logikblock, der am Ende der Geometrie-Pipeline und vor der Raster-Einheit sitzt, die für Nvidias 'Simultaneous Multi-Projection'-Feature zuständig ist (mehr dazu auf den Folgeseiten). Wenn man dies über alle 20 SMs zusammenrechnet, kommt man auf 2560 CUDA-Kerne und 160 Textur-Einheiten.

Das Backend der GPU bietet acht 32-Bit-Speicher-Controller (was somit einen aggregierten Speicherbus von 256 Bit Breite ergibt) sowie je acht ROPs und 256 KByte L2-Cache je Controller, was aufsummiert 64 ROPs und zwei Megabyte L2-Cache für die ganze GPU ergibt. Obwohl Nvidias Blockschaltbilder der GM204 vier 64-Bit-Controller und ebenso viele 16-ROP-Partitionen zeigte, waren diese gruppiert und funktionell äquivalent.

Wo wir schon dabei sind: Einige der strukturellen Spezifikationen der GP104-GPU erinnern an Teile der GM204-GPU – und in der Tat basiert die neue GPU auf Baublöcken des Vorgängers. Das ist keine schlechte Sache, denn bei der Maxwell-Architektur legte Nvidia großen Wert auf eine Steigerung der Effizienz, ohne dafür die Vorteile der Kepler-Architektur opfern zu müssen – und das Gleiche gilt auch hier.

Das Hinzufügen von vier SMs mag nicht nach viel aussehen, wenn man eine dramatisch höhere Performance erzielen will. Aber GP104 hat ein paar Asse im Ärmel. Eines davon ist eine deutlich höhere Taktfrequenz: Nvidias GPU-Basistakt liegt bei 1607 MHz. Zum Vergleich: GM204 war mit 1126 MHz spezifiziert. Der Boost-Takt der GP104 liegt bei 1733 MHz – und wir konnten unser Test-Sample mittels einer Beta-Version von EVGAs PrecisionX-Utility sogar auf knapp über 2100 MHz Boost übertakten.

Was es braucht, um so viel Luft nach oben zu bekommen? Laut Jonah Alben, Nvidias Senior Vice President of GPU Engineering, wusste sein Team, dass TSMCs 16FF+ das Design des Prozessors verändern würde. Also habe man sich darauf konzentriert, die Timings des Chips zu optimieren, um Pfade freizumachen, die schnellere Taktfrequenzen verhindern würden. Das Ergebnis: Die Single-Precision-Compute-Performance der GP104 erreicht einen Wert von 8228 GFLOPs (wenn man beim Basis-Takt bleibt), während die GeForce GTX 980 maximal 4612 GFLOPs schafft. Und die Textur-Füllrate springt von den 155,6 GT/s der GTX 980 (bei Boost-Frequenz) auf satte 277,3 GT/s.

GPU
GeForce GTX 1080 (GP104)
GeForce GTX 980 (GM204)
SMs
20
16
CUDA Cores
2650
2048
Base Clock
1607MHz
1126MHz
GPU Boost Clock
1733MHz
1216MHz
GFLOPs (Base Clock)
8228
4612
Texture Units
160
128
Texel Fill Rate
277.3 GT/s
155.6 GT/s
Memory Data Rate
10 Gb/s
7 Gb/s
Memory Bandwidth
320 GB/s
224 GB/s
ROPs
64
64
L2 Cache
2MB
2MB
TDP
180W
165W
Transistors
7.2 billion
5.2 billion
Die Size
314mm²398mm²
Process Node
16nm
28nm

Und auch wenn wir immer noch über ein Backend mit 64 ROPs und einem 256 Bit breiten Speicherinterface sprechen: Nvidia verbaut GDDR5X-Speicher, um die verfügbare Bandbreite aufzupeppen. Nvidia hat sich alle Mühe gegeben, diesen Schritt so positiv wie möglich darzustellen – obwohl etliche AMD-Karten HBM verbauen und Nvidias eigene Tesla P100 sogar schon HBM2 als Speicher mitbringt. Aber wie es aussieht, gibt es momentan nicht genug HBM2-Speicher und Nvidia ist nicht willens, sich mit den Limitierungen von HBM herumzuschlagen (auf den Punkt gebracht: vier 1-GByte-Stapel oder die Probleme, die mit acht 1-GByte-Stapeln einhergehen).

Somit wurde folgerichtig GDDR5X-Speicher verbaut, der ebenfalls nicht gerade breit verfügbar sein dürfte, weil die Massenproduktion gerade erst gestartet wurde. Das erklärt dann auch, dass die GTX 1070 „normalen“ GDDR5-Speicher nutzt. Allerdings sollte man das Ganze nicht kleinreden: Mit GDDR5 waren auf der GeForce GTX 980 Datenraten von sieben GBit/s möglich. An einem 256-Bit-Bus resultierte das in einem Durchsatz von bis zu 224 GByte/s. Bei GDDR5X geht das Ganze bei zehn GBit/s los, was eine Bandbreite von 320 Gbyte/s bedeutet – eine 43-prozentige Steigerung. Nvidia zufolge soll die die Energieaufnahme wegen eines überarbeiteten I/O-Schaltkreises zudem nicht gestiegen sein. Außerdem schafft Nvidia damit auch recht elegant noch einen zusätzlichen Abstand zur günstigeren GeForce GTX 1070.

Die Maxwell-Architektur nutzte die zur Verfügung stehende Bandbreite durch optimierte Caches und Kompressionsalgorithmen effektiver – und Pascal stößt durch die Implementierung neuer Lossless-Techniken, die an verschiedenen Stellen des Speichersubsystems für Einsparungen sorgen, in die gleiche Bresche. Die Delta-Farbkompression von GP104 versucht sich an 2:1-Einsparungen – und dieser Modus soll angeblich dahingehend verbessert worden sein, dass er öfter genutzt werden kann.

Es gibt außerdem einen neuen 4:1-Modus, der dann zum Tragen kommt, wenn die Pro-Pixel-Unterschiede sehr gering sind und in einen noch kleineren Raum komprimiert werden können. Schließlich hat Pascal sogar einen 8:1-Modus, der die konstante 4:1-Kompression von 2x2-Blöcken mit einer 2:1-Kompression ihrer Unterschiede kombiniert.

Um das Ganze mal zu illustrieren: Das erste Bild zeigt einen nicht komprimierten Screenshot von Project CARS. Der nächste Screenshot zeigt Elemente, die Maxwell komprimieren konnte – hier durch Magenta ersetzt. Zuletzt sehen wir die Kompression durch Pascal, die noch größere Bildbereiche umfasst. Laut Nvidia resultiert das in einer etwa 20-prozentigen Reduktion der Bytes, die pro Bild aus dem Speicher abgerufen werden müssen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
106 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Solide Leistung und gute Wahl für 2560*1440. Für 4K tauglich halte ich sie dann immer noch nicht, auch wenn die Richtung erkennbar ist.

    Bei dem Preispunkt vorerst allerdings äußerst uninteressant. Belibt noch abzuwarten, wie viel Luft nach oben ist bei den OC Modellen und wo diese sich preislich einrichten werden.

    Bei DX12 sieht es dann tatsächlich nach einem Nvidia Brute-Force Versuch aus, als tatsächlichen Architekturverbesserungen.

    800€ ist nicht wenig, noch viel weniger, wenn man weiß, dass der große Pascal noch gar nicht das Licht der Welt erblickt hat ;)
    0
  • FormatC
    UVP ;)
    0
  • ybox720
    SLI darf noch keiner machen?
    0
  • moeppel
    Zitat:
    UVP ;)


    Ich sehe das Problem darin, dass Boardhersteller den Founder-Märchenpreis als Grundlage nehmen können, da diese das Referenzdesign ohne Weiteres links liegen lassen dürften ;)

    Letztlich wäre ich nicht überrascht, wenn es sich hier nur um einen Money-Grab handelt, der in einigen Monaten belächelt wird (siehe Titan-Karten).

    Ich warte nun geduldig bis diese Performance in die gehobene Mittelklasse bzw. Oberklasse Einzug findet. Die 1070, so nehme ich an, wird sich irgendwo bei der 980Ti einordnen - oder drunter.

    In einigen Wochen sind wir schlauer. :D
    0
  • ybox720
    Ich finde übrigens den "Founder Preis" garnicht so Märchen... Momentan bekommt man gehörig mehrleistung gegenüber einer TI. Somit ist sie auch teurer. Wird sich sicher noch einpendeln. Fast Sync find ich auch interessant.
    0
  • Plitz
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)
    0
  • gst
    Exaktamundo. ;)
    0
  • amd64
    Wie gewohnt, super Artikel!

    "Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde."

    Da werden sich die Board Partner sicherlich breit machen, oder? :D
    0
  • ybox720
    Zitat:
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)

    "Ja, hallo bin ich hier bei der Computerbase-Redaktion? Hier Tomshardware. Ihr habt doch auch so eine GTX 1080 bekommen. Könnten wir da nicht..." Ok, ich weiß, die Brücke fehlt.
    1
  • Plitz
    Nu kennt man die NDA Bestimmungen nicht. Vielleicht war es ja so geregelt, dass man die Karte an niemanden externen weitergeben darf, was ja auch gut nachvollziehbar ist.
    0
  • Anonymous
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...
    0
  • moeppel
    Anonymous sagte:
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...


    Das wahrlich Makabere daran ist aber noch, dass Leute es hinnehmen, da die Produkte in Relation zueinander positioniert werden, statt wie es eigentlich sein müsste, sein Portfolio rundum zu erneuern nach so einem Sprung. Der Node Shrink ist längst überfällig, man ist über 5 Jahre auf 28nm rumgeeiert. Alles was keine 1070/1080/Polaris ist, gehört zum Altmetall. Dinosaurier einer Ära, die längst hätte verschwinden müssen.

    Aus Optimierungssicht hatte es aber sicher Vorteile, so lange auf 28nm gefangen zu sein.

    Die 20-30% Mehrleistung ist das mindesten, was ich von einem fast 50% Shrink erwarten würde.

    Mich würde es nicht verwundern, wenn wir die 1080 binnen 12 Monaten in der Mittelklasse sehen, sobald sie den Fertigungsprozess unter Kontrolle habe und die Speichertechnologien und Engpässe verfügbar sind. Zumindest glaube ich nicht, dass die Hersteller es nicht könnten, wenn sie wollten.

    Ich befürchte, dass die 1070 u.U so kastriert wird, dass Leistung einer 980 in die gehobene Mittelklasse gedrückt wird. Aufgrund des einfachen GDDR5 Speicher mit Nvidias oftmal recht spärlich gewähltem (bzw. nicht skalierenden) Speicherbus bleibt sie vermutlich weiter unter ihrem (theoretischen) Potential. Lässt dann aber Raum, um ein 'Ti' dran zu hängen, sofern die Konkurenz was aus dem Hut zaubern sollte.

    Der Geduldige wird belohnt werden, hoffe ich :D
    0
  • Derfnam
    Sehr enttäuschend. Gut, dass ich sowas erst in wenigstens 5 Jahren brauchen werde, dann ist das die neue Fußhupe :D
    0
  • FormatC
    Schöne Fußhupe. Miep, miep... :)

    Ich habe in diesem Stil noch 'ne Fermi 480 OC mit Accelero, eine 580 Lightning, eine 680 Lightning, eine 780 GHz Edition, eine 980 Strix und dann eben auch die 1080 zum rumhupen.
    0
  • Derfnam
    Und die 5 Jahre alte 580 ist die (nicht mehr ganz so) neue 750 Ti und ich zahl nie mehr als 150.- für ne Karte. Paßt scho.
    0
  • Chemidemi
    Ich Tippe mal aufgrund des Aufbaues der GPU wird sich ein Vergleich in FHD wohl nicht lohnen oder? Wird sich wohl ähnlich wie bei den Fury-Karten Verhalten die erst ab WQHD ihre stärke ausspielen konnten.
    0
  • FormatC
    Falsch, die GTX 1080 rennt fast permanent ins CPU Limit. Ich habe sogar einen *piep*950X bis auf 4.*piep* GHz geprügelt und es hat noch fast linear mit dem CPU-Takt skaliert Für Full-HD reichen auch kleine Karten.
    0
  • Chemidemi
    Ah das erklärt die amüsanten Ergebnisse anderer Seiten und das Geheule der dortigen Leser. ^^
    Danke für die Antwort und sehr schicker Test.
    Ich Tippe mal die Preise werden sich wohl noch nach unten korrigieren so in den 600 € Bereich und dann mit der Ti unter 600 € in etwa? Oder ist dies eher unrealistisch?
    0
  • FormatC
    Wir haben 1080p bewusst weggelassen, weil der Skylake sogar mit OC nur noch limitiert.
    Jetzt muss erst mal Intel liefern, ich hätte gern 30% auf den aktuellen i7 6700K. :)


    Wo lag die 980 vor 2 Wochen und wo nach dem Launch? Diese Spanne sollte auch hier realistisch sein, falls AMD liefern kann. Wenn nicht, vergiss es.
    0
  • Chemidemi
    Ich würde sagen sie ist etwa 50-100 € gefallen, also wäre man im Bereich zwischen 650-750 €. Naja wenn man die Leistung und vorallem die neuen Funktionen mit einbezieht ist das durchaus gerechtfertigt. Dazu der neue Speicher, welcher erst kürzlich in die Maßen Produktion ging. Aber das vergessen leider sehr viele und sehen nur Balken in einem Diagramm wo die versprochene Leistungsverdoppelung nicht immer sichtbar ist. Diese liegt halt an anderer Stelle und die Entwicklung der ganzen Funktionen wird wohl auch ein Großteil der Entwicklungskosten ausgemacht haben schätze ich.
    0