Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test

Äußerer Aufbau, Platine und Schaltungsdetails

Optik, Haptik und Anschlüsse

Nvidia spricht von "Founders Edition" und "Craftmanship" anstelle des früher genutzten und vielleicht nun zu banal klingenden Wortes "Referenzdesign". Rein optisch folgt die Gestaltung natürlich stets dem Zeitgeist, während sich die Ausführung im DHE-Kühlkonzept (Direct Heat Exhaust) seit Jahren nicht geändert hat.

Die immerhin 1020 Gramm schwere und 27 cm lange Karte ist auch haptisch durchaus eine erfreuliche Erscheinung, denn die Abdeckung sieht nicht nur metallisch aus, sie ist es dank Aluminiumguß auch. Die silber-matten Flächen sind allerdings nur lackiert, so dass sie recht kratzempfindlich sein dürften.

Die zweiteilige Backplate an der Rückseite ist Optik pur und besitzt keinerlei kühlende Funktion. Wir werden später noch sehen, ob dies nötig gewesen wäre, oder ob die entstehende Abwärme vom Kühler auch so gut bewältigt wird. Nvidia selbst empfiehlt, sie zur besseren Kühlung bei SLI-Konfigurationen teilweise zu entfernen.

Die Kartenunterseite zeigt keinerlei Besonderheiten oder Auffälligkeiten. Allerdings liegt der schwarze Part des Montagerahmens an der Unterseite oft auf vielen Mainboard-Komponenten auf (Kühler, SATA-Ports).

An der Oberseite sehen wir den externen 8-Pin PCIe-Spannungsversorgungsanschluss, der für dieses Design erst einmal ausreichen muss. Anhand der Spezifikationen und dem Umstand, dass auf der 12-Volt-Schiene immerhin noch ca. 60 Watt über das Mainboard geliefert werden könnten, reicht dieser Anschluss für die angegebene TDP von 180 Watt gerade so aus.

Wie viel es am Ende genau sein werden und welche Reserven gegebenenfalls verbleiben (oder auch nicht), das klären wir gewohnt detailliert bei der Leistungsaufnahmemessung.

Außerdem finden sich noch zwei SLI-Anschlüsse, wobei Nvidia neuerdings auf High-Speed-Brücken setzt, so dass für ein SLI aus zwei Karten bereits beide Anschlüsse benötigt werden. Spezielle Brücken bietet Nvidia bereits an, weist aber auch darauf hin, dass man nicht mehr auf SLI-Lösungen mit mehr als zwei Karten setzt.

Die Slot-Blende wird von insgesamt drei DisplayPort-Anschlüssen dominiert, wobei man den DisplayPort 1.2 zertifiert ausweist, jedoch auch auf die Implementierung neuerer Standards verweist (DisplayPort 1.3/1.4 ready). Der verbaute Controller-Chip kann es jedenfalls. Dazu kommen noch ein HDMI-2.0-Ausgang und der duale DVI-D-Ausgang. Auf ein analoges Signal wird hingegen komplett verzichtet.

Das Ende der Karte ist reichlich unspektakulär: Neben der Luftöffnung fallen noch drei in den Montagerahmen geschnittene Gewinde auf, die zum Befestigen der Karte dienen können. Solche Vorrichtungen sind vor allem im Workstation-Bereich seit Langem üblich.

Kühleraufbau und Spannungsversorgung

Nach den optischen und haptischen Eindrücken kommen wir nun zu weiteren Details im Inneren der Karte. Dazu wird es notwendig, die ganze Konstruktion auseinander zu schrauben. Insgesamt 51 Teile (einschließlich aller Schrauben) liegen nun auf dem Tisch, 12 weitere könnten es noch werden, wenn man auch noch den Lüfter komplett entfernt.

Nvidia setzt endlich wieder auf eine echte Vapor-Chamber-Lösung, die als kompaktes Modul mit vier Schrauben an der Platine neben dem GPU-Sockel verschraubt wird.

Der Radiallüfter ist keine absolute Neuheit und bläst als reine DHE-Lösung (Direct Heat Exhaust) die angesaugte Luft durch die Lamellen des Kühlers in Richtung Slot-Blende nach außen. Der gesamte Montagerahmen (Frame) dient nicht nur zur Stabilisierung der Karte, sondern auch zur Kühlung von Komponenten wie Spannungswandler und Speicher.

Betrachten wir nun endlich die mühsam freigelegte Platine von oben und verschaffen uns einen ersten Überblick. Im Gegensatz zu bisherigen Layouts setzt Nvidia bei der GeForce GTX 1080 auf ein 6-Pasen-Design. Dabei dienen fünf Phasen der ausgeklügelten Spannungsversorgung der GPU und eine Phase wird für die konstante Spannungsversorgung des GDDRX5-Speichers genutzt.

Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde.

Der stark geschrumpfte, nur noch 317 mm² große Chip ist diesmal eher länglich und befindet sich an gewohnter Position. Interessant sind in diesem Zusammenhang auch die Leiterbahnen auf den einzelnen Layern der Platine um den Chip herum, denn die Signalwege müssen wegen den hohen Taktraten möglichst kurz bzw. sehr durchdacht geplant werden.

Aufgrund dieser deutlich gestiegenen Frequenzen wird es bis zu den ersten, komplett selbst gestalteten Eigen-Designs der Board-Partner sicherlich noch etwas dauern.

Beim Speicher gibt es ebenfalls einschneidende Veränderungen: Beim 6HA77 (bei einigen vorab geleakten Bildern war es noch 6GA77) handelt es sich um GDDR5X-Speicher von Micron, dessen Massenfertigung erst unlängst gestartet wurde.

Ingesamt acht dieser mit 1251 MHz (Basis) getakteten Speicherchips sind an einem 256 Bit breiten Speicher-Interface angebunden, was eine theoretische Bandbreite von 320 GByte/s ergibt und noch einigen Spielraum für eigene Übertaktungsversuche lassen dürfte.

Dabei setzt Micron beim GDDR5X auf ein 170-Pin-Package (statt 190 Pins bei DDR5). Die Größe der Module schrumpft ebenfalls leicht von 14 x 12 mm auf 14 x 10 mm, so dass am Ende auch die Dichte leicht steigen dürfte. Kühlung wird also Pflicht.

Drehen wir nun die Karte um und betrachten die Rückseite. Zuerst fällt uns auf, dass auf der Platine noch ein zweiter externer Spannungsversorgungsanschluss vorgesehen, jedoch nicht bestückt ist.

Zum einen lässt das den Board-Partnern Spielraum für eine extensivere Energiezuführ mit zwei Buchsen und andererseits könnte das Design auch für Workstation-Karten genutzt werden, deren Anschlüsse meist an der Kartenrückseite platziert sind.

Interessant ist auch die Aussparung in der Platine, um notfalls auch um 180° gedrehte Anschlüsse verbauen zu können.

Auf der Rückseite finden wir neben den direkt unterhalb der GPU platzierten Kondensatoren zur Glättung möglicher Spikes auch den PWM-Controller, der von der Vorder- auf die Rückseite gewandert ist. Das schafft Raum auf der Oberseite für spätere Eigen-Designs mit aufgesetzter Spezialplatine, wie wir es in der Vergangenheit bereits of genug gesehen haben.

Doch zurück zum PWM-Chip für die Spannungsregelung (VR, voltage regulation). Da Nvidia mit Boost 3.0 deutlich andere Anforderungen an die Spannungsversorgung stellt, hat sich auch hier einiges getan.

Bei einem reinen 5+1-Phasen-System hätten wir eigentlich einen Chip wie den IR3536A von International Rectifier erwartet, aber es kommt immer anders, als man denkt. Die Nachteile liegen hierbei jedoch momentan noch auf der Seite des Anwenders, da die Schnittstelle zu den herkömmlichen OC-Tools wie den MSI Afterburner oder Gigabytes OC-Guru nicht mehr passt bzw. das verwendete Protokoll abweicht. Dieser Wechsel auf den (noch) sehr schlecht dokumentierten µP9511P wird also rein technische Hintergründe haben.

Da der PWM-Controller die MOSFETs der einzelnen Spannungswandler-Phasen nicht direkt ansprechen kann, setzt Nvidia mit den 53603A auf solide PWM-Treiber (gate driver) für die Ansteuerung der Power-MOSFETS.

Das Schaltungslayout ist dabei - im Gegensatz zu dem mancher Hersteller, die diese Schaltkreise auch schon mal direkt auf der Rückseite unterhalb der MOSFETs platzieren - klar und aufgeräumt.

Es sind verschiedene Arten MOSFETS verbaut, wobei es sich beim 4C85N um einen recht belastbaren Dual-Channel MOSFET im DC/DC-Spannungswandlerbereich handelt, der in den insgesamt sechs Phasen der Spannungsversorgung seinen Job verrichtet und zudem über ausreichend elektrische und thermische Reserven verfügt, um auch mit höheren Lasten als denen des Werk-Designs zurechtzukommen.

Wir sind gespannt, inwieweit sich Boost 3.0 und das modifizierte Layout der Spannungsversorgung auch auf die Leistungsaufnahme auswirken werden, die wir gewohnt genau messen und analysieren werden.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
106 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Solide Leistung und gute Wahl für 2560*1440. Für 4K tauglich halte ich sie dann immer noch nicht, auch wenn die Richtung erkennbar ist.

    Bei dem Preispunkt vorerst allerdings äußerst uninteressant. Belibt noch abzuwarten, wie viel Luft nach oben ist bei den OC Modellen und wo diese sich preislich einrichten werden.

    Bei DX12 sieht es dann tatsächlich nach einem Nvidia Brute-Force Versuch aus, als tatsächlichen Architekturverbesserungen.

    800€ ist nicht wenig, noch viel weniger, wenn man weiß, dass der große Pascal noch gar nicht das Licht der Welt erblickt hat ;)
    0
  • FormatC
    UVP ;)
    0
  • ybox720
    SLI darf noch keiner machen?
    0
  • moeppel
    Zitat:
    UVP ;)


    Ich sehe das Problem darin, dass Boardhersteller den Founder-Märchenpreis als Grundlage nehmen können, da diese das Referenzdesign ohne Weiteres links liegen lassen dürften ;)

    Letztlich wäre ich nicht überrascht, wenn es sich hier nur um einen Money-Grab handelt, der in einigen Monaten belächelt wird (siehe Titan-Karten).

    Ich warte nun geduldig bis diese Performance in die gehobene Mittelklasse bzw. Oberklasse Einzug findet. Die 1070, so nehme ich an, wird sich irgendwo bei der 980Ti einordnen - oder drunter.

    In einigen Wochen sind wir schlauer. :D
    0
  • ybox720
    Ich finde übrigens den "Founder Preis" garnicht so Märchen... Momentan bekommt man gehörig mehrleistung gegenüber einer TI. Somit ist sie auch teurer. Wird sich sicher noch einpendeln. Fast Sync find ich auch interessant.
    0
  • Plitz
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)
    0
  • gst
    Exaktamundo. ;)
    0
  • amd64
    Wie gewohnt, super Artikel!

    "Wir sehen jedoch auch, dass noch eine weitere Phase auf der Verschaltung möglich gewesen wäre, der Platz für die Bauelemente jedoch frei gelassen wurde."

    Da werden sich die Board Partner sicherlich breit machen, oder? :D
    0
  • ybox720
    Zitat:
    Zitat:
    SLI darf noch keiner machen?

    SLI kann noch keiner machen, da jeder nur eine Karte bekommen hat ;)

    "Ja, hallo bin ich hier bei der Computerbase-Redaktion? Hier Tomshardware. Ihr habt doch auch so eine GTX 1080 bekommen. Könnten wir da nicht..." Ok, ich weiß, die Brücke fehlt.
    1
  • Plitz
    Nu kennt man die NDA Bestimmungen nicht. Vielleicht war es ja so geregelt, dass man die Karte an niemanden externen weitergeben darf, was ja auch gut nachvollziehbar ist.
    0
  • Anonymous
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...
    0
  • moeppel
    Anonymous sagte:
    Die Karte selbst leistet gute Arbeit.

    Sie verbraucht so viel wie ihr Vorgänger (GTX 980), leistet aber 60-70% mehr und schlägt damit die Referenz GTX 980 Ti um bis zu 30%. Die Dinger werden aber 700€ aufwärts kosten, an der Stelle kann man nur noch Linus Torvalds zitieren. Zum Vergleich: Die schon überteuerte GTX 980 wurde "nur" bei ~500€ angesiedelt. Man nutzt jeden Leistungsschub, um einfach das Preisniveau in die Höhe zu katapultieren.

    Das nur TSMC schuld daran sein soll, wage ich zu bezweifeln, schließlich ist die Ausbeute vom neuen Prozess gar nicht schlecht. Die Preise steigen und steigen und steigen...sagte ich schon, dass sie nur steigen?

    Man sollte nicht vergessen, dass der Vor-Vor-Vorgänger, die GTX 560 Ti - knapp 200€ zu Buche geschlagen hatte...


    Das wahrlich Makabere daran ist aber noch, dass Leute es hinnehmen, da die Produkte in Relation zueinander positioniert werden, statt wie es eigentlich sein müsste, sein Portfolio rundum zu erneuern nach so einem Sprung. Der Node Shrink ist längst überfällig, man ist über 5 Jahre auf 28nm rumgeeiert. Alles was keine 1070/1080/Polaris ist, gehört zum Altmetall. Dinosaurier einer Ära, die längst hätte verschwinden müssen.

    Aus Optimierungssicht hatte es aber sicher Vorteile, so lange auf 28nm gefangen zu sein.

    Die 20-30% Mehrleistung ist das mindesten, was ich von einem fast 50% Shrink erwarten würde.

    Mich würde es nicht verwundern, wenn wir die 1080 binnen 12 Monaten in der Mittelklasse sehen, sobald sie den Fertigungsprozess unter Kontrolle habe und die Speichertechnologien und Engpässe verfügbar sind. Zumindest glaube ich nicht, dass die Hersteller es nicht könnten, wenn sie wollten.

    Ich befürchte, dass die 1070 u.U so kastriert wird, dass Leistung einer 980 in die gehobene Mittelklasse gedrückt wird. Aufgrund des einfachen GDDR5 Speicher mit Nvidias oftmal recht spärlich gewähltem (bzw. nicht skalierenden) Speicherbus bleibt sie vermutlich weiter unter ihrem (theoretischen) Potential. Lässt dann aber Raum, um ein 'Ti' dran zu hängen, sofern die Konkurenz was aus dem Hut zaubern sollte.

    Der Geduldige wird belohnt werden, hoffe ich :D
    0
  • Derfnam
    Sehr enttäuschend. Gut, dass ich sowas erst in wenigstens 5 Jahren brauchen werde, dann ist das die neue Fußhupe :D
    0
  • FormatC
    Schöne Fußhupe. Miep, miep... :)

    Ich habe in diesem Stil noch 'ne Fermi 480 OC mit Accelero, eine 580 Lightning, eine 680 Lightning, eine 780 GHz Edition, eine 980 Strix und dann eben auch die 1080 zum rumhupen.
    0
  • Derfnam
    Und die 5 Jahre alte 580 ist die (nicht mehr ganz so) neue 750 Ti und ich zahl nie mehr als 150.- für ne Karte. Paßt scho.
    0
  • Chemidemi
    Ich Tippe mal aufgrund des Aufbaues der GPU wird sich ein Vergleich in FHD wohl nicht lohnen oder? Wird sich wohl ähnlich wie bei den Fury-Karten Verhalten die erst ab WQHD ihre stärke ausspielen konnten.
    0
  • FormatC
    Falsch, die GTX 1080 rennt fast permanent ins CPU Limit. Ich habe sogar einen *piep*950X bis auf 4.*piep* GHz geprügelt und es hat noch fast linear mit dem CPU-Takt skaliert Für Full-HD reichen auch kleine Karten.
    0
  • Chemidemi
    Ah das erklärt die amüsanten Ergebnisse anderer Seiten und das Geheule der dortigen Leser. ^^
    Danke für die Antwort und sehr schicker Test.
    Ich Tippe mal die Preise werden sich wohl noch nach unten korrigieren so in den 600 € Bereich und dann mit der Ti unter 600 € in etwa? Oder ist dies eher unrealistisch?
    0
  • FormatC
    Wir haben 1080p bewusst weggelassen, weil der Skylake sogar mit OC nur noch limitiert.
    Jetzt muss erst mal Intel liefern, ich hätte gern 30% auf den aktuellen i7 6700K. :)


    Wo lag die 980 vor 2 Wochen und wo nach dem Launch? Diese Spanne sollte auch hier realistisch sein, falls AMD liefern kann. Wenn nicht, vergiss es.
    0
  • Chemidemi
    Ich würde sagen sie ist etwa 50-100 € gefallen, also wäre man im Bereich zwischen 650-750 €. Naja wenn man die Leistung und vorallem die neuen Funktionen mit einbezieht ist das durchaus gerechtfertigt. Dazu der neue Speicher, welcher erst kürzlich in die Maßen Produktion ging. Aber das vergessen leider sehr viele und sehen nur Balken in einem Diagramm wo die versprochene Leistungsverdoppelung nicht immer sichtbar ist. Diese liegt halt an anderer Stelle und die Entwicklung der ganzen Funktionen wird wohl auch ein Großteil der Entwicklungskosten ausgemacht haben schätze ich.
    0