Leise, schnell und bedarfsweise auch hungrig: MSI GeForce GTX 1080 Ti Gaming X 11G im Test

Gewaltig, schwer und schnell - mit der GeForce GTX 1080 Ti Gaming X 11G schickt MSI das neue, eigene Schlachtschiff ins Rennen, das zudem auch richtig leise sein soll. Ob diese Kombination aus hohem Power Target und viel Takt aufgeht, zeigt unser Test.

Nein, kleckern ist nicht ihr Ding und MSI setzt ja gern noch einen drauf, wenn die Spezifikationen der Standard- bzw. Referenzmodelle ("Nvidia GeForce GTX 1080 Ti 11GB im Test") nicht pompös genug erscheinen. Warum auch nicht, solange man die Folgen der Überernährung noch gut im Griff hat? Mit einem Power Target von über 330 Watt und einem wuchtigen Kühler schaut man recht optimistisch drein. Und genau dort wollen wir auch im Test ansetzen.

Da die eigentliche Performance aller Boardpartnerkarten eher vom tatsächlich erreichten Boost-Takt, und somit ursächlich von der Kühlung, dem Power Target und vor allem auch der Güte des jeweiligen Chips abhängen, ist jeder nur auf Benchmarkbalken basierende Test eher eine auf Zufällen basierende Momentaufnahme eines einzelnstehenden Exemplars. Genau deshalb haben wir den Schwerpunkt dieser Einzelreviews vor allem auf die eigentliche technischen Umsetzung jedes Modells gelegt und dies mit unserem Equipment auch sehr gut dokumentieren können.

Unboxing, Abmessungen und Anschlüsse

Doch zurück zur MSI GTX 1080 Ti Gaming X 11G. MSI war mit dem eigenen Modell sehr zeitig am Start und setzt wie so oft in der letzten Zeit nicht auf die höchste mögliche Taktrate ab Werk, wenngleich das maximal auswählbare Power Target von bis zu 330 Watt (über Software) schon eine Menge Holz ist. Es wird also interessant sein zu sehen, wie gut der riesige Kühler damit ggf. zurechtkommt (oder auch nicht). Konservative Settings ab Werk und genügend manueller OC-Spielraum für die (un)erwachsenen Spielkinder waren noch nie eine unkluge Entscheidung.

Die Karte ist im Vergleich zur MSI GTX 1080 Gaming X (non-Ti) vor allem eines geworden: schwerer. Da wir bei der kleineren Karte seinerzeit zudem Kühlprobleme im Bereich der Spannungswandler und Speichermodule feststellen mussten, sind der Umbau und die Weiterentwicklung des Kühlers nunmehr nur folgerichtig.

Mit einem Kampfgewicht von 1,253 Kilo, moderaten 27,9 mm realer Einbaulänge (Außenkante Slot-Blende bis Ende des Covers), einer Höhe von 13,5 cm (Oberkante Mainboard-Slot bis Oberkante Abdeckung) und einer Einbautiefe von 4,57 cm ist die 2,5-Slot-Karte ein richtiges Dickschiff, das auf der Rückseite noch einmal ca. 0,5 cm Platz benötigt, was man bei großen Turmkühlern berücksichtigen sollte.

Der Materialmix aus rot-schwarzem Kunststoff für die Abdeckung ist Ansichtssache, folgt aber der Design-Linie anderer und älterer Karten sehr konsequent. Die Oberseite ist geprägt vom hintergrundbeleuchteten MSI-Logo und einem aufgedruckten GeForce-Schriftzug, die zwei 8-Pin-Spannungsversorgungsanschlüsse sitzen um 180° gedreht am Platinenende der Oberseite.

Unter- und Oberseite zeigen die vertikale Lamellenausrichtung des Kühlers und ein besonders erfreuliches Detail, denn MSI hat das Feedback aufgegriffen und endlich auch einen echten VRM-Heatsink in den großen Kühleraufbau integriert.

Das Ende der Karte zeigt und die drei 6mm- und eine 8-mm Heatpipe für den rechten Teil des Kühleraufbaus, doch dazu später mehr. Bei der Anschlussvielfalt der Slotblende setzt man bei MSI im Hinblick auf VR-Brillen auf gleich zwei HDMI-2.0-Anschlüsse, sowie zwei DisplayPort-1.4-Buchsen und einen Dual-Link DVI-D-Anschluss. Allerdings lassen sich immer nur maximal vier Ausgänge gleichzeitig nutzen.

Spezifikationen

Der GPU-Z Screenshot zeigt uns bereits vorab die wichtigsten Eckdaten, wobei der tatsächlich erreichte Boost bei unserem Modell deutlich höher lag:

Abschließend das Ganze noch einmal als tabellarischer Vergleich zu den anderen, relevanten Grafikkartenmodellen:


Nvidia
Titan X
(Pascal)
Nvidia
GeForce
GTX 1080 Ti FE
MSI
GTX 1080 Ti
Gaming X 11G
Nvidia
GeForce
GTX 1080 FE
Nvidia
GeForce
GTX 980 Ti
GPU
GP102
GP102
GP102GP104
GM200
CUDA-Kerne
3584
3584
35842560
2816
Basistakt1417 MHz1480 MHz
1544 MHz
1607 MHz1000 MHz
Boost-Takt
1531 MHz+1582 MHz+
1658 MHz
1733 MHz+1076 MHz+
Speichergröße & -typ
12 GByte
GDDR5X
11 GByte
GDDR5X
11 GByte
GDDR5X
8 GByte
GDDR5X
6 GByte
GDDR5
Die-Größe
471 mm²
471 mm²
471 mm²314 mm²
601 mm²
Prozesstechnik
16 nm
16 nm
16 nm16 nm
28 nm
Transistoren
12 Mrd.
12 Mrd.
12 Mrd.7,2 Mrd.
8 Mrd.
Streaming Multiprozessoren (SM)
28
28
28
20
22
GFLOPS (Basistakt)
10.157
10.609
11.068
8.228
5.632
Textureinheiten
224
224
224160
176
Texturfüllrate
317,4 GT/s331,5 GT/s345,9 GT/s
257,1 GT/s214 GT/s
ROPs
968888
6496
Pixelfüllrate
136 GPix/s130,24 GPix/s135,9 GPix/s
114,2 GPix/s116,7 GPix/s
Speicherdatenrate
10 GBit/s11 GBit/s11 GBit/s10 GBit/s7 GBit/s
Speicherbus
384 Bit
352 Bit
352 Bit256 Bit
384 Bit
Speicherbandbreite
480 GByte/s
484 GByte/s
484 GByte/s320 GByte/s
336 GByte/s
L2-Cache
3 MByte
2816 KByte
2816 KByte2 MByte
3 MByte
TDP
250 Watt
250 Watt
330 Watt
180 Watt
250 Watt

Testsystem und Messmethoden

Das neue Testsystem und die -Methodik haben wir im Grundlagenartikel "So testen wir Grafikkarten, Stand Februar 2017" (Englisch: "How We Test Graphics Cards") bereits sehr ausführlich beschrieben und verweisen deshalb der Einfachheit halber jetzt nur noch auf diese detaillierte Schilderung. Wer also alles noch einmal ganz genau nachlesen möchte, ist dazu gern eingeladen. Allerdings haben wir CPU und Kühlung noch einmal verbessert, um für diese schnelle Karte mögliche CPU-Flaschenhälse weitgehend auszuschließen.

Interessierten bietet die Zusammenfassung in Tabellenform schnell noch einen kurzen Überblick:

Testsysteme und Messräume
Hardware:
Intel Core i7-6900K @4,3 GHz
MSI X99S XPower Gaming Titanium
Corsair Vengeance DDR4-3200
1x 1 TByte Toshiba OCZ RD400 (M.2, System SSD)
2x 960 GByte Toshiba OCZ TR150 (Storage, Images)
Be Quiet Dark Power Pro 11, 850-Watt-Netzteil
Windows 10 Pro (alle Updates)
Kühlung:
Alphacool Eisblock XPX
Alphacool Eiszeit 2000 Chiller
2x Be Quiet! Silent Wings 3 PWM (Closed Case Simulation)
Thermal Grizzly Kryonaut (für Kühlerwechsel)
Gehäuse:
Lian Li PC-T70 mit Erweiterungskit und Modifikationen
Modi: Open Benchtable, Closed Case
Leistungsaufnahme:
berührungslose Gleichstrommessung am PCIe-Slot (Riser-Card)
berührungslose Gleichstrommessung an der externen PCIe-Stromversorgung
direkte Spannungsmessung an den jeweiligen Zuführungen und am Netzteil
2x Rohde & Schwarz HMO 3054, 500 MHz Mehrkanal-Oszillograph mit Speicherfunktion
4x Rohde & Schwarz HZO50, Stromzangenadapter (1 mA bis 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, Tastteiler (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, Digitalmultimeter mit Speicherfunktion
Thermografie:
Optris PI640, Infrarotkamera
PI Connect Auswertungssoftware mit Profilen
Akustik:
NTI Audio M2211 (mit Kalibrierungsdatei)
Steinberg UR12 (mit Phantomspeisung für die Mikrofone)
Creative X7, Smaart v.7
eigener reflexionsarmer Messraum, 3,5 x 1,8 x 2,2 m (LxTxH)
Axialmessungen, lotrecht zur Mitte der Schallquelle(n), Messabstand 50 cm
Geräuschentwicklung in dBA (Slow) als RTA-Messung
Frequenzspektrum als Grafik
Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
27 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • xsyst90
    Ich glaube die Abmessungen stimmen so nicht ganz.
    27,9mm Einbaulänge kommen mir doch recht kurz vor, wohingegen eine Einbautiefe von 4,57m etwas mehr als 2,5 Slots belegen dürfte ;)
    0
  • FormatC
    Ist längst gefixt (wie so einiges andere auch), aber der Cache vom Front-End hängt mal wieder. Trotzdem Danke :)
    0
  • WiteFisch
    Kein Wort zu spulenfiepen / coilwhine?
    Das ist nämlich der Grund warum ich meine Asus 1080ti strix OC wieder zurücksende.
    Was bringen leise Lüfter wenn man dafür ständig mit fiepen gequält wird...
    0
  • Tesetilaro
    dafür macht igor das bild mit dem geräuschpegel - fiepen würdest Du sehen ;)
    0
  • FormatC
    Genau so. Dazu gibt's doch eine extra Analyse mit dem gesamten Frequenzband. Nur weil das andere nicht machen wollen/können muss man doch nicht darauf verzichten. Ist halt ungewohnt, aber im Testaufbau auch schon oft genug erklärt worden. :)

    Das Gefiepe/Schnarren würde bei ca 6 bis 8 KHz einen hellgrünen Balken ergeben.
    0
  • Tesetilaro
    wobei ich mit einem Hauch von Kritik anmerken möchte, das die Skala selbst groß kaum zu lesen ist, bei dieser graphik ;)
    0
  • FormatC
    Ist halt 4K. Nichts für trübe Briefmarken-Funzeln. Machs doch mal 1:1 ;)
    Ich könnte noch 8K liefern ;)
    0
  • Plitz
    Schön zu sehen, dass sowohl AMD als auch Nvidia endlich den Multimonitorverbrauch im Griff haben. Wie schaut es denn mit 144Hz aus? Ist dieser "Bug" auch endlich behoben?
    0
  • FormatC
    Konnte ich nicht testen, ich habe eigenlich nur noch 4K+ IPS panels :(

    Aber so aus eigener Erfahrung, 144 Hz bringt zumindest mir nichts. Ist auch so eine Marketing-Geschichte, um den billigen TN-Panels noch etwas Luft vorm Aus zu verschaffen. Wenn ich deren Farbqualität und Kontrast sehe, möchte ich nicht mal mit 1Hz spielen. Bearbeite mal Fotos mit so einem TN-Panel oder stelle was frei.... Mit einem guten Panel sieht man dann immer Ränder und ich weiß wenigstens, welcher Kollege noch vor einem TN-Dingsbums sitzt :P
    0
  • bigreval
    Hallo Igor,
    gehen wir mal davon aus, dass ein Hersteller von Wasserkühlern wie z.B. EK-Waterblocks mitliest, einen “Kupferprügel“ anfertigt, der die kleinen Schwachstellen bereinigt. Womit könnte man dann an permanentem Boost rechmen? Ist mehr als 2050MHz drinnen? Bzw. könnte man (erfolgreich) den Takt weiter erhöhen?
    Geht bei mir halt um GPGPU Leistung...

    Abgesehen von dem hervorragenden Test mal eine Studie, was mit einer Titan möglich wäre, wenn Nvidia sich da nicht so bescheuert anstellen würde und weiter die Abzo..... Lassen wir das....

    Die Frage oben ist ernst gemeint. Die Karte interessiert mich wirklich, weil 1. gute Stromversorgung und 2. weil ich zumindest zwei Karten benötige. Die WaKü bei mir macht locker 1000W (MoRa 9*120mm).
    2050MHz war ja schon des öfteren in den Tests zu lesen aber meistens nicht stabil wegen der zu hohen Erwärmung usw.
    0
  • bigreval
    @Foldinghomalone: Ja und nein... HIER haben wir ein 330W Design, verbesserte Spannung- und Stromleistung usw. Das Design ist ja (fast) komplett anders als die FE Version....

    Mir geht´s ja darum, GPGPU Leistung zu erreichen, bei vlt. 2,1GHz oder 2,15GHz oder noch mehr... Und wie Igor schon geschrieben hat, das ist fast wie ein Stress-Test = Sehr viel mehr Abwärme!

    Deshalb die Prognose, wie sich dieses geänderte Design, dass wesentlich mehr (Elektrische-) Leistung zur Verfügung stellt, sich verhalten wird...
    0
  • foldinghomalone
    Wg. 5% Leistungsunterschied würde ich mir nicht so nen Kopf machen
    0
  • FormatC
    @bigreval:
    Lies Dir doch mal meinen Artikel zur Wassergekühlten 1080 Ti durch. Ich kann mit Wasserblock UND dem Referenz-PCB sogar die 2.1 GHz ziemlich stabil halten (unter Last). Du musst jedoch immer unter 40°C GPU bleiben, damit Dir der höchste Boost-Step erhalten bleibt. Ansonsten Power Target auf Max, Spannung bei Bedarf auch und hoffen, dass der Chip mitspielt (meistens).

    Die 2,15 schaffst Du stable wohl nur mit Volt-Mod ;)
    0
  • alterSack66
    Ihr könntet schonmal Rücksicht auf altersschwache Augen nehmen :D
    0
  • JPCM2014
    Hammer Test Igor! Danke!


    Im HWLUXX forum fragen(zweifeln) trotzdem alle wie du bei der FE die 2100 Stabil bekommen hast ob per Curve etc... und das es nur am guten chip liegt ....

    Ich hab das Testen aufgegeben... 2100 ~gehen aber PT müsste höher sein .

    Bastel jetzt lieber am Mo-RA NB Pl2 Lüfter drann und mach noch das Gitter hin (Freundin findet das
    Teil hässlich ^^)


    Sei doch net so fies zu den Offenen Testaufbau Testern^^

    Würdest du die "MSI GeForce GTX 1080 Ti Gaming X 11G" nicht gern unter wasser testen?
    0
  • FormatC
    Curve bringt nichts außer Problemen. Ich habe versucht, es im 3DCenter dem Wortführer (der mich im HWLuxx recht nett abtituliert hat) mal zu erklären und ihn vorgeschlagen, das per PM auch mal etwas tiefer zu erläutern (was ihn plötzlich nicht mehr interessiert hat) - die machen leider mental einfach dicht, wenn man was im Detail erklären will und es so nicht ins Weltbild passt. Die kennen nur ihr lustiges OC-Tool und GPU-Z, wissen aber oft noch nicht mal, wie die die Spannungswandler im Detail funktionieren.

    Ich habe keine Lust, dort noch einmal von vorn anzufangen, schon gar nicht nach all den netten Umschreibungen meiner Person, es langweilt mich nämlich langsam. Trotzdem noch mal kurz für Dich und dieses Forum:

    Power Target.... Ich machs einfach. Du weißt schon, was dort dahinter steckt? Auf der Karte steckt ein Current-Monitor, der die Ströme überwacht. Dazu gibt es Shunts, über die eine Spannung abfällt anhand der auf den Stromfluss geschlossen werden kann. Modded man die (niedriger), erhält man in real höhere Ströme, weil zu niedrige Werte ermittelt werden - aber eben nicht Spannungen! Jeder, der da Volt-Mod schreibt, liegt erst einmal etwas daneben. Es gibt auch Freaks, die sich wundern, warum die Karte in den Idle-Takt geht, wenn man den Shunt komplett mit Lot überbrückt. Da die Karte meint, es fließe kein Strom, geht sie nun mal in den Idle. Eigentlich logisch.

    Die Leistung, von der man beim Power Target ausgeht, ist das Produkt aus Stromfluss und Spannung. Der Arbitrator (in der Firmware) überwacht alle Sensorwerte und sieht zu, dass alle Rahmenbedingungen eingehalten werden (Strom, Spannung, Temperatur, Power Estimation Engine usw.). Boost regelt dann ggf. die Spannung (für die in der Firmware ein Maximalwert hinterlegt wurde) runter, damit bei zu hohen Strömen im Produkt mit der Spannung nicht die Karte hops geht. Die Ströme kann man ja nicht aktiv begrenzen, die Spannung über die VR schon. Der Trick beim Shunt-Mod liegt nun darin, den Arbitrator zu verarschen. Indem man zu niedrige Ströme vorgaukelt, wird Boost die Maximalspannung nicht runtersetzen, weil der Arbitrator glaubt, beim Power Target sei noch Luft. Man erhöht damit also nicht die Spannung, sondern sorgt lediglich dafür, dass sie nicht einbricht.

    Das können die Hersteller aber auch gleich durch ein höheres Power Target lösen, was aber nur dann auch was bringt, wenn auch die anderen Werte wie Temperaturen etc. stimmig sind. Deshalb habe ich ihm auch geschrieben, dass eine sinnfreie Aufweichung dieses einen Wertes nichts oder nicht viel bringt, weil es auch nur eine Rahmenbedingung von vielen ist. Ist die Karte kühl genug, um auch den höchsten Boost-Step halten zu können (unter 40°C), braucht man nur noch zwei Dinge, um die 2.1 GHz annährend stabil zu bekommen: einen guten Chip und ein Tool, was per I2C-Protokoll die Vorgaben für den PWM-Controller ausreichend überschreiben kann.

    Ich habe einen AB Extreme ohne Firlefanz und Curve-Geraffel, der schafft neben dem normal möglichen Power Target bereits ca. 20 mV mehr Vorgabe auf die Vcore. Man kann aber auch einen Kick mehr programmieren, nur eben wissen, was man macht. Die Teile werden nicht umsonst mit reinkompiliertem Namen und Prüfung der Person verteilt. Damit kommt man bei einem sehr guten Chip schon mal an die 2.1 GHz ran. Außerdem ergeben z.B. 20 mV Offset nach der VR in den Spitzen deutlich höhere Werte, das kann kurzzeitig sogar bis zu 100 mV ausmachen, denn die 20mV sind ja nur für den Durchschnittswert. Die VR ist aber ein Schaltnetzteil. Jetzt muss man noch wissen, dass die Spannungswandler mit ca. 400 KHz arbeiten (mehr würde zu thermischen Problemen bei Luftkühlung führen), wo man genüsslich dran rumspielen könnte.

    Die Regelgeschwindigkeit von Boost ist Nvidias Geheimnis, aber Jensen hat auf der 1080 Live-Präse ja sogar damit angegeben, dass man es bei der 1080 nun etwas geruhsamer angehen lässt. Zu Recht, denn sonst hat man das gleiche Problem wie mit den Netzteilen, deren Sekundärseite und den Grafikkarten. Leergelutschte Caps, wenn die Lastspitzen zur Ladephase versetzt auftreten und ins Nichts rennen. Folge: Spannungsabfall und ggf. sogar Instabilität. Man kann diese Schwankungen aber auch durch Treibersettings etwas minimieren, was auch die Power-Estimation-Engine etwas ruhiger agieren lässt. Was ich da im Detail mache, ist meine Sache aber es ist nur logisch und kein Hexenwerk. Ich schreibe gerade (seit langem eigentlich) an einem Artikel, wie Grafikkarten entstehen, gebaut und auch durch Dummheit geschrottet werden. Deshalb werde ich da auch nichts spoilern. Es ist nicht Großes, aber es hilft etwas beim Taktstabilisieren. ;)

    Der Chef von Gigabytes R&D und ein PM waren vor reichlich zwei Wochen bei mir im Labor und wir haben gemeinsam mit Power Target, Spannungen und Lüfterkurven gespielt. Den urspünglichen Plan, das Power Target bis zu 350 oder 375 Watt freizugeben habe ich ihm ausreden können. Die haben mittlerweile selbst nachgemessen, dass es nichts bringt. Wir haben hier einen Tag gehockt und Technik zerlegt ;)

    Trotzdem muss man mit der Karte einfach Glück haben. Oder auch mal einen Gönner, der einem eine 1 of 1000 schenkt. Dann gehts noch weiter hoch, aber mehr als 2.150 MHz habe ich auch noch nicht hinbekommen. Nur halt mit weniger Leistungsaufnahme. Physik ist eine Bitch :)

    Die MSI, die ich getestet habe, hat nur einen 0815-Chip, die Aorus im Teststapel sieht besser aus. GPU-Lotto eben.
    1
  • alterSack66
    Ich halte vom Extremübertakten nix, genau so wenig wie vom Chiptuning bei Autos. Kauf ich mir halt was passt. Oder ne Nummer größer. Was bei der GTX 1080 ti zwar etwas schwierig ist aber normal sollte die reichen.
    0
  • foldinghomalone
    Anonymous sagte:
    I...aber normal sollte die reichen.

    Spätestens seit der 640kB-Lüge weiß man doch, dass dieser Satz Quatsch ist.

    Es gibt immer noch eine Steigerung der Wünsche/Anforderungen.
    60Hz, 144Hz, 240Hz, GHz in FHD --> WQHD --> UHD --> 5K --> 8K, dann noch von 100K downgesampeltets 10K, das Ganze mal 2 mit VR, dann irgendwann noch 10, 12, 14 ... 32bit Farbtiefe usw.
    Das wird nie aufhören.

    Igor, vielen Dank für die ausführliche Erläuterung
    0
  • alterSack66
    Jo mei, dann musst halt alle 6-12 Monate eine neue Grafikkarte kaufen. Die geschätzt 5-15 % machen das Kraut auch nicht fett.
    0