Nvidia GeForce GTX 1060 FE 6GB: Pascal für den Mainstream

Nachdem Nvidia uns mit seinen Pascal-basierten GeForce-Modellen GTX 1080 und GTX 1070 beeindruckt hatte, will die Firma nun beispiellose Effizienz in den Mainstream bringen. Aber wie schlägt sie sich gegen AMDs Radeon RX 480, die ab 220 Euro zu haben ist?

Zwei Monate nach ihrem Debut breitet sich Nvidias Pascal-Architektur langsam im kompletten Desktop-Grafikkarte-Portfolio des Herstellers aus. Zuerst kam die GeForce GTX 1080, die 30 Prozent mehr Leistung als eine GeForce FGTX 980 Ti für weniger Geld bot. Online-Handler haben immer noch Probleme, sie vorrätig zu halten. Dann kam die GeForce GTX 1070, die ebenfalls eine GeForce GTX 980 Ti schlägt, aber hunderte Euro billiger ist.

Nun kommt mit der GeForce GTX 1060 die dritte Pascal-basierte Karte. Von der bereits am 7. Juli angekündigten Grafikkarte wissen wir, dass Nvidias Partner sie zu Preisen ab 279 Euro (inkl. MwSt.) in den Handel bringen werden; Nvidias eigene Founders Edition soll 319 Euro (inkl. MwSt.) kosten und wird laut Nvidia ausschließlich (!) über den eigenen Store zu beziehen sein.

Die GeForce GTX 1060 integriert eine brandneue GPU namens GP106, die viele der Features der GP104 mitbringt, aber alles in einem Mainstream-Paket verpackt. Davon sollte man sich aber nicht irritieren lassen: Die GTX 1060 mag zwar nur eine 120-Watt-Karte sein, aber laut Nvidia soll sie die Performance einer GeForce GTX 980 bieten – die kam vor nicht ganz zwei Jahren für 540 Euro auf den Markt.

Die GP106-GPU im Detail

Nvidias neues Flaggschiff GeForce GTX 1080 basiert auf einer kompletten GP104-GPU mit vier aktiven GPCs (Graphics Processing Cluster). Das ergibt 2560 CUDA-Kerne und 160 Textureinheiten. Die GTX 1070 verwendet eine abgespeckte Version der gleichen GPU mit drei aktiven GPCs, verfügt also über 1920 CUDA-Kerne und 120 Textureinheiten.

Die GeForce GTX 1060 skaliert unter Verwendung der gleichen architektonischen Bauelemente einen weiteren Schritt nach unten. Um aus unserem Launch-Artikel der GTX 1080 zu zitieren:

"Jeder GPC beinhaltet fünf Thread/Texture Processing Clusters (TPC) und die Raster Engine. Ein TPC wiederum kombiniert einen Streaming Multiprocessor (SM) und eine PolyMorph-Engine. Der SM besteht aus 128 CUDA-Kernen (Single Precision), einem 256-KByte-Register, 96 Kilobyte Shared Memory, 48 Kilobyte L1/Textur-Cache und acht Textur-Einheiten. Die PolyMorph-Engine der vierten Generation enthält einen neuen Logikblock, der am Ende der Geometrie-Pipeline und vor der Raster-Einheit sitzt, die für Nvidias 'Simultaneous Multi-Projection'-Feature zuständig ist."

GPU
GeForce GTX 1060 (GP106)
GeForce GTX 980 (GM204)
SMs
10
16
CUDA-Kerne
1280
2048
GPU-Basistakt
1506 MHz
1126 MHz
GPU-Boost-Takt
1708 MHz
1216 MHz
GFLOPs (Basistakt)
3855
4612
Textureinheiten
80
128
Texel-Füllrate
120,5 GT/s
144,1 GT/s
Speicher-Datenrate
8 GBit/s
7 GBit/s
Speicher-Bandbreite
192 GByte/s
224 GByte/s
ROPs
48
64
L2-Cache
1,5 MByte
2 MByte
TDP
120 Watt
165 Watt
Transistoren
4,4 Mrd.
5,2 Mrd.
Die-Größe
200 mm²398 mm²
Prozesstechnik
16 nm
28 nm

Die GP106 verfügt über zwei aktive GPCs, was in 1280 CUDA-Kernen und 80 Textur-Einheiten resultiert. Der Chip profitiert ebenfalls von den optimierten Timings, dank denen Nvidia die Taktraten der GP104 hochjagen konnte: Typischerweise taktet GP106 mit einem Basis- und Turbotaktfrequenz von 1506 bzw. 1708 MHz.

Das Backend des Grafikprozessors ist ebenfalls beschnitten: Sechs 32-Bit-Speicher-Controller ergeben einen aggregierten Datenpfad von 192 Bit Breite. Wie bei der größeren GP104-GPU ist jeder Controller mit acht ROPs und 256 Kilobyte L2-Cache assoziiert, was insgesamt 48 ROPs und 1,5 Megabyte L2-Cache ergibt.

Nvidia packt sechs Gigabyte Speicher auf die GTX 1060, die mit einem Spitzendurchsatz von 192 GByte/s arbeiten. Dieser Wert ist zwar niedriger als die 224 GByte/s der GTX 980, aber dabei sollte man nicht vergessen, dass Pascal dank neuer Losless-Techniken Einsparungen im Speichersubsystem realisiert und somit die effektiv nutzbare Bandbreite erhöht.

Erneut aus unserem GTX-1070-Artikel, etwas adaptiert: "Die Delta-Farbkompression von [GP106] versucht sich an 2:1-Einsparungen – und dieser Modus soll angeblich dahingehend verbessert worden sein, dass er öfter genutzt werden kann. Es gibt außerdem einen neuen 4:1-Modus, der dann zum Tragen kommt, wenn die Pro-Pixel-Unterschiede sehr gering sind und in einen noch kleineren Raum komprimiert werden können. Schließlich hat Pascal sogar einen 8:1-Modus, der die konstante 4:1-Kompression von 2x2-Blöcken mit einer 2:1-Kompression ihrer Unterschiede kombiniert."

Und natürlich wird GP106 mit der gleichen 16FF+-Prozesstechnik von TSMC hergestellt wie die GP104. Aber während die größere GP104-GPU 7,2 Milliarden Transistoren auf 314 mm² Fläche ballt, packt Nvidia bei der GP106 4,4 Milliarden FinFet-Transistoren auf 200 mm².

In Summe resultiert der weniger komplexe Grafikprozessor zusammen mit weniger Speicher auf einer einfacheren Platine in einer TDP von 120 Watt.

Erstmals kein SLI für den oberen Mainstream

Na, schon den fehlenden SLI-Anschluss an der Oberseite bemerkt? Nvidia empfiehlt seine GeForce GTX 1080 oder 1070 für Gamer, die mehr Performance haben wollen als eine GTX 1060 liefern kann – und unterstützt kein SLI mehr für die GTX 1060. Über Generationen hinweg ist die GTX 1060 damit die am nächsten an den High-End-Bereich gerückte Karte ohne diese Technologie. Okay, die GeForce GTX 750 Ti war ebenfalls nicht SLI-fähig – aber die GTX 760 war es sehr wohl. Das gleiche gilt für die GeForce GTX 950.

Offiziell begründet das Nvidia damit, dass es nicht viele Gamer gäbe, die Mainstream-Grafikkarten zu einem SLI-Verbund zusammenschließen – und das Unternehmen möchte seine Ressourcen nichtz verschleudern und lieber auf die Optimierung von SLI bei schnelleren Pascal-basierten Karten fokussieren.

Im Gegensatz zu dieser Erklärung geht die Spieleentwicklung mit Post-Processing- und Compute-orientierten Effekten, die nicht eben freundlich zu Alternate-Frame-Rendering sind, aber in eine andere Richtung. Und mit DirectX 12 wird Software-Entwicklern mehr und mehr Kontrolle gegeben, die ihre Inhalte so schnell wie möglich rausbringen wollen. Das bedeutet, dass ein Großteil von Nvidias Anstrengungen bezüglich seiner Treiber umsonst ist.

Wir haben ein Spiel in unserem Benchmark-Portfolio, das multiple GPUs über DirectX 12 unterstützt: Ashes of the Singularity. Nachdem wir eine zweite GeForce GTX 1060 ins Testsystem gesteckt und eine einzige Checkbox angehakt haben, können wir den nachfolgend gezeigten Leistungsschub vermerken:

Das ist zwar nicht die Skalierung, die wir von einem 2-Wege-SLI gewohnt sind, aber 50 Prozent Mehrleistung sind auch nicht schlecht. Leider können wir nicht mal mit DirectX-11- und DirectX-12-Games herumexperimentieren, wenn kein Support für multiple Grafikkarten integriert ist.

Angesichts der Tatsache, dass die GTX 1060 eine 1080p-Gaming-fokussierte Grafikkarte ist, könnte Nvidia jederzeit mit einem nachträglichen Treiber-Update SLI über PCI Express aktivieren – und wir hoffen, dass Nvidia dies tun wird.

Ganz egal, wie viele Gamer nun wirklich daran interessiert sind, sich ein Paar GTX-1060-Karten ins System zu stecken – es gibt immer noch ein Menge DX11-Titel da draußen, die von Multi-GPU-Konfigurationen profitieren. Und jedes DX12-bedingte Skalierungsproblem, dass die GP106 hat, gilt auch für die GP104-basierten Karten GTX 1080 und GTX 1070. Also Nvidia: Lasst einfach Performance-Benchmarks entscheiden, ob und wie attraktiv ein SLI-Gespann aus zwei GTX 1060 für Anwender ist!

Folgt Tom's Hardware Deutschland auf Facebook, Google+ und Twitter.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
36 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • issenia
    Nix neues. Gute Effizienz. Performance in DX 11 gut.
    Für DX 12 und Vulkan eher nicht zu empfehlen.
    Wer also auf absehbare Zeit nur DX 11 Games zockt ist gut bedient. Alle anderen sollten eher zur fortschrittlicheren Technik der RX 480 greifen.
    -2
  • moeppel
    Sieht mit dem Preisschild erst mal aus wie Nvidias Restmüllverwertung mit Premiumpreis. Etwas schade, da die Karte prinzipiell keine schlechte ist.

    Auf Seite 4 laden die Bilder bei mir leider nicht.

    Ein Doom Vulkan Test wäre sicherlich auch interessant gewesen.

    Ich denke unter Anbetracht von DX12/Vulkan ist die RX480 vermutlich die bessere Wahl in dem Segment, zumindest dann, wenn diese preislich 30-60€ unter eine 1060 liegen sollte.

    Den Aufpreis über den Strompreis zu kompensieren wird sicherlich schwer.

    Was letztlich an einer Mehr-/Minderleistung der Karten in DX11/12/Vulkan übrigt bleibt, wird man aber vermutlich erst in einigen Wochen/Montaten mit Treibern und AIBs wissen.

    EDIT: Positiv überraschend ist, dass die 1060 trotz 192 bit Speicheranbindung unter WQHD nicht nennenswert wegbricht.
    0
  • patm0le
    Bei mir laden ebenfalls keine Grafiken auf Seite 4
    0
  • mareike
    Stimmt Vulkan Test fehlt. Ansonsten super Effiziens, und das leichtfüßige überscheiten der 2 GHZ Grenze. Echt interesant, nur noch nicht meine Preisliega. Warte auf 1050 / 470.
    0
  • Derfnam
    Ach, je, genau die gleiche Riesenlückengülle wie bei 960 und 970.
    0
  • Robert33
    ich dachte die 1060 GTX geht nicht im SLI!
    0
  • TenDance
    Anonymous sagte:
    Sieht mit dem Preisschild erst mal aus wie Nvidias Restmüllverwertung mit Premiumpreis. Etwas schade, da die Karte prinzipiell keine schlechte ist.

    Auf Seite 4 laden die Bilder bei mir leider nicht.

    Ein Doom Vulkan Test wäre sicherlich auch interessant gewesen.

    Ich denke unter Anbetracht von DX12/Vulkan ist die RX480 vermutlich die bessere Wahl in dem Segment, zumindest dann, wenn diese preislich 30-60€ unter eine 1060 liegen sollte.

    Den Aufpreis über den Strompreis zu kompensieren wird sicherlich schwer.

    Was letztlich an einer Mehr-/Minderleistung der Karten in DX11/12/Vulkan übrigt bleibt, wird man aber vermutlich erst in einigen Wochen/Montaten mit Treibern und AIBs wissen.

    EDIT: Positiv überraschend ist, dass die 1060 trotz 192 bit Speicheranbindung unter WQHD nicht nennenswert wegbricht.


    Doch, die Bandbreite limitiert. Siehst Du allein schon daran dass sie zuverlässig schneller wird wenn Du den Speicher übertaktest.
    Es wurde bei The Division in WQHD auch angesprochen dass sie bei 1440p dicht macht. Es ist bei dem SI leider der Punkt: funktioniert die Kompression, läuft alles super. Reicht sie nicht aus oder geht sie nicht... hast Du gelitten. Interessant wäre zu erfahren wie stark diese Kompression vom Treiber abhängt. Da nVidia in der Vergangenheit die Treiber vernachlässigt hat wenn die nächste Generation draussen ist, wäre das kein schönes Szenario.

    Preis/leistung kommst Du an einer RX480 nicht vorbei. Die Variante mit 4GB kostet 219€, die foudner's der 1060 319€. 50% Aufpreis für 2GB mehr Speicher... und wer dann sagt "aber die Zukunft" sollte sich keine Karte kaufen die bei Vulkan oder Dx12 derart mies skaliert.

    Relevant werden Marktpreise sein, und das wird der August dann zeigen. Die RX480 mit 8GB finde ich mit derzeit 269€ zu teuer - gab zwischenzeitlich Angebote für bis zu 239€.
    Nachdem die partnerkarten der 1060 für 279€ aber nur solche sind die man nicht kaufen möchte und die "guten" Modelle wie die erwähnte MSI gaming für 300€+ angeboten werden sollen... bleibt viel Luft für customs der RX480.

    Und so schön die Effizienz auch ist: im Desktop irrelevant auf diesem Niveau. 30W mehr oder weniger, das ist deutlich weniger als eine Glühbirne. Im Notebook relevant, weniger wegen der Laufzeit, eher wegen der Abwärme. oder in extrem engen ITX-cases. Aber im Desktop nicht. Auch die RX480 läuft nicht heiss. Nichtmal ansatzweise. Und wirtschaftlich rechnet sich das nicht. Allenfalls im Rechenzentrum, wo Kühlung ein Kostenfaktor ist. Aber da lohnt es sich eher einen GP104 mit 1500MHz laufen zu lassen. Wenn der GP104 nicht so bescheiden dafür geeignet wäre.

    Alles in Allem bleibt aber zu sagen: ein Test der keinen Ausblick auf die nahe(!) Zukunft wagt indem er vorhandene Spiele mit Dx12 oder Vulkanunterstützung testet (oder Time Spy) hat keine Relevanz. Dx11 ist old tech, hat seine Berechtigung im Test aber eine solche Karte wird vermutlich bei vielen Käufern nicht nur dieses jahr, sondern auch noch 2018 laufen. Und da wäre es schön jetzt zu testen wie sie mit Technik des Jahres 2017 - lowlevel APIs - umgehen kann.
    Immerhin ist Dx12 jetzt fast ein Jahr auf dem Markt und noch länger dokumentiert.
    1
  • TenDance
    Anonymous sagte:
    ich dachte die 1060 GTX geht nicht im SLI!


    Unter Dx12 kannst Du über PCIe verschiedene GPUs zusammenschalten. Kannst somit unter anderem auch eine Titan mit der integrierten GPU Deines Prozessors arbeiten lassen.

    Dx12 ist nicht nur marketing, da steckt technisch doch etwas dahinter. Auch wenn nVidia das gern kleinreden möchte :)
    0
  • klomax
    Anonymous sagte:
    Ach, je, genau die gleiche Riesenlückengülle wie bei 960 und 970.


    Och nö, schon wieder ein Haar in der Suppe gefunden. :D

    Ein Modell mit 256Bit und schnellerem Speicher ist doch schon gerüchteweise im Abschusskanal...
    0
  • Derfnam
    Haarausfall, was willste machen :P
    So wie die 960 Ti?
    0
  • klomax
    Das Gerücht ist diesmal konkreter, Dank wccftech und einer dieser ominösen Shipping Listen, die frei einsehbar herumliegen beim Logistikpartner ihres Vertrauens. :D
    0
  • echoez
    Schöner Test, sehr gute Karte fürs Geld.
    Aber ich habe nun auch die Bestätigung für meinen Entschluß, die nächste Graka-Periode mit der RX480 zu verbringen. DX11 stirbt aus, DX12 und Vulkan sind die Zukunft.
    Es deutet alles darauf hin, daß Pascal doch so seine Problemchen damit hat.
    Ich war über 5 Jahre recht zufrieden mit meiner GTX560 - ok, das letzte Jahr nicht mehr - aber die Neue sollte auch mindestens 3,lieber 4 Jahre ausreichen, bis sich VR etabliert hat.
    Jedes-Jahr-Neukäufer werden mit der GTX1060 sicher ihre Freude haben und das passt in dem Fall sogar wesentlich besser als mit der RX480.

    Meine Dicke braucht leider ein neues Getriebe und Mopped fahren macht im Sommer mehr Spass als Zocken, da kann ich mich bis zum späten Herbst entspannt durch die Kurven schaukeln und mir dann eine eine RX480 Custom, oder Ref mit meinem vorhandenen SilenX IXG80HA2 für die nächsten Jahre gönnen.
    0
  • derGhostrider
    Manche schreiben hier ihre Kommentare, als ob die Karte bei DX12 grotten schlecht wäre. Ist sie aber nicht.

    Die 1060 gibt es ab 279 Euro real zu kaufen (idealo.de). Es ist also sinnfrei von "über 300 Euro" zu reden. EVGA, Palit, MSI, ZOTAC, Inno3D... Gainward kostet dann 284 Euro. Da ist also für jeden etwas dabei, der einen bestimmten Hersteller nicht mag.
    Die RX480 kann ich bei idealo erst ab 269 Euro finden. Es gibt dort keine Karte, die billiger wäre.

    Reell sehe ich also eine Preisdifferenz von exakt 10 Euro zwischen den beiden Karten, dafür ist die 1060, wie es im Fazit hier genannt wurde, nicht nur prozentual schneller, als es der Aufpreis (10 Euro) suggeriert, sondern verbraucht auch weniger Strom, produziert weniger Abwärme und hält sich sehr sauber an die Spezifikationen. Dazu geringerer idle-Verbrauch als Bonbon oben drauf.

    "30 Watt sind im Desktop nicht relevant" - wie bitte? 30 Watt sind 30 Watt, die aus dem Gehäuse befürdert werden müssen.
    Schalte eine klassische 30 Watt Glühlampe ein, warte 5 Minuten und pack sie dann an. Dann merkst Du relativ gut, wie relevant 30 Watt Abwärme sind.
    Zumal AMD eben nicht bei 150 Watt TDP liegt, sondern darüber. 150 Watt sind deren Wunschwert.
    Also ersetze die 30 Watt Glühlampe durch ein 40 oder 50 Watt Modell. Schön in die Hand nehmen und festhalten. So ein paar Watt sind doch nicht relevant!

    Selbst wenn bei IDENTISCHER Rechenleistung eine Grafikkarte 10 Watt einsparen könnte, wär sie schlichtweg effizienter. Gäbe es KEINE anderen Unterschiede (also z.B. beide vom gleichen Hersteller, damit kein Fanboy-ism greift), welche Karte würdest Du dann nehmen?

    Nvidia liefert mit der 1060 recht genau das, was AMD für die RX480 versprochen hatte: Eine wirklich effiziente Karte in diesem Preisbereich (10 Euro Unterschied!), die gute Leistung abliefert.

    Quelle Preis RX480: Idealo, Stand 20:20 Uhr, 19.07.2016:
    http://www.idealo.de/preisvergleich/ProductCategory/16073.html?param.alternativeView=true&param.opensearch.sortKey=price&param.resultlist.sortKey=minPrice&q=RX480

    Quelle Preis GTX 1060, Idealo:
    http://www.idealo.de/preisvergleich/ProductCategory/16073F1263482.html?param.alternativeView=true&param.resultlist.sortKey=minPrice
    1
  • echoez
    Richtig, 30 Watt sind 30 Watt. 30W in einer Sekunde sind 30 Joule.
    Fass mal n 30W Lötkolben nach 1min an, oder steck deinen Kopf nach 1 Stunde in einen Backofen, den Du mit 30W befeuerst. Oder ein Heizlüfter mit 30W mit dem Du tagelang versuchst, deine Wohnung zu beheizen.. Merkste was?
    Das Ref Design der RX480 befördert ungehindert - also ohne DVI im Weg - die 30W mehr mit dem Rest nach draussen, während Customs die Wärmeenergie erstmal ins Gehäuse blasen. Aber auch da ist die Wärmemenge von 30Joule (oder auch mehr) kein Problem, solange da auch nur ein Lüfter im Gehäuse sein Werk verrichtet.
    Nach 33 Stunden zocken kosten die 30W mehr soviel wie ein Wassereis.
    Wenn Du nun alle 1,5 Tage nicht auf ein Wassereis verzichten kannst, musst Du zwangsläufig zur GTX1060 greifen. ;)
    Bei einer Tagestour durchs Sauerland verblase ich 50€ in Form von Sprit, Pommes und Srudelwasser. Da gehen mir 30,60 oder 95 Watt am blanken Heck vorbei!

    Wegen DX12 und Vulkan ist die RX480 die bessere Wahl als die GTX1060, da sprechen wir uns in 4 Jahren wieder, wenn die RX480 eher an der GTX1070 klebt und die GTX1060 kein Land mehr sieht. Dafür braucht man keine Glaskugel ;)

    Es sit doch totaler Blödsinn über Effizienz zu diskutieren, guck mal was vor Maxwell aus 200W Leistung in FPS umgesetzt wurde. Oder vor GCN und Fermi... Effizenz ist nur zum Haten gut, Kosten und Abwärme für die heutige Leistung in FPS ein Witz.
    0
  • echoez
    Mir gefällt ubrigens die neue Mechanik der Webseite, vorher war das Navigieren ein Graus. Gut hingekriegt ihr das habt!
    0
  • Derfnam
    Keine Hose am Arsch, aber ins Sauerland fahren - ja, nee, is klar...
    0
  • alterSack66
    Nicht ganz das, was Nvidia versprochen hat. Aber das war ja bei der AMD RX 480 auch nicht anders. Der Verbrauch ist schon sehr niedrig für die Leistung finde ich. Auch ohne Test mit der 50 W Glühbirne. :D Mal schaun wie sich die Preise entwickeln. Für nen 10er mehr und vor allem lieferbar schon eine Alternative.
    0
  • echoez
    Derfnam
    Es ist Sommer, kannst ja gern mit Anzug und Schlips rumrennen :D
    https://youtu.be/dajn9Bk24CY?list=RDdajn9Bk24CY&t=28
    0
  • Derfnam
    Will ja nichtmal ich sehen, wies drunter aussieht.
    Ich muß nochmal nachhaken, diesmal in Form eines Zitats von HT4U, was exakt meine Meinung wiedergibt:
    Kleinere Fertigung, bessere Kostenverteilung auf Seiten des Herstellers, günstigere Designs. Das gibt NVIDIA aber nicht weiter, sondern setzt voll auf seine Vorzüge. Die GTX 1060 basiert auf dem GP106-Chip, dem Nachfolger des GM106-Chips und damit der GTX 960. Der Preispunkt war ein anderer. Die GTX 1070 als Nachfolger der GTX 970 basiert auf dem GP104-Chip, die 970 auf dem GM104-Chip – der Preispunkt war ebenfalls ein anderer. Und Gleiches gilt natürlich für die GTX 1080, welche auch auf dem GP104-Chip aufsetzt und damit prinzipiell die Nachfolge der GTX 980 antritt. Auch hier passt der Preispunkt nicht, vielmehr orientiert man sich am deutlich teueren GM-100-Chip in Form der GTX 980 Ti.

    Von daher betrachte ich die Einleitung zu diesem Test als Hommage an Dr. Schönfärber, Monaco Franze läßt grüßen.
    0
  • alterSack66
    hin oder her, ich betrachte die GTX 1070 als Nachfolger der GTX 980 mindestens. Wo hast vor paar Jahren so viel Leistung und so wenig Verbrauch gehabt? @THG Ihr solltet mal den Grafikkartenchart aktualisieren.
    0