Nvidia GeForce GTX 1060 FE 6GB: Pascal für den Mainstream

Nvidias GeForce GTX 1060 FE im Detail

Nvidias GeForce GTX 1060 setzt wie schon die beiden größeren Schwestern GeForce GTX 1070 und GeForce GTX 1080 auf das neue Edge-Design - diesmal jedoch in etwas kostenfreundlicherer Ausführung.

Trotzdem besitzt die Karte immer noch eine Länge von 25,4 cm (zwischen Slot-Blende und Kartenende gemessen), eine Einbauhöhe von 10,7 cm (Oberkante Mainboard-Slot bis Oberseite Karte) und eine Tiefe von 3,8 cm, wobei hier dann die Slotblende der breiteste Part ist und nur ca. 3,5 cm auf die Karte selbst entfallen.

Das Gewicht fällt mit 845 Gramm auch nicht gerade zimperlich aus, so dass man der Karte das eingesetzte Metall durchaus auch messtechnisch anmerkt.

Optik, Haptik und Anschlüsse

Für die Kartenabdeckung nutzt Nvidia erneut einen Materialmix aus Aluminium und Kunststoff, wobei das Cover diesmal schon etwas einfacher gestaltet wurde. Es lässt sich - einschließlich des Lüfters - auch ein einem Stück abnehmen, wie wir gleich noch sehen werden. Auch der beleuchtete "GeForce GTX"-Schriftzug fehlt nicht. Auf den etwas eigenartig positionierten PCIe-Spannungsversorgungsanschluss gehen wir später noch ein.

Im Gegensatz zu früheren Kühlerkonstruktionen auf Grafikkarten mit kurzer Platine ist der Überhang des Gehäuses rückseitig nicht mehr mit einer Luftöffnung für den üblichen Radiallüfter versehen, sondern mit einer Abdeckung verkleidet. Auf eine herkömmliche Backplate wird jedoch aus Kostengründen verzichtet.

Die Rückseite zeigt sich mit den bekannten, kiemenförmigen Lufteinlässen, die jedoch in diesem Fall mit Sie anzusprechen sind, wenn man mit der Karte im Gehäuse werkelt. Lies: Hier ist vorsichtiges Hantieren angesagt.

Das Slot-Panel zeigt gegenüber den beiden bereits vorgestellten Pascal-Karten keine Änderungen. Die Slot-Blende wird auch hier von insgesamt drei DisplayPort-Anschlüssen dominiert, die Nvidia als DisplayPort-1.2-zertifiert ausweist, jedoch auch auf die Implementierung neuerer Standards verweist (DisplayPort 1.3/1.4 ready). Der verbaute Controller-Chip kann es jedenfalls.

Dazu kommen noch ein HDMI-2.0-Ausgang und der duale DVI-D-Ausgang. Auf ein analoges Signal verzichtet Nvidia komplett.

Kühleraufbau, Platine und Spannungsversorgung

Nach den äußeren optischen und haptischen Eindrücken kommen wir nun zu weiteren Details im Inneren der Karte. Zunächst entfernen wir die Abdeckung und geben den bislang verdeckten Blick auf die Kühlerkonstruktion frei.

Was uns sofort auffällt, ist die weiter oben schon erwähnte Positionierung des PCIe-Anschlusses im verlängerten Gehäuse, der nunmehr mit verlängerten Kabeln lösgelöst von der Platine autark angeschlossen ist.

Schön ist diese Lösung nicht und sie verhindert zudem, dass Board-Partner mit dieser eigentlich nur 17,5 cm langen Referenzplatine ausgesprochen kurze Karten bauen können, da schlichtweg kein Platz für die PCIe-Anschlussbuchse vorgesehen ist.

Nimmt man den eigentlichen Kühlerblock ab, indem man die vier zur Fixierung verwendeten Schrauben löst, fällt der Blick auf einen massiven Kupfer-Heatsink und einen Metallframe. Der geschlossene Lamellenkühlkörper ähnelt dem der GeForce GTX 1070 und sollte für die angepeilte Verlustleistung der GPU locker ausreichen.

Auffällig ist auch hier wieder der massive Montage- und Kühlrahmen, der einerseits dafür sorgt, dass Spannungswandler und Speicher ausreichend kühl bleiben und andererseits auch für die Stabilität der Gesamtkonstruktion verantwortlich ist.

Entfernt man auch diesen Rahmen und klappt ihn nach oben weg (ganz abnehmen kann man ihn wegen des fest verlöteten, separaten Stromanschlusses ja leider nicht), dann kann man schließlich die Platine in ihrer ganzen Pracht bewundern.

Im Mittelpunkt steht natürlich wieder der Grafikprozessor auf seinem Sockel, wobei die GP106-400-A1-GPU deutlich kleiner geraten ist als der GP104-Chip der beiden bereits gelaunchten GeForce-Modelle GTX 1070 und GTX 1080. Doch es gibt noch weitere auffällige Unterschiede zu den anderen Platinen, die zum Beispiel den verbauten Speicher betreffen.

Es fällt auf, dass bei der GTX 1060 nur sechs der acht vorhandenen Felder für den Speicher mit Modulen belegt sind. Dabei handelt es sich um Samsung-Module vom Typ K4G80325FB-HC25, die eine Kapazität von jeweils acht Gigabit (32x 256 MBit) besitzen und je nach abgefordertem Takt mit Spannungen zwischen 1,305 und 1,597 Volt betrieben werden können. In Summe ergibt das einen Gesamtspeicher von sechs Gigabyte.

Der leider undokumentierte PWM-Controller uP9509 kommt erneut von uPI Semiconductor Corp und ist ganz offensichlich der kleinere Bruder des noch bei der GP104-GPU  eingesetzten uP9511P. Allerdings reicht er für die insgesamt drei Phasen für die GPU und die eine für den Speicher völlig aus.

Die letztgenannte Speicher-Phase und eine der GPU-Phasen werden vom Mainboard-Slot versorgt und die beiden weiteren samt des Zubehörs vom PCIe-Anschluss. Wie sich das auf die Belastung der einzelnen Versorgungsschienen auswirkt sehen wir uns gleich noch im Detail an.

Für die Spannungsregelung setzt Nvidia auf jeweis einen einzigen E6930 pro Phase, der als Dual-Channel-N-MOSFET sowohl die High- als auch Low-Side bedient und auf separate Gate-Treiber verzichten kann. Ds erklärt dann auch den freien Platz auf der Platine neben dieser Komponente.

Die drei Phasen sind für die GPU völlig ausreichend, verzeichnen relativ niedrige Spannungswandlerverluste und sind zudem sinnvoller aufgeteilt als die sechs Phasen der Radeon RX 480.

Bis auf den etwas verloren wirkenden PCIe-Versorgungsanschluss macht die 1060er Referenzkarte (pardon: Founders Edition) keinen schlechten Eindruck, zumal bei so niedrigen Verlustleistungen auch eine Radiallüfterlösung nicht die schlechteste Lösung sein muss.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
36 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • issenia
    Nix neues. Gute Effizienz. Performance in DX 11 gut.
    Für DX 12 und Vulkan eher nicht zu empfehlen.
    Wer also auf absehbare Zeit nur DX 11 Games zockt ist gut bedient. Alle anderen sollten eher zur fortschrittlicheren Technik der RX 480 greifen.
    -2
  • moeppel
    Sieht mit dem Preisschild erst mal aus wie Nvidias Restmüllverwertung mit Premiumpreis. Etwas schade, da die Karte prinzipiell keine schlechte ist.

    Auf Seite 4 laden die Bilder bei mir leider nicht.

    Ein Doom Vulkan Test wäre sicherlich auch interessant gewesen.

    Ich denke unter Anbetracht von DX12/Vulkan ist die RX480 vermutlich die bessere Wahl in dem Segment, zumindest dann, wenn diese preislich 30-60€ unter eine 1060 liegen sollte.

    Den Aufpreis über den Strompreis zu kompensieren wird sicherlich schwer.

    Was letztlich an einer Mehr-/Minderleistung der Karten in DX11/12/Vulkan übrigt bleibt, wird man aber vermutlich erst in einigen Wochen/Montaten mit Treibern und AIBs wissen.

    EDIT: Positiv überraschend ist, dass die 1060 trotz 192 bit Speicheranbindung unter WQHD nicht nennenswert wegbricht.
    0
  • patm0le
    Bei mir laden ebenfalls keine Grafiken auf Seite 4
    0
  • mareike
    Stimmt Vulkan Test fehlt. Ansonsten super Effiziens, und das leichtfüßige überscheiten der 2 GHZ Grenze. Echt interesant, nur noch nicht meine Preisliega. Warte auf 1050 / 470.
    0
  • Derfnam
    Ach, je, genau die gleiche Riesenlückengülle wie bei 960 und 970.
    0
  • Robert33
    ich dachte die 1060 GTX geht nicht im SLI!
    0
  • TenDance
    Anonymous sagte:
    Sieht mit dem Preisschild erst mal aus wie Nvidias Restmüllverwertung mit Premiumpreis. Etwas schade, da die Karte prinzipiell keine schlechte ist.

    Auf Seite 4 laden die Bilder bei mir leider nicht.

    Ein Doom Vulkan Test wäre sicherlich auch interessant gewesen.

    Ich denke unter Anbetracht von DX12/Vulkan ist die RX480 vermutlich die bessere Wahl in dem Segment, zumindest dann, wenn diese preislich 30-60€ unter eine 1060 liegen sollte.

    Den Aufpreis über den Strompreis zu kompensieren wird sicherlich schwer.

    Was letztlich an einer Mehr-/Minderleistung der Karten in DX11/12/Vulkan übrigt bleibt, wird man aber vermutlich erst in einigen Wochen/Montaten mit Treibern und AIBs wissen.

    EDIT: Positiv überraschend ist, dass die 1060 trotz 192 bit Speicheranbindung unter WQHD nicht nennenswert wegbricht.


    Doch, die Bandbreite limitiert. Siehst Du allein schon daran dass sie zuverlässig schneller wird wenn Du den Speicher übertaktest.
    Es wurde bei The Division in WQHD auch angesprochen dass sie bei 1440p dicht macht. Es ist bei dem SI leider der Punkt: funktioniert die Kompression, läuft alles super. Reicht sie nicht aus oder geht sie nicht... hast Du gelitten. Interessant wäre zu erfahren wie stark diese Kompression vom Treiber abhängt. Da nVidia in der Vergangenheit die Treiber vernachlässigt hat wenn die nächste Generation draussen ist, wäre das kein schönes Szenario.

    Preis/leistung kommst Du an einer RX480 nicht vorbei. Die Variante mit 4GB kostet 219€, die foudner's der 1060 319€. 50% Aufpreis für 2GB mehr Speicher... und wer dann sagt "aber die Zukunft" sollte sich keine Karte kaufen die bei Vulkan oder Dx12 derart mies skaliert.

    Relevant werden Marktpreise sein, und das wird der August dann zeigen. Die RX480 mit 8GB finde ich mit derzeit 269€ zu teuer - gab zwischenzeitlich Angebote für bis zu 239€.
    Nachdem die partnerkarten der 1060 für 279€ aber nur solche sind die man nicht kaufen möchte und die "guten" Modelle wie die erwähnte MSI gaming für 300€+ angeboten werden sollen... bleibt viel Luft für customs der RX480.

    Und so schön die Effizienz auch ist: im Desktop irrelevant auf diesem Niveau. 30W mehr oder weniger, das ist deutlich weniger als eine Glühbirne. Im Notebook relevant, weniger wegen der Laufzeit, eher wegen der Abwärme. oder in extrem engen ITX-cases. Aber im Desktop nicht. Auch die RX480 läuft nicht heiss. Nichtmal ansatzweise. Und wirtschaftlich rechnet sich das nicht. Allenfalls im Rechenzentrum, wo Kühlung ein Kostenfaktor ist. Aber da lohnt es sich eher einen GP104 mit 1500MHz laufen zu lassen. Wenn der GP104 nicht so bescheiden dafür geeignet wäre.

    Alles in Allem bleibt aber zu sagen: ein Test der keinen Ausblick auf die nahe(!) Zukunft wagt indem er vorhandene Spiele mit Dx12 oder Vulkanunterstützung testet (oder Time Spy) hat keine Relevanz. Dx11 ist old tech, hat seine Berechtigung im Test aber eine solche Karte wird vermutlich bei vielen Käufern nicht nur dieses jahr, sondern auch noch 2018 laufen. Und da wäre es schön jetzt zu testen wie sie mit Technik des Jahres 2017 - lowlevel APIs - umgehen kann.
    Immerhin ist Dx12 jetzt fast ein Jahr auf dem Markt und noch länger dokumentiert.
    1
  • TenDance
    Anonymous sagte:
    ich dachte die 1060 GTX geht nicht im SLI!


    Unter Dx12 kannst Du über PCIe verschiedene GPUs zusammenschalten. Kannst somit unter anderem auch eine Titan mit der integrierten GPU Deines Prozessors arbeiten lassen.

    Dx12 ist nicht nur marketing, da steckt technisch doch etwas dahinter. Auch wenn nVidia das gern kleinreden möchte :)
    0
  • klomax
    Anonymous sagte:
    Ach, je, genau die gleiche Riesenlückengülle wie bei 960 und 970.


    Och nö, schon wieder ein Haar in der Suppe gefunden. :D

    Ein Modell mit 256Bit und schnellerem Speicher ist doch schon gerüchteweise im Abschusskanal...
    0
  • Derfnam
    Haarausfall, was willste machen :P
    So wie die 960 Ti?
    0
  • klomax
    Das Gerücht ist diesmal konkreter, Dank wccftech und einer dieser ominösen Shipping Listen, die frei einsehbar herumliegen beim Logistikpartner ihres Vertrauens. :D
    0
  • echoez
    Schöner Test, sehr gute Karte fürs Geld.
    Aber ich habe nun auch die Bestätigung für meinen Entschluß, die nächste Graka-Periode mit der RX480 zu verbringen. DX11 stirbt aus, DX12 und Vulkan sind die Zukunft.
    Es deutet alles darauf hin, daß Pascal doch so seine Problemchen damit hat.
    Ich war über 5 Jahre recht zufrieden mit meiner GTX560 - ok, das letzte Jahr nicht mehr - aber die Neue sollte auch mindestens 3,lieber 4 Jahre ausreichen, bis sich VR etabliert hat.
    Jedes-Jahr-Neukäufer werden mit der GTX1060 sicher ihre Freude haben und das passt in dem Fall sogar wesentlich besser als mit der RX480.

    Meine Dicke braucht leider ein neues Getriebe und Mopped fahren macht im Sommer mehr Spass als Zocken, da kann ich mich bis zum späten Herbst entspannt durch die Kurven schaukeln und mir dann eine eine RX480 Custom, oder Ref mit meinem vorhandenen SilenX IXG80HA2 für die nächsten Jahre gönnen.
    0
  • derGhostrider
    Manche schreiben hier ihre Kommentare, als ob die Karte bei DX12 grotten schlecht wäre. Ist sie aber nicht.

    Die 1060 gibt es ab 279 Euro real zu kaufen (idealo.de). Es ist also sinnfrei von "über 300 Euro" zu reden. EVGA, Palit, MSI, ZOTAC, Inno3D... Gainward kostet dann 284 Euro. Da ist also für jeden etwas dabei, der einen bestimmten Hersteller nicht mag.
    Die RX480 kann ich bei idealo erst ab 269 Euro finden. Es gibt dort keine Karte, die billiger wäre.

    Reell sehe ich also eine Preisdifferenz von exakt 10 Euro zwischen den beiden Karten, dafür ist die 1060, wie es im Fazit hier genannt wurde, nicht nur prozentual schneller, als es der Aufpreis (10 Euro) suggeriert, sondern verbraucht auch weniger Strom, produziert weniger Abwärme und hält sich sehr sauber an die Spezifikationen. Dazu geringerer idle-Verbrauch als Bonbon oben drauf.

    "30 Watt sind im Desktop nicht relevant" - wie bitte? 30 Watt sind 30 Watt, die aus dem Gehäuse befürdert werden müssen.
    Schalte eine klassische 30 Watt Glühlampe ein, warte 5 Minuten und pack sie dann an. Dann merkst Du relativ gut, wie relevant 30 Watt Abwärme sind.
    Zumal AMD eben nicht bei 150 Watt TDP liegt, sondern darüber. 150 Watt sind deren Wunschwert.
    Also ersetze die 30 Watt Glühlampe durch ein 40 oder 50 Watt Modell. Schön in die Hand nehmen und festhalten. So ein paar Watt sind doch nicht relevant!

    Selbst wenn bei IDENTISCHER Rechenleistung eine Grafikkarte 10 Watt einsparen könnte, wär sie schlichtweg effizienter. Gäbe es KEINE anderen Unterschiede (also z.B. beide vom gleichen Hersteller, damit kein Fanboy-ism greift), welche Karte würdest Du dann nehmen?

    Nvidia liefert mit der 1060 recht genau das, was AMD für die RX480 versprochen hatte: Eine wirklich effiziente Karte in diesem Preisbereich (10 Euro Unterschied!), die gute Leistung abliefert.

    Quelle Preis RX480: Idealo, Stand 20:20 Uhr, 19.07.2016:
    http://www.idealo.de/preisvergleich/ProductCategory/16073.html?param.alternativeView=true&param.opensearch.sortKey=price&param.resultlist.sortKey=minPrice&q=RX480

    Quelle Preis GTX 1060, Idealo:
    http://www.idealo.de/preisvergleich/ProductCategory/16073F1263482.html?param.alternativeView=true&param.resultlist.sortKey=minPrice
    1
  • echoez
    Richtig, 30 Watt sind 30 Watt. 30W in einer Sekunde sind 30 Joule.
    Fass mal n 30W Lötkolben nach 1min an, oder steck deinen Kopf nach 1 Stunde in einen Backofen, den Du mit 30W befeuerst. Oder ein Heizlüfter mit 30W mit dem Du tagelang versuchst, deine Wohnung zu beheizen.. Merkste was?
    Das Ref Design der RX480 befördert ungehindert - also ohne DVI im Weg - die 30W mehr mit dem Rest nach draussen, während Customs die Wärmeenergie erstmal ins Gehäuse blasen. Aber auch da ist die Wärmemenge von 30Joule (oder auch mehr) kein Problem, solange da auch nur ein Lüfter im Gehäuse sein Werk verrichtet.
    Nach 33 Stunden zocken kosten die 30W mehr soviel wie ein Wassereis.
    Wenn Du nun alle 1,5 Tage nicht auf ein Wassereis verzichten kannst, musst Du zwangsläufig zur GTX1060 greifen. ;)
    Bei einer Tagestour durchs Sauerland verblase ich 50€ in Form von Sprit, Pommes und Srudelwasser. Da gehen mir 30,60 oder 95 Watt am blanken Heck vorbei!

    Wegen DX12 und Vulkan ist die RX480 die bessere Wahl als die GTX1060, da sprechen wir uns in 4 Jahren wieder, wenn die RX480 eher an der GTX1070 klebt und die GTX1060 kein Land mehr sieht. Dafür braucht man keine Glaskugel ;)

    Es sit doch totaler Blödsinn über Effizienz zu diskutieren, guck mal was vor Maxwell aus 200W Leistung in FPS umgesetzt wurde. Oder vor GCN und Fermi... Effizenz ist nur zum Haten gut, Kosten und Abwärme für die heutige Leistung in FPS ein Witz.
    0
  • echoez
    Mir gefällt ubrigens die neue Mechanik der Webseite, vorher war das Navigieren ein Graus. Gut hingekriegt ihr das habt!
    0
  • Derfnam
    Keine Hose am Arsch, aber ins Sauerland fahren - ja, nee, is klar...
    0
  • alterSack66
    Nicht ganz das, was Nvidia versprochen hat. Aber das war ja bei der AMD RX 480 auch nicht anders. Der Verbrauch ist schon sehr niedrig für die Leistung finde ich. Auch ohne Test mit der 50 W Glühbirne. :D Mal schaun wie sich die Preise entwickeln. Für nen 10er mehr und vor allem lieferbar schon eine Alternative.
    0
  • echoez
    Derfnam
    Es ist Sommer, kannst ja gern mit Anzug und Schlips rumrennen :D
    https://youtu.be/dajn9Bk24CY?list=RDdajn9Bk24CY&t=28
    0
  • Derfnam
    Will ja nichtmal ich sehen, wies drunter aussieht.
    Ich muß nochmal nachhaken, diesmal in Form eines Zitats von HT4U, was exakt meine Meinung wiedergibt:
    Kleinere Fertigung, bessere Kostenverteilung auf Seiten des Herstellers, günstigere Designs. Das gibt NVIDIA aber nicht weiter, sondern setzt voll auf seine Vorzüge. Die GTX 1060 basiert auf dem GP106-Chip, dem Nachfolger des GM106-Chips und damit der GTX 960. Der Preispunkt war ein anderer. Die GTX 1070 als Nachfolger der GTX 970 basiert auf dem GP104-Chip, die 970 auf dem GM104-Chip – der Preispunkt war ebenfalls ein anderer. Und Gleiches gilt natürlich für die GTX 1080, welche auch auf dem GP104-Chip aufsetzt und damit prinzipiell die Nachfolge der GTX 980 antritt. Auch hier passt der Preispunkt nicht, vielmehr orientiert man sich am deutlich teueren GM-100-Chip in Form der GTX 980 Ti.

    Von daher betrachte ich die Einleitung zu diesem Test als Hommage an Dr. Schönfärber, Monaco Franze läßt grüßen.
    0
  • alterSack66
    hin oder her, ich betrachte die GTX 1070 als Nachfolger der GTX 980 mindestens. Wo hast vor paar Jahren so viel Leistung und so wenig Verbrauch gehabt? @THG Ihr solltet mal den Grafikkartenchart aktualisieren.
    0