GeForce GTX 570: Die bessere GTX 480

Die GeForce GTX 580 zeigte letzten Monat, was wir schon im März von Nvidia erwartet hatten. Nun schiebt die Firma die GeForce GTX 570 mit GF110-GPU nach. Ist sie schnell genug, uns das Kapitel GF100 und die GTX-400-Serie vergessen zu lassen?

Selten war sich die Fachpresse so einig wie nach dem Launch der GeForce GTX 580 mit GF110-GPU. Allenthalben war zu lesen, dass dies die Grafikkarte war, die die GeForce GTX 480 hätte sein müssen. Auch die Leserschaft teilte diese Einschätzung, und bei unserer amerikanischen Schwesterseite zog ein Leser folgendes Fazit: „Wenn die GTX 580 das ist, was die 480 von vornherein sein sollte, dann warte ich einfach auf die GF110-Variante der 470 und kaufe die.“

Guter Plan, wie sich nun zeigt. Nachdem wir uns in den vergangenen Tagen ausführlich mit der „GF110-Variante der 470“ auseinander gesetzt haben, können wir diesem Vorhaben eigentlich nur zustimmen. Ohne dem Fazit zu sehr vorgreifen zu wollen: Die GTX 480 wird es ab jetzt schwer haben, denn die GTX 570 ist meist mindestens so schnell oder sogar schneller als das ehemalige Flaggschiff. Dabei ist die preiswerteste GTX 480 aktuell ab knapp 330 Euro für eine namhafte Marke im Versandhandel zu finden, während Nvidias offizielle Preisempfehlung für die GTX 570 bei 349 Euro liegt. Zum Vergleich: In den USA wird der Vorgänger zu Preisen von um die 450 Dollar verkauft. Autsch. Klipp und klar gesagt: Es wird sich nicht lohnen, im Vorweihnachtsgeschäft zu versuchen, ein GTX-480-Schnäppchen zu schießen, denn die GTX 570 ist einfach rundum weit attraktiver.

Bevor wir uns daran machten, diesen Artikel zu schreiben, sichteten wir auch noch mal das Leser-Feedback zum GTX-580-Launch. Vielen unserer Leser fehlten die Vergleichswerte mit Radeon-HD-6800-Karten im CrossFire-Modus. Zu der Zeit befanden sich die beiden Boards leider nicht im selben Testlabor wie die Nvidia-Karte, doch dieses Mal können wir auch mit den CrossFire-Werten aufwarten. Die GTX 570 muss sich also nicht nur mit der versammelten Einzelkarten-Konkurrenz von AMD auseinandersetzen sondern zusätzlich noch gegen zwei Radeon HD 6850 im CrossFire-Doppelpack behaupten. Ausgehend von der oben genannten Preisempfehlung wäre ein AMD-Duo bestenfalls knapp 50 Euro preiswerter und schlimmstenfalls in etwa gleich teuer. Je nach endgültigem Marktpreis der GTX 570 und der gebotenen Leistung der CrossFire-Lösung könnten sie also durchaus auf ein noch besseres Preis-Leistungs-Verhältnis als Nvidias Neue kommen.

Wie man ein kleiner Bruder wird

Mit der GeForce GTX 580 zeigte uns Nvidia, wie die Fermi-Architektur vor neun Monaten eigentlich hätte aussehen sollen. Alle 16 Shader Multiprocessors waren aktiviert, womit das neue Spitzenmodell auf 512 CUDA Cores, 64 Textureinheiten und 16 PolyMorph Engines kommt. Das Back-End besteht zwar wie bei der GTX 480 aus sechs ROP-Partitionen mit je einem 64-Bit Speicher-Controller (384 Bit insgesamt), aber die Datenrate liegt leicht höher, was den Speicherdurchsatz verbessert. Auch der Grafikkern und die Shader laufen ein gutes Stück schneller, während ein effizienterer Kühler gleichzeitig die Wärmeentwicklung besser im Griff hatte und die Lautstärke deutlich reduzierte – und das obwohl die GTX 580 nur etwas weniger Strom verbraucht, als ihre Vorgängerin.

Leider hat aber nicht jede GF110-GPU, die bei TSMC entsteht, das Zeug zum Flaggschiff. Glücklicherweise heißt das im Umkehrschluss aber nicht gleich, dass aus ihr deshalb eine ungeliebte GTX 465 werden muss.

Die GeForce GTX 570 ist, vereinfacht gesagt, ein Zwitter aus der GeForce GTX 480 und der GTX 470 mit einem Anteil GF110-DNA. Von der GTX 480 kommen die 15 Shader Multiprocessors der GPU, welche 480 CUDA Cores und 60 Textureinheiten mitbringen. Das Vermächtnis der GTX 470 sind derweil die fünf ROP-Partitionen, ein 320-Bit-Speicherbus und der 1,25 GB große GDDR5-Speicher.

Das Ganze wird garniert mit den architektonischen Verbesserungen der GF110-GPU. Primär ist das die Fähigkeit, FP16-Texturfilterung in einem Taktzyklus auszuführen, wie es mit der GF104-GPU der GTX 460 eingeführt wurde. Alle GF100-Chips (GTX 480/470/465) benötigen dafür noch zwei Taktzyklen. Nvidia verbesserte darüber hinaus auch die Z-Culling-Effizienz. Die GPU agiert also cleverer, wenn es darum geht, Pixel zu verwerfen, die nicht gezeichnet werden müssen, beispielsweise weil sie von anderen Objekten verdeckt werden. Das spart Speicherbandbreite und Rechenleistung ein, die anderweitig eingesetzt werden kann.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
31 Kommentare
    Dein Kommentar
  • Quote:
    AMD versicherte uns hingegen, das Phänomen sei doch per Treiber zu lösen – indem man die Texturen ein wenig unschärfer zeichnet, um so das Flimmern abzuschalten.

    Das hab ich auch auf diversen Foren von unabhängigen Experten gelesen, die das mit Testbildern belegt haben. AMDs filtern schärfer als Nvidias, womit aber automatisch ein stärkeres Flimmern einhergeht. Bei Nvidia sah das bei einigen AF Bildern schon fast aus, als wäre AA auf den Texturen. Wie stark jetzt das bei wem ist weiß ich nicht. Ich vertrete eher die Meinung, was mir nicht auffällt ist unwichtig. Deshalb brauch ich auch keine max. Settings.

    Euer Kommentar war wohl zu dem kleinen Nvidia Weihnachtspaket mit beigelegtem Reviewers Guide? :D
    Gut zu lesen, das ihr sowas nicht mitmacht

    Die 570 sieht ja ziemlich gut aus. Ich bin auf jeden Fall auf den Vergleich mit 6950/6970 am 15.Dezember gespannt, wenn man erst wirklich weiß was das wert ist. Einen Fehler macht man beim Kauf einer solchen Karte jedenfalls wohl nicht.
    1
  • Und wo rockt die GTX 460 im SLI?
    0
  • Um welche Spiele geht es denn die "angeblich" nicht mehr wirklich gespielt werden ?
    0
  • Gut gemacht NVIDIA. Es geht doch. :-)
    Liest sich durchweg gut. Dann haben die grünen Jungs ja doch schneller wieder Tritt gefasst als noch vor einem halben Jahr angenommen.

    Unabhängig davon sieht es fast nach einem Schaulaufen der HD6850 in Crossfire aus. Die stehlen der GTX570 fast ein wenig die Show. Sind euch bei der Testerei noch Mikroruckler aufgefallen? Habt ihr Schwierigkeiten bei der Konfiguration gehabt?
    0
  • Ich habe derzeit ein CF aus 2 x HD 6870 im Praxistest - die bügeln eine GTX 580 dermaßen was von weg... Selbst beim Unigine Heaven und Tessellation auf Maximum. Bei 2 x HD 6850 siehts hingegen gemischt aus. Das reicht gerade mal für die GTX 570. Meistens, aber nicht immer.

    Microruckler - gute Frage. Da fast alles mit 40fps++ läuft, eigentlich kein Thema. Wir testen diesmal beim Launch der HD69er in zwei Teilen. Der Launchartikel kommt von Chris, der zweite Teil kurz darauf mit Crossfire aus 2 x HD 6970, dazu Lucids Hydra (6970 + GTX 580) und AMD + PhysX dann von uns. Dann sind alle Karten noch mal am Start. Wird sicher nice.

    Mehr dazu gibts jetzt nicht, auch wenns schwer fällt - das ist nur ein Appetizer. Aber ich kann schon jetzt zwei sehr interessante Artikel versprechen. Also bitte hier bei uns lesen :)
    0
  • und wieder mal 100W zuviel verbauch bravo nvidia....
    1
  • Goldiger Humor, titan, vor allem deine glasklaren Argumente faszinieren mich enorm.
    0
  • Als ob das schlimm wäre, sowas von einem Nvidia Fanboy zu hören.
    0
  • Quote:
    Lucids Hydra (6870 + GTX 580)

    6970 + 580 oder? 6870 + 580 macht jetzt in meinen Augen nicht so viel Sinn. Wird auf jeden Fall spannend. Ist schon bekannt, wann am 15. die NDA endet? Wieder nachts? :D
    0
  • 6970. Vertipper. Der NDA beinhaltet auch, dass man Datum und Uhrzeit nicht knennt ;)
    0
  • Von deiner Spezies hab ich mir damals schon genügend gesucht, als ich funzende Treiber für meine ATIs suchte :P
    100 Watt zuviel bedeuteten unter 100 Watt Verbrauch im Spielebetrieb. DAS finde ich goldig.
    -2
  • Was habt ihr immer mitm Verbrauch? Jemand kauft ne Graka für 350 bis 500 oder mehr Euros die in kürzester Zeit die Hälfte oder weniger wert ist, dazu brauchts ja auch ne teuere CPU und NT, was solln da 30 bis was weiß ich Euro mehr Stromkosten im Jahr ausmachen?
    0
  • So darfst du das nicht sehen. Sonst geht der Verbrauch ja ins Unendliche. Die AMD-Karten sind ja auch nicht so Schluckspechte.
    0
  • sind knapp 56 W im Durchschnitt, wenn jemand sagen wir mal 3 Stunden am Tag spielt fällt das nicht so sehr ins Gewicht Gudi :) Meine Meinung
    0
  • Quote:
    Was habt ihr immer mitm Verbrauch? Jemand kauft ne Grafikkarte für 350 bis 500 oder mehr Euros die in kürzester Zeit die Hälfte oder weniger wert ist, dazu brauchts ja auch ne teuere CPU und NT, was solln da 30 bis was weiß ich Euro mehr Stromkosten im Jahr ausmachen?


    Verbrauch hat viel mehr Nachteile als nur die Stromkosten. Zuerst mal wird das Ding bei gleichem Kühler/Lüfter lauter. Immerhin haben die Nvidias da ja ganz Gute. Dann muss das Netzteil mehr liefern, und Netzteil und Grafikkarte produzieren mehr Abwärme, das treibt die Temperatur unwiderruflich nach oben, was die Lebensdauer aller Komponenten im System senkt und noch dazu ziehen dann alle Komponenten durch die erhöhete Temperatur noch mehr Saft. Die Effekte sind alle relativ gering, aber in der Summe kommt da doch was zusammen, insgesamt sollte man doch Wert auf den Stromverbrauch legen. Schon unseren Kindern zu Liebe.
    Aber das ist mal wieder typisch, einziges Argument, das die Leute heute sehen ist das Geld.
    0
  • Nur mal am Rande, ich protokolliere in den Tests meine Temperaturen peinlichst genau, das mit den Komponenten darfst Du als Argument gern wieder streichen. Niemand wird eine so teure Karte in einen billigen Hasenstall stecken.

    Phenom II X6 @ 4GHz; Mafia II ohne PhysX / NFS Hot Pursuit:

    1 x GTX 580 OC: CPU max 56°, Abluft unterm oberen Abzug 45°, Festplatte 33°
    1 x GTX 480 OC: CPU max 57°, Abluft unterm oberen Abzug 47°, Festplatte 33°
    2 x HD 6850: CPU max 57°, Abluft unterm oberen Abzug 46°, Festplatte 33°
    1 x HD5870: CPU max 56°, Abluft unterm oberen Abzug 44°, Festplatte 33°

    Die Messungenauigkeiten mal noch wegradiert - es ist immer gleichwarm. Und dies vor allem deshalb, weil alle Karten die Abwärme per Radiallüfter nämlich brav nach außen befördern. Wenn jemand ein 750 Watt Netzteil verbaut und Pech hat, dann verbrät das Netzteil mit fallender Last nämlich mehr, weil die Effizienz absaust. Zwei HD 6850 sind in etwas so schnell wie eine GTX570, brauchen aber 320 Watt.

    Die ganzen Rechnungen sind absurd. Rein theroretisch schadet man der Umwelt mehr, wenn man während des Spieles 5-6 mal richtig pupst. Und atmen sollte man nach Möglichkeit auch nicht mehr. Der Klimakiller sitzt nämlich samt Gedärm und Lunge vorm Monitor. :P
    2
  • Welche Intel CPU würde denn (im gleichen P/L wie die 570 GTX) die 570 GTX am besten anfeuern?

    Zur Zeit denke ich nämlich "nur" über i5 760 und 460 GTX nach...

    Sollte es jedoch eine günstige CPU-Kombination für die 570 GTX geben, welche diese auch voll ausnutzt, aber nicht übertrieben ist, wäre dies vielleicht eine Alternative bis Sandy Bridge rauskommmt und die dazupassende 560 GTX...
    0
  • Warte auf den Core i5-2500K oder den 2600K, dabiggy.
    0
  • Wäre die CPU dann für die 570 oder eher für den kleineren 560er voraussichtlich besser angebracht?
    0
  • Ich würde dir jetzt zum i5-760 raten, sofern du mehr Geld hinlegen willst, zum i7-875K.
    Der 2500er wird wohl den i5-760 'ablösen', der 2600er die i7-8xxer. wobei da ja durchaus noch Luft nach oben ist, 2700 usw., wer weiß schon, was noch kommt.
    Warum sollte der stärkste Quad eine GTX 570 nicht befeuern können?
    Natürlich wird beim Testsystem immer der 980X genommen, um mögliche Beschränkungen der CPU auszuschließen, aber hinter den Extreme Editions ist der i5-760 die beste Spiele-CPU. Ärgerlicherweise wurde der hier nie getestet (oder ich bin blind), deswegen der Link zur Konkurrenz:
    http://www.computerbase.de/artikel/prozessoren/2010/test-intel-Core-i5-760/29/#abschnitt_performancerating
    0