Anmelden / Registrieren

GeForce GTX 480 und 470: Nvidias schnelles heißes Eisen

GeForce GTX 480 und 470: Nvidias schnelles heißes Eisen
Von , Chris Angelini

Es liegt in der Natur von Hardware-Enthusiasten wie uns, sich so früh wie möglich über anstehende Hardware zu informieren und wie News-Junkies jeden Bericht zu lesen. Sobald die ersten technischen Daten die Runde machen, fangen wir an, uns ein Bild zu machen – egal, ob es sich dabei noch um Gerüchte, Hörensagen oder offizielle White Papers handelt.

Nvidias GeForce GTX 480 und 470 sind aber ein Sonderfall, denn die Firma ließ wenig Raum für Spekulationen. Schon vergangenen September begann der Grafikspezialist, die Vorzüge seiner neuen Compute-Architektur ausführlich darzulegen. Wir müssen zugeben, uns gefiel, was wir hörten. Im Januar ging Nvidia dann sogar sehr detailliert auf den Aufbau des GF100 ein, jener GPU, die auf dem Fermi-Design basiert. Das Fazit aus Nvidias Sicht: In DirectX-11-Titeln mit viel Geometrie-Berechnung würden die neuen Karten die Konkurrenz auf die Ränge verweisen. So langsam kribbelte es uns dann schon gewaltig in den Fingern.

GeForce GTX 480: Kühlfläche, wohin das Auge blicktGeForce GTX 480: Kühlfläche, wohin das Auge blickt

Man könnte also sagen, dass sich Nvidia selbst ins Knie geschossen hat, weil man zu früh zu viel preisgab. Immerhin haben wir jetzt Ende März, und seitdem Nvidia die ersten Informationen zu Fermi herausgab, sind sechs Monate vergangen. Erst vor einer Woche landeten endlich die ersten Desktop-Karten, die auf die neue Architektur setzen, bei uns im Testlabor.

Zu kaufen gibt es die beiden Neulinge noch nicht. Die ersten Karten mit Referenzdesign werden noch von Nvidia selbst produziert und sind in diesem Moment auf dem Weg zu den Distributoren. Sie sollten in weniger als zwei Wochen in den Händlerregalen stehen. Spätere Boards werden dann von den Partnern gefertigt und sollen im Laufe des kommenden Monats auftauchen. Wie steht es aber um die Verfügbarkeit? Laut Nvidia sind rechtzeitig zur Vorstellung zehntausende GF100-Grafikkarten auf dem Weg in den Handel, und bis Mitte April soll jeder, der über das nötige finanzielle Polster verfügt, eine GeForce GTX 480 (offizieller Preis: 500 US-Dollar) oder eine GeForce GTX 470 (350 US-Dollar) kaufen können.

Inwiefern diese Vorhersage zutrifft, wird sich allerdings noch zeigen müssen. Immerhin war AMD bei der Vorstellung der HD-5800-Serie nicht minder optimistisch, was die Verfügbarkeit anbelangte. Letztlich sah die Realität allerdings anders aus, und nach wie vor sorgt die geringe Ausbeute bei TSMCs 40-nm-Fertigung dafür, dass die Stückzahlen bei DX11-Karten eher niedrig sind.

Die Vergangenheit ist Geschichte

Gut, Nvidia betritt den Windows 7/DirectX 11 Markt also sechs Monate nach seinem Konkurrenten. Was aber zählt ist, dass man jetzt auch angekommen ist. Allerdings ist eine weitere Auswirkung der Verzögerungen, dass heute nur zwei Nvidia-Karten neun Radeon-HD-5000-Modellen gegenüberstehen. AMD hat seinen zeitlichen Vorsprung genutzt und alle Bereiche fleißig besetzt. Aufgrund der Kartenpreise von 350 und 500 Dollar können wir das Testfeld aber weiter eingrenzen, womit auf ATI-Seite nur noch die Radeon HD 5850, HD5870 und HD 5970 im High-End übrig bleiben. An diesen drei DX11-Karten müssen sich Nvidias Neuzugänge messen lassen. Das bedeutet aber auch, dass Nvidia zwei Drittel von ATIs DX11-Sortiment vorerst nichts entgegenzusetzen hat. Das setzt natürlich voraus, dass der Käufer überhaupt eine DX11-Karte sucht…

Um einen Vergleich mit den Flaggschiffen der letzten Generation zu ermöglichen, nehmen wir noch drei DX10-Karten ins Testfeld auf. Für AMD steigt hier die Radeon HD 4870 X2 mit zwei GPUs in den Ring. Nvidias Gegenstück dazu ist die ebenfalls mit zwei Grafikchips ausgestattete GeForce GTX 295. Als schnellste Nvidia-Karte mit einer GPU kommt auch die GTX 285 zum Einsatz.

GeForce GTX 470: Eleganter, auch schnell und ebenfalls heiß.GeForce GTX 470: Eleganter, auch schnell und ebenfalls heiß.

Anfangs sorgte Nvidias Ankündigung, die Fermi-Architekur werde vor allem auf wissenschaftliche Berechnungen (Compute Performance) hin optimiert, unter Spielern für einige Besorgnis, drohte doch die klassische Rolle der GPU Spiele zu beschleunigen in den Hintergrund zu rücken. Ohne Frage zielt die Architektur (und damit auch der GF100-Chip) durch die Nutzung von ECC-Speicher und verbesserte Performance bei doppelter Genauigkeit  darauf, den Einzug von Nvidias Tesla-Karten zunehmend auch in anspruchsvollen Supercomputern zu sichern. Das wird Nvidia auch gelingen. Die Performance-Zuwächse, die durch die massive Parallelisierung bestimmter Aufgaben möglich sind, sind enorm. Da Nvidia bereits in die Software-Entwicklung investiert, hat die Firma in diesem wachsenden Markt einen beträchtlichen Vorsprung gegenüber AMD/ATI und Intel. Es bleibt aber abzuwarten, wie die GF100-GPU mit „dem ganzen Rest“ klarkommt.

Kann Nvidias GF100 auch in Spielen überzeugen? Genau darum soll es hier gehen. Alles ist vorbereitet, die Testplattform aufgewärmt und einige neue Spiele in unseren Benchmark-Parcours aufgenommen. Bevor wir uns aber auf die Benchmarks stürzen, sollten wir uns noch die GeForce GTX 480 und die GTX 470 genauer anschauen.

Alle 165 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Levi88 , 27. März 2010 00:47
    Oh Gott..
    Also ich hab ja viel erwartet, aber so einen mörderischen Strombedarf hät ich nicht erwartet (auch wenn die TDP deutlich niedriger liegt als angenommen, ist das immernoch nicht zeitgemäß).

    Da hilft alle Leistung nix.. muss wohl die 8800 GTS noch bis zum Refresh herhalten ;) .
  • Desolator , 27. März 2010 01:16
    Also was ich da bis jetzt sehe enttäuscht mich doch sehr, aber war schon fast zu erwarten. Viele Gerüchte haben sich bewahrheitet. Habe mir dafür extra nur eine GTS250 geholt. Werd' ich wohl weitersparen oder auf eine ATI umsteigen.

    Ich denke eine GTX485 wird auch kommen. Ist ja schon fast ein Muss bei den Werten.
  • Anonymous , 27. März 2010 01:20
    Ich habe ein 5850CF und liege damit offensichtlich mit Performance, Verbrauch und Laustärkenoch sehr gut. Außerdem lassen sich beide Grakas auf 850/1210 ohne Spannungsanhebung betreiben.
  • klomax , 27. März 2010 01:37
    "Metro 2033" ist wirklich aus der Zukunft über uns hereingebrochen...oder seltsam programmiert.

    Wahrscheinlich beides.
  • seppi80 , 27. März 2010 01:43
    Unglaublich: im Jahr 2010 solche Stromfresser auf den Markt zu bringen...die Leistung pro Watt ist doch lächerlich!

    Ich bin wahrlich kein AMD/ATI-Fanboy, aber diesmal hat Nvidia auf ganzer Linie versagt. Außer markigen Werbesprüchen nichts dahinter!
  • IlDuce88 , 27. März 2010 02:10
    NVIDIA - Looser. Sorry aber ist so.

    DER Strombedarf ist.. beschissen?
    Nach so langer Zeit noch nix ordneltiches hinbekommen und dann den Preis verlangen :D  :D  :D  so geil
    Da hat man sich zu viel auf GPGPU konzentriert... lieber mal wieder ordneltiche Gamergrafikkarten, die halbwegs einen normalen Strombedarf haben.
  • Anonymous , 27. März 2010 02:33
    Guter Test, freue mich auf mehr davon.
  • avatar_87 , 27. März 2010 02:44
    @klomax Metro 2033 ist nicht schlecht programmiert. Schraubt man die Details geringfügig runter, sieht das Spiel immer noch hammergeil aus und die Leistung steigt enorm. Gut wenn man wirklich ALLES von Tesselation über directx 11 PhysX pipapo haben möchte wirds eng.

    Zu den Karten kann ich nur sagen. Sicher ein großer technologischer Schritt für NVIDIA aber ausgereift ist ihr Paket noch lange nicht. Da warte ich doch lieber auf die nächste Generation.
    Nur schade, dass AMD nicht in Zugzwang ist die Preise zu senken. Sie werden sich dann wohl weiter die Taschen vollstopfen. Und eine HD 5850/5870 wird man wohl nicht mehr zum alten Preis von 220/320€ zu Gesicht bekommen.
  • BlackX , 27. März 2010 04:34
    Es sollte in Zukunft so sein das die GPU aufs MoBo kommt und die CPU in ein freien PCIE Steckplatz. Dann kann man kann man für die GPU viel bessere Kühlung und Spannungsversorgung realisieren was die viel nötiger hat als die CPU :D .
  • BlackX , 27. März 2010 05:04
    Enthusiasten interessiert die Leistung nicht die denken sich nur na da wird mein 1500 Watt Netzteil mit der 480 im SLI endlich mal ein bisschen gefordert.
    Das ist wie wenn man einen Auto Tuner fragt für was er Geld ausgeben würde.
    Damit er weniger Verbraucht oder für mehr PS. Für was würde der sich wohl entscheiden?
    Und ich glaube kaum das sich der Mainstream ne Grafikkarte für soviel Geld kauft das er auch gleich nen Komplett PC dafür bekommt.
  • kaan , 27. März 2010 06:07
    Ich warte jetzt nur noch auf Werbung vom Stromanbieter z.B. RWE oder Südwag "Nvidia Stromspar Packet Plus inkl. 20% Rabatt auf alle Nvidia Fermi Karten".
  • BlackX , 27. März 2010 06:40
    Fünf! es sind Fünf Heatpipes die eine ist unterm Geheuse versteckt.
    Wenn ihr wirklich die ganzen News in den letzten Wochen gelesen habt
    müsstet ihrs eigentlich wissen den da wurde sie schon auseinander genommen!

    Also CB hat da einen wesentlich schöneren Test abgegeben.
  • Anonymous , 27. März 2010 07:11
    75watt mehr oder weniger als meine GTX285 ist fast unbedeutend für mich. Vorallem wenn ich mir mal wieder ein SLi aus 2x GTX285 in Zukunft vorstellen kann. Mein 850er Corsair NT macht das mit links.

    Klar ist solche Stromaufnahme nicht zeitgemäß, aber habt ihr denn alle sparsame Glühbirnen,Kühlschränke etc. in der Bude. Stromsparen beginnt bei den Fixkosten. Und nicht beim Hobby.

    MFG
  • Gudi , 27. März 2010 10:19
    Da hat sich eigentlich alles bewahrheitet was man im Vorfeld so an Gerüchten vernommen hat. Insofern kann ich jetzt nicht von Enttäuschung sprechen. Wirklich empfehlen könnte ich sie aber nicht.
    Was mich wirklich überrascht ist das starke Einbrechen bei höheren Auflösungen. Um ehrlich zu sein, hätte ich es genau umgekehrt erwartet. Wer kauft sich so eine Karte für einen 22"-TFT? Interessant sind sie doch erst >FullHD und da ist ist die große Fermi mit der HD5870 gleich auf.
  • seeigel , 27. März 2010 10:26
    Es stimmt schon, die Karten kommen ein halbes Jahr zu spät - oder ein halbes Jahr zu früh. :non: 
    Zum Winteranfang wäre noch OK gewesen . Da hätte man die Abwärme gut als Heizungsersatz brauchen können. :D 
    Jetzt zum Sommeranfang ist gleich noch eine Klimaanlage mit fällig und dann macht das bisschen Stromverbrauch von der Karte auch nichts mehr aus :lol: 
  • Zapata , 27. März 2010 10:40
    Also nach diesem hype um die neuen Karten bin ich echt enttäuscht. Und das mit dem Preis war ja von vornherein klar. Klotzen statt kleckern.
  • Levi88 , 27. März 2010 11:17
    Doller, mir gehts nicht um die maximale Stromaufnahme, auch wenn diese nicht im Verhältniss zur Leistung steht.
    Mir gehts um den Leerlaufbedarf und die Tatsache, dass ich da fast doppelt soviel Abwärme wie bisher in meine WaKü schieb und die dadurch auch lauter wird und das für eine Karte, die förmlich nach Refresh mit Vollausbau bei ca gleicher Stromaufnahme schreit. Den Fehler mache ich nicht, da ärger ich mich nachher nur ;) .
  • FritzLE , 27. März 2010 11:35
    das scheint wohl nvidias "phenom" zu werden... laut gerüchten hat ATI schon neue modelle in den startlöchern, das dauert sicher keinen monat, bis die fermis wieder abgesägt sind. und ati kann noch einiges an leistung aus cypress rauskitzeln.
  • druffY , 27. März 2010 11:42
    NVidia ist nach wie vor eine Enttäuschung...
    Ich hätte mehr erwartet, finde auch dass der Strombedarf extrem ist, aber
    das ist ja nur das kleinere Übel... Ich spreche mal nicht davon, wieviel Hitze diese Karten verursachen...
  • bitti1 , 27. März 2010 11:46
    Ich bin mal sehr auf die (irgendwann erscheinenden) kleinen GeForce Karten gespannt, ob diese auch so eine immense Stromaufnahme haben. Wenn dem so ist, hat NVIDIA ein echtes Problem. Denn wer kauft sich für seinen HTPC/Office-Rechner schon so einen (Strom-)Schluckspecht...
Alle Kommentare anzeigen