Anmelden mit
Registrieren | Anmelden

Benchmarks: Lost Planet 2 (DX11)

Fermi schlägt Fermi: GF110 alias GeForce GTX 580 im Test
Von , Chris Angelini

AMDs Radeon HD 5970 schleicht sich in Lost Planet 2 langsam an die GeForce GTX 480 heran und kann sie, bei 2560 x 1600 angekommen, endlich überholen. Derweil sorgt die GeForce GTX 580 dafür, dass Nvidia in den drei Test-Auflösungen den Sieg davontragen kann.

Interessanterweise gelingt es der Radeon HD 6870 sowohl in 1680 x 1050 als auch 2560 x 1600, an der HD 5870 vorbeizuziehen. In 1920 x 1200 liegen die beiden gerade mal ein FPS auseinander.

Eine Anmerkung haben wir zu diesen Ergebnissen. Nvidia behauptet, dass die Fermi-Architektur besser auf die neusten DirectX-11-Spiele zugeschnitten sei. Allerdings ist es schwer einzuschätzen, ob Nvidias Performance-Vorteil in diesem Spiel (und auch in Metro 2033) eher daher rührt, dass es sich um einen TWIMTBP-Titel handelt oder die Grafikengine tatsächlich so viele anspruchsvolle neue Effekte einsetzt. Ehrlich gesagt scheint es eher der erste Punkt zu sein, wenn man die Performance in anderen DX11-Spielen betrachtet. Das soll die Leistung der Nvidia-Karten nicht schmälern, denn unsere Messungen spiegeln ja auch das wider, was der Spieler auf dem heimischen Rechner erlebt, wenn er Lost Planet 2 spielt: Nvidia hat einfach die höheren Bildwiederholraten.

Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 47 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • bluray , 9. November 2010 15:26
    Ganz klar zeigt die 580 nun, was die 480er schon von Anfang an hätte leisten können, wenn man bei NVidia die Probleme besser im Griff gehabt hätte.
    Auch wenn ich NVidia immer noch bevorzuge, so muss ich sagen, dass die 580 vorerst zwar die Krone hat, aber ATIs Antwort ja noch aussteht. Was eine 6870 schon zu leisten vermag, wurde ja bereits vor etwa 2 Wochen publik getan. Wenn ATI nun tatsächlich ihre 6990 vorstellt, dürfte NVidia wieder enorm daran zu knabbern haben, und die GPU-Enthusiasten werden abermals auf NVidia schielen, wenn sie Mitte 2011 ihre nächste DX11-GPU ins Rennen schicken.

    Die ersten Werte der 580 jedenfalls sind nicht übel. Aber dafür gleich wieder 500 Euronen auf den Tisch legen, ist die andere Frage, zumal sich nun 480er-Besitzer ziemlich ärgern dürften, dass NVidia nur 8 Monate später die formvollendete Fermi rausgebracht hat.

    Macht nix, umso spannender dürfte nun sein, wie ATI auf die 580 reagiert und vor allem, die die Preisentwicklung aussieht. Das wird ein heisses Weihnachten.
  • derwolf92 , 9. November 2010 15:35
    Im Fazit stand, dass der Termin für die neuen Karten schon feststeht.

    Wann ist denn der Launch?
  • benkraft , 9. November 2010 15:52
    Zitat :
    Im Fazit stand, dass der Termin für die neuen Karten schon feststeht.

    Wann ist denn der Launch?


    Siehe auch "NDA, Geheimhaltungsvertrag", alias Pressesperre.
    Anders gesagt - wenn wir es sagen dürften, würden wie es explizit schreiben. Sorry
  • Techniker Freak , 9. November 2010 15:54
    Das sieht schon mal besser für Nvidia aus, jetzt bin ich mal gespannt darauf wie sich die 6970 schlägt :) 
    Zitat :
    Als die Radeon HD 68750/6870 vorgestellt wurde

    Da hat sich wohl eine 7 eingeschlichen ;) 
  • titan1981 , 9. November 2010 15:57
    hm der Verbrauch ist immernoch weit von dem was man als annehmbar nennen kann. Die "Schutzschaltung" zeigt klar das nvidia verheimlichen will, dass sie unfähig sind leistung mit einem guten verbrauch herzustellen.

    eigentlich müsste man mal die Stromkosten für die Grafikkarte über die dauer von 2 jahren vorrechnen unter vollast und im idle.... ich glaube dann kommt ein ganz anderer Karten endpreis raus....

    mein Fazit: nvidia immernoch nicht weiterempfehlbar...
  • derwolf92 , 9. November 2010 16:00
    Schade... :p 
  • Levi88 , 9. November 2010 16:17
    Der niedrigere Verbrauch dürfte zu 50% allem durch die Temperaturen kommen.

    Ich find das Teil dennoch ziemlich brachial.
    Für den normalo bleibt aber nach wie vor eine GTX 460 und (der warsch. Vollausbau GX 560) die optimalere Alternative.
  • FormatC , 9. November 2010 16:29
    Ich habe gestern mit zwei GTX 480 OC im Gehäuse meine CPU zur thermischen Notabschaltung gebracht. Die Rückwand des Gehäuses selbst hatte schon 45° und die Abdeckung oben fast 53. Kranke 827 Watt auf dem Verbrauchsmessgerät. Absolut brutal die Dinger :D 

    Was macht man nicht alles für einen netten Gehäusetest ;) 
  • Anonymous , 9. November 2010 16:30
    Eigentlich eine recht gute Karte, das mit der "Schutzschaltung" hinterlässt irgendwie schon einen faden Beigeschmack. Ich vermute auch, dass man den WorstCase-Verbrauch verschleiern will. Wie schon bei der 480 gibt Nvidia die TDP im Vergleich zur Konkurrenz zu optimistisch an. Bei der 480 hat man erst 250Watt angegeben, obwohl sie bei 320Watt lag. Bei der GTX580 führt man das jetzt so fort. So sieht das Ganze irgendwie absurd aus. Eine 5970 ist mit viel höherer offizieller TDP als die Nvidias angegeben, verbraucht aber weniger. Ich denke es wird dann nötig sein, den Verbrauch in allen Benchmarks mitzumessen und daraus wie auch bei der Framerate eine Summe/einen Durchschnitt zu bilden, damit man das wirklich vergleichen kann. Ich denke ein Spiel wird nicht repräsentativ genug sein.

    Ein Crossfire Gespann aus zwei 6870 dürfte eine interessante Alternative sein oder eben die 6970 in 2 Wochen. Ich bin gespannt
  • Pascha , 9. November 2010 16:38
    Wenn ich mich recht entsinne sollten die HD69X0 ende diesen Monats kommen.
    Zumindest meine ich das irgendwo gelesen zu haben.

    Vom Hocker reißt mich die GTX580 nun nicht gerade, aber das liegt wohl eher am Preis. War noch nie ein Freund von High End Hardware die nen Komponentenpreis hat zu dem man schon nen komplett PC zusammenstellen kann.

    Aber würde mich freuen wenn die Roten was gutes als Gegenstück rausbringen würden. Wenn die HD6970 dann evtl noch 100W weniger verbraucht und für 350€ zu haben ist...... umso schöner.
    Aber warten wirs mal ab.
  • Unr3a7 , 9. November 2010 17:17
    Wie zum geier hat es dann Gamestar geschafft eine Leistungsmessung zu machen???

    http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2319126/nvidia_geforce_gtx_580_p5.html#EL_12893046277527619985077

    wenn das stimmen sollte, dann liegt die 580 nahe bei der 480
  • Unr3a7 , 9. November 2010 17:18
    edit: die haben es wohl vom Gesamtverbrauch runter gerechnet O_o

  • 1Hz , 9. November 2010 17:20
    Naja - für viel Spieleperformance sicher trotz allem eine gute Wahl - und wenn MSI hier auch so was wie die N480GTX Lightning draus macht - würd ich definitiv eine nehmen
  • 1Hz , 9. November 2010 17:21
    besser noch zwei ...
  • avatar_87 , 9. November 2010 17:45
    Wow, schöner ausführlicher Test! Für mich ist aber immer noch die HD 5970 der direkte Konkurrent zu Nvidias gtx 480 bzw gtx 580. Würde im Moment wahrscheins die gtx 580 bevorzugen, aber kaufen würde ich mir keine von beiden.
  • 1Hz , 9. November 2010 17:51
    Hier nochmal was zur maximalen Leistungsaufnahme: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/25/#abschnitt_leistungsaufnahme
  • Anonymous , 9. November 2010 17:56
    Zitat :
    Wow, schöner ausführlicher Test! Für mich ist aber immer noch die HD 5970 der direkte Konkurrent zu Nvidias gtx 480 bzw gtx 580.

    hmm ja die 5970 ist schneller, billiger und verbraucht weniger Strom, ebenso wie manche Crossfire Gespanne. Wenn die Sache mit den Mikrorucklern halt nicht wär.
  • derwolf92 , 9. November 2010 18:00
    Immer diese Gerüchte um die Mirkroruckler... Hab ich noch nie gesehen... Ich bin da wohl von der Sorte lahmarschauge.
  • manikend , 9. November 2010 18:11
    Find ich gut die Karte, hat man's im Winter schön warm beim Spielen. Vielleicht eine kleine Anmerlung zum Text, etwas komisch klingt's schon wenn da steht "Nur wenigen war bewusst, dass Nvidia zum Zeitpunkt des GTX-480-Launchs bereits an einem Nachfolger arbeite,"- gibt es denn irgendeine Firma die nicht IMMER an der nächsten Karte werkelt? Kurz gesagt, das ist so normal, dass man es hätte ruhig voraussetzen können.
  • Anonymous , 9. November 2010 18:25
    Furmark geht! Aber wohl nur mt älteren Versionen. Offenbar checkt Nvidia einfach auf eine Signatur von Furmark 1.8. Angeblich soll es mit älteren Versionen laufen. Auch wenn die älteren Versionen die Karte vermutlich nicht ganz so perfekt auslasten, wie die neuen, könnt ihr das vielleicht versuchen? Der wahre Maximalverbrauch wäre doch schon recht interessant.

    Ach crap, der Test ist aus dem Englischen übersetzt. Aber falls FormatC oder so das Teil mal testest, kannst das mal testen?
Alle Kommentare anzeigen