Anmelden mit
Registrieren | Anmelden

Benchmark-Ergebnisse: Dead Space

GeForce GTX 295: Erste Benchmarks
Von , Uwe Scheffel

Dead Space ist der neueste Weltraum-Horror, der von der Konsole für den PC adaptiert wurde – was leider von der Steuerung bis hin zur Grafikqualität auf unschöne Weise offenbar wird.

Trotz der vorliegenden Anti-Alias-Werte (und entsprechender Leistungsspitzen, die darauf hinweisen, dass das Erzwingen von AA und AF in den Treibern tatsächlich etwas bringt), kam es zu sehr offensichtlichen eckigen Kanten, selbst bei Auflösungen von 1920x1200 und 2560x1600. Außerdem zeigte die Radeon HD 4870 X2 bei 19x12 wiederholt ein seltsames Verhalten und erzielte geringere Werte als das 2560x1600-Ergebnis.

Bei diesem Spiel hat die Nvidia-Hardware klar die Nase vorn, da selbst die GTX 280 besser abschneidet als die AMD-Vorzeigekarte. Das Spiel eignet sich jedoch nicht als Teil einer Vollzeit-Testsuite, wenn auch nur wegen der fragwürdigen Effektivität der Grafikeinstellungen.

Nachtrag: Nach Besprechung der Ergebnisse mit Nvidia stellte sich heraus, dass Dead Space einen eigenen AA-Pfad verwendet, weshalb die Einstellungen der Systemsteuerung keine Auswirkungen auf die Spieleoptik haben. Man kann AA im Spiel selbst einschalten, was allerdings zu keinem Performance-Unterschied im Benchmark-Test führte.

Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 48 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • jehaa , 18. Dezember 2008 16:45
    sehr nette einleitung, echt gelungen!!!
  • fruechtetee , 18. Dezember 2008 17:08
    Sorry nVidia: Man stellt auf eine kleinere Struktur um, und dann nicht gleich auf 32/45nm?

    Versteh ich nicht!
  • Anonymous , 18. Dezember 2008 17:09
    Guter Test, kleine Anmerkung: Bei mir fehlt auf Seite 2 der Intrag der GTX295 im Stromverbrauchdiagramm.
  • Jolly91 , 18. Dezember 2008 17:48
    nicht schlecht, nicht schlecht, fehlt nur noch der Stromverbrauch, ist der auch niedrig, ist die GTX 295 die beste wahl.
  • Ackerlaatze , 18. Dezember 2008 17:50
    Mir persönlich ist es gleich, wie das Ding funktioniert. Hauptsache Performance hoch und Stromverbrauch runter. Wenn da 64 GPUs unter dem Kühler werkeln und sie den Stromverbrauch einer S3 Virge und die Performance einer 4870X2 CF hat, wäre mir das nur recht.
    PS: Leider sind Leistungsschübe, wie sie mal zu nVidias TNT/GeForce(2)-Zeiten üblich waren, nicht mehr drin.
  • Anonymous , 18. Dezember 2008 18:49
    Weiß jemand ob man mit dieser Karte auch CUDA rechnen kann?
  • Anonymous , 18. Dezember 2008 19:10
    @fruechtetee
    Du bist lustig, wenns se schon ma dabei sind können se auch gleich auf 22nm oder 10nm usw. umstellen. Rofl

    Wie stellst du dir das vor? Sowas macht man nicht mal eben so.
  • Diesel_im_Blut , 18. Dezember 2008 19:23
    @Jolly91

    Zum Stromverbrauch steht im Text auch etwas, dass Nvidia diesen nocht nicht veröffentlicht sehen möchte. Daher wurden nur Andeutungen gemacht. Ich hätte in dem Diagramm auch gerne den Stromvarbrauch der Karte gesehen.

    Die Karte wird ordentlich Leistung haben. Bin gespannt wann ATI wieder nachzieht. Nur Leisten werden sich die wenigsten so eine Karte. Kostet ja doch einiges. Aktuell würde meine Wahl auf eine GTX 260 fallen.
  • Anonymous , 18. Dezember 2008 19:46
    Kommt es mir nur so vor oder ist der Bericht sehr stark Nvidia-pro geschrieben? Sorry, aber nur immer die Stärken der Karte zu betonen fällt schon heftig auf.

    Und der Verweis das die Lüftersteuerung noch nicht endgültig ist mag ja schön und gut sein und läßt den Rückschluß zu das eine Geräuschkulisse eines Baumarktstaubsaugers erreicht wird. :-)

    Den Preis von 360 € glaube ich erst wenn ich ihn sehe. Die Karte würde eine 280 GTX mit zur Zeit 330 € überflüssig machen und zeigt das die 280 GTX mit 230 € gnadenlos überteuert an den Mann gebracht wird.

    Apropos einseitge Berichterstattung. Objektiver hätte es gewirkt wenn man erwähnt hätte das ATI nicht neue Varianten bringen wird sonder auf der Preisebene kontern will. Aber das wäre ja ein Punkt für AMD gewesen und sowas vergibt man bei Tom's nicht so gern ;-)

    Die mikrige Auswahl an Benchmarks und die flache Begründung ist auch eher traurig.

    So ganz allein stehe ich mit der Meinung wohl nicht. Ich empfehle mal einen Link und ein bißchen im Forum zum Thema zu lesen:
    http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1229509973

    Sorry, aber irgendwie hat mir Toms Hardware früher besser gefallen.
  • avaka , 18. Dezember 2008 20:05
    Die ergraute 9800GX2 war ja schon laut aber ich denke diese Karte wird wohl noch ne Schippe draufsetzen. 55nm hin oder her, in Summe wird die Karte wohl ne Ecke mehr Strom brauchen und der Kühler scheint ja nun doch weitgehend der gleiche zu sein. Vielleicht passen ja die Wasserkühler von der alten drauf. Wenn ja könnte es bei ebay ein paar gut Schnäppchen geben.
    Bitte Nvidia, trau dich und bau ne Tripleslotkarte mit nem vernüftigen Radialgebläse, was auch Luft ansaugen darf und nicht nur in Scheiben schneiden wie jetzt. Mit so nem Vieh im Rechner kann man den Verlust eiens weiteren Slots ja wohl verschmerzen, wenn die Ohren dran bleiben.
  • Jolly91 , 18. Dezember 2008 20:24
    @ Diesel-im-Blut:

    Zum Stromverbrauch steht im Text auch etwas, dass Nvidia diesen nocht nicht veröffentlicht sehen möchte.

    Das sagt meiner meinung nach schon viel. klar wollen die den Verbrauch nicht veröffentlicht sehen, weil er warscheinlich auch so hoch ist.

    Werweiß, wenn das Verhältnis von Leitung/Verbrauch stimmt, ist es ja nicht so tragisch.
  • 3D Mann , 18. Dezember 2008 20:24
    Zitat :
    Kommt es mir nur so vor oder ist der Bericht sehr stark Nvidia-pro geschrieben? Sorry, aber nur immer die Stärken der Karte zu betonen fällt schon heftig auf.


    Diesen Absatz sehe ich nicht Pro Nvidia, er nennt deutliche Schwächen im Konzept:

    kam die mangelnde Aufmerksamkeit für PhysX von Seiten der Tester zur Sprache, da auf der Titel-Liste des Unternehmens die Top-Spiele fehlten. Auch CUDA war nur kurz behandelt worden, da es, mit Ausnahme von Badaboom, nicht genug Anwendungen für den Verkauf einer auf dieser Technik basierenden Grafikkarte gibt


    Zur Frage ob die Karte CUDA kann, alle neuen Nvidia-Karten unterstützen es.

    Der Stromverbrauch wird zwischen 9800 GTX+ SLI und GTX 260 SLI liegen.
  • XETH , 18. Dezember 2008 21:22
    "Sorry nVidia: Man stellt auf eine kleinere Struktur um, und dann nicht gleich auf 32/45nm?

    Versteh ich nicht!"

    schonmal daran gedacht dass TSMC vielleicht gerade nichts kleineres für gpus anbietet?
  • miagi1 , 18. Dezember 2008 23:04
    fruechteteeSorry nVidia: Man stellt auf eine kleinere Struktur um, und dann nicht gleich auf 32/45nm?Versteh ich nicht!


    oha du hast echt keine ahnung!
    man kann eine maske im hinlick auf die strucktur nicht einfach verkleinern. Die Aufloesung von licht ist begrenzt, und die derzeitigen masken bzw. fertigungsgroessen unterschreiten bereits die aufleosung der verwendeten wellenlaenge des lichtes.
    Damit das ganze doch klatt sind tricks noetig. Eine Belichtungsmaske in z.B. 45nm sieht anders aus als die struktur die sie erzeugt. Ich sag nur so viel es ist echt kompliziert sowas hinzukriegen und fuer einen ganzen chip nimmt sich intel ein jahr!

    eventuell unterschreitet man sogar eine grenze bei der diese tricks nicht funktionieren und muss ein gaenzlich neues belichtungsverfahren entwickeln. Siehe TSMC das wurde aber bereits angesprochen.

    wenn man keine ahnung hat ist die welt so einfach!


    @topic
    schoener bericht die vorletzte seite fand ich nicht unwichtig, gut das die dabei war.
  • apocalypsecow , 18. Dezember 2008 23:05
    @3D Mann: Nicht Pro "Hersteller" bedeutet nicht, dass jemand sein Hemd nicht zugeknöpft hat und das extra erwähnt wird. Ob CUDA oder Bill Gates Frisur nur kurz erwähnt wurden, hat ja erstmal nicht mit den "positiven" Test-Ergebnissen zu tun, oder irre ich mich da?

    Komischerweise steht es bei fast allen anderen Seiten GENAU ANDERS herum, die Tests fallen bis auf Crysis (was sonst) alle Pro-4870X2 aus! vor allem mit hoher Auflösung/Kantenglättung.
    Dies wird vor allem der wesentlich besseren Speicheranbindung zugesprochen.
    Hier sieht das ja fast so aus, als ob die 4870X2 total mies wäre und so gerade mit einer 260er konkurrieren könnte..... ,-)

    Auf einigen der Seiten wird sogar deutlich erwähnt, wenn man mal vom Verbrauch absieht, dass 2x280GTX OC Modelle billiger sind und vor allem ein wenig schneller.
    Der Endpreis von 370 Euro sehe ich mal noch nicht als verifiziert an.
    Immerhin ist der Listenpreis 499 Dollar und wie man weiss, war das zu mindest in der Startphase immer so gut wie 1:1.

    Warten wir also ab und lesen besser nochmal in anderen Quellen nach ,-)
  • Anonymous , 19. Dezember 2008 04:10
    Es war nicht Nvidias Problem nicht das schnellste Geschoss im Stall zu haben, sondern eins mit nicht so berauschendem Preisleistungsverhältnis. Der 280er Chip ist top, halt nur viel zu teuer in der Fertigung gewesen (und zu energiehungrig). AMD hat da für das Gros der Leute mit 1680*1050er-TFT das effizientere Produkt gehabt, soviel finanziell als auch energetisch betrachtet.
    Der GTX295 kuriert die Sache nur bedingt. Noch mehr Leistung kann das Problem offenbar nicht lösen, höchstens mildern. Benutzer eben erwähnter Auflösung werden Produkte, die ihre Leistungsfähigkeit erst bei der Auflösung 2560*1600 voll entfalten nur als bedingt nützlich betrachten. "GTX295 ist ja schön und gut - aber komme ich nicht für weniger Kohle zum gleichen Spielspass!?" ist die Denke vieler Normalkonsumenten.
    Ich vermute, daß NVidia mit einem Chip der Leistungsklasse "260", dafür konsequent auf Energieeffizienz und vor allem auf geringe Herstellungskosten(!!!) optimiert eine bessere Cashcow gewesen wäre.
  • 3D Mann , 19. Dezember 2008 04:18
    Na das klingt doch schon besser apocalypsecow, mit deinen Testvergleichen kann man die Aussage von Feris jetzt wenigstens nachvollziehen :) 

    Das war schon immer die Problematik, wenn man den Testaufwand niedrig hält, kann man 0xAA, 4xAA abfangen, wobei die 8xAA-Durchläufe dann fehlen, in denen ATI fast immer besser abschneidet.

    Allerdings muss man auch umgekehrt klarstellen, das ATI bei allen anderen Testseiten nur dadurch profitiert, weil die Kantenglättung extrem hochgezogen wird.

    Zum Ausgleich muss man dazu erwähnen, solange die Framerate es hergibt, finde ich einen sehr hohen AA-Modus gut, da die dicken Karten es können. Ob man sein Geld in bessere Sachen investieren kann, als es in extremes AA zu stecken, bin ich mir jedenfalls sicher. Da muss ich Tja komplett zustimmen, eine leise GTX 260/280 auf 55 nm Basis wäre sinnvoller, solange man bis 1920x1200 Pixel momentan superflüssig spielen kann.

    Schwachsinn finde ich hingegen die Tests, die von 22 fps (4xAA) auf 12 fps (8xAA) hochgezogen werden, nur um einen Prozentunterschied zwischen den Karten zu erzeugen, obwohl die Frameraten dann in unspielbare Bereiche absacken. Hauptsache man kann dann von 3 fps auf 12 fps von 4facher Geschwindigkeit oder 300 Prozent Leistungszuwachs reden.

    Den Preis sehe ich auch so, mal abwarten wie er tatsächlich ist, wobei 2x GTX 260 um die 460 Euro kosten und davon mindestens 40 Euro für Weihnachten aufgeschlagen wurden. Nach dem tatsächlichen Preisverfall, sollte so ein 260-SLI-Gespann eigentlich bei 400 Euro liegen. Für eine GTX 295 (GTX 260 GX2 :D  ) könnten dann ~370-400 Euro sogar realistisch werden.

    ATI-Fans sollten sich darüber freuen, die X2 wird dadurch weiter im Preis sinken <400 Euro, was die HD 4870 unter 200 drücken wird, wodurch Nvidia bei der GTX 260 ebenfalls nachziehen muss. Dadurch wird die GTX 280 weiter unter Druck gesetzt und endlich billiger oder langsam vom Markt verschwinden.
  • Anonymous , 19. Dezember 2008 08:09
    Mich würden Benchmarks mit überlichen Auflösungen von 1600x1060 interessieren. 2500x1600 ist mehr oder weniger hirnrissig weil fast niemand ein solches Display besitzt.
  • hrahn , 19. Dezember 2008 08:40
    Der GTX280 wirds wohl wie der 8800Ultra ergehen, über kurz oder lang spielt sie keine Bedeutung mehr da zwar leistungsstark, aber eben zu teuer für das Gebotene.
    Mir reicht meine vor ein paar Monaten für 170 Euro gekaufte 9800GX2 noch eine ganze Weile, daher kann ich mir das ganze Tamtam entspannt ansehen, bis die Karten wieder bezahlbare Regionen erreicht haben.
    Was allerdings den Preis angeht: Nvidia hat einen gewissen Ruf, Doppelkarten zunächst teurer anzubieten als die Einzelkarten mit denselben Chips. Denke, dass das auch hier so wird und entweder die GTX260 vorher massiv im Preis sinkt oder THG einfach mit der Preisvorstellung grob falsch liegt. Jede andere Quelle geht von deutlich über 450€ pro Karte als Endkundenpreis aus, selbst wenn die 370 aus dem Text ohne Märchensteuer gerechnet wären käme man nur knapp an diese Grenze.

    @3DMann: Seit ich entsprechende Karten nutze (seit der 8800GTX) vermeide ich wo es geht niedrige FSAA-Settings. Lieber opfere ich ein paar fps (alles über 25 reicht mir) und hab dafür 8xFSAA - selbst in 1600x1200 macht das noch einen Unterschied. Ja, ich bin inzwischen verwöhnt, hab ja auch am VC20 angefangen zu spielen - aber wenn die Technik es hergibt, dann soll sie es auch leisten.
  • Gudi , 19. Dezember 2008 08:45
    2beornot.
    Genau das ist doch das "Problem" der Karten.
    In der Standard-22"-Auflösung sind die Karten schlicht überflüssig. Man braucht sie einfach nicht, weil HD4850/9800GTX+ bzw. HD4870/GTX260 völlig ausreichend sind.

    Ich finde die News über die passive HD4670 deutlich interessanter/wichtiger als den Test dieser Karte (genau wie der HD4870X2). Wenn sich die Leute vorher etwas besser informieren würden, könnten sie viel Geld sparen. Ich habs nicht mehr wortwörtlich im Kopf, aber beim Test der HD4870X2 hat 3D-Mann schon herausgestellt, dass die Karte ihr Potential erst ab einem 30"-Monitor entfaltet, bzw. sich ihr Einsatz erst da wirklich lohnt, weil es darunter günstigere Karten genauso können.
Alle Kommentare anzeigen