Anmelden mit
Registrieren | Anmelden

Nummer 47 lebt! Hitman Absolution mit 35 Grafikkarten im Benchmarktest

Nummer 47 lebt! Hitman Absolution mit 35 Grafikkarten im Benchmarktest
Von

Die neue Grafik-Referenz ist Hitman: Absolution zwar nicht gerade, aber zumindest grafikkartenmordend genug, um einmal einen tieferen Griff in unsere Lagerbestände zu wagen. Am Ende waren es insgesamt 35 Grafikkarten der letzten zwei Generationen.

Tortur mit Zahlen statt vieler Worte

Wie nennt man insgesamt 415 Benchmarkdurchläufe auf einen Streich? Selbstauferlegter Stresstest mit dem Hang zum Masochismus. Bis auf die GTX 560 448 Core habe ich für diesen Test alles aufgeboten, was das Archiv noch an funktionierenden Grafikkarten hergab. Nun könnte man sich eingangs ja auch erst einmal über das Spiel selbst trefflich auslassen, aber ich will den Fokus dann doch eher auf die Benchmarks legen. Einerseits würde meine Meinung wiederum sehr subjektiv ausfallen und andererseits ist bereits wirklich genügend zum Spiel geschrieben worden -  also lieber wieder zurück zu den Grafikkarten. Da mich oft genug Anfragen erreicht haben, ob man nicht auch werksübertaktete Karten mit einbeziehen könnte, will ich diesem Wunsch diesmal gern folgen.

Immer am Drücker: Nummer 47Immer am Drücker: Nummer 47

Was man auch woanders hätte lesen können...

Da hätten wir wieder unsere Nummer 47 mit obligatorischem schwarzen Anzug, roter Krawatte, dem silbernen Aktenkoffer und der altbekannten Glatze samt eintätowiertem Barcode am Hinterkopf. Was aber nicht alles ist, denn er nimmt es diesmal in einer recht ordentlich gestrickten und zusammenhängenden Story auch noch sehr persönlich. Die erwähnte Handlung ist ein gut zusammengeleimter Rahmen, der die verschiedensten Schauplätze plausibel miteinander verbindet. Die Atmosphäre ist wie immer erste Klasse, auch wenn manchmal der eine oder andere Effekt des Guten etwas zu viel ist. Trotzdem passen Stimmung, Grafik und vor allem auch die gelungene Musik ordentlich zusammen und ergeben ein recht rund wirkendes Produkt. Vom Aspekt des Spielers her, der solche Art Unterhaltung gern konsumiert, kann man mit dem Spiel fast nichts falsch machen.

Was steht auf unserer Speisekarte?

Uns interessiert jedoch diesmal mehr die Ausgabe des Spielerlebnisses am Bildschirm. Mit der Glacier-2-Engine schöpft man ja nicht nur bei der Multisample-Kantenglättung (MSAA) aus dem Vollen, sondern setzt bei der globalen Beleuchtung auf Light Propagation Volumes und tobt sich bei der Tiefenunschärfe stellenweise schon etwas zu übermütig aus. Tessellation ist natürlich ebenfalls ein Thema, zumal auch die Charaktere stark (und sichtbar) von dieser Technik profitieren. Mit von der Partie sind noch SSAO (Screen-Space Ambient Occlusion) und schmucke Echtzeit-Reflexionen. Shader-basiertes FXAA kann ebenfalls angewählt werden, sieht aber wie immer in der Bewegung etwas matschig aus, spart dafür aber etwas Ressourcen bei schwächeren Karten. Dreht man mutwillig (oder sehr optimistisch) alles auf Maximum, dann stoßen selbst aktuelle High-End-Grafikkarten schnell an ihre Grenzen. Lässt man es bei einigen Settings hingegen etwas gemächlicher angehen, limitiert bei den schnellsten Karten bereits die CPU merklich. Wie soll man diesen großen Grafik-Klops nun möglichst magenschonend verspeisen? Ich habe mich zwar nicht daran verschluckt, will aber auf der nächsten Seite dann doch noch ein paar nötige Worte zum Benchmark und dem Testsystem verlieren.

Alle 24 Kommentare anzeigen.
Sortieren nach: Neueste zuerst | Älteste zuerst
  • 7664stefan , 23. November 2012 08:50
    Bäh, das ist ja Wasser auf die Mühlen der Dual-GPU-Besitzer mit einem Preis um die 1000 Euro. :D 
    Die Graphik sieht vielversprechend aus.
  • FormatC , 23. November 2012 10:38
    Naja, geht schon :) 
  • saulus , 23. November 2012 13:02
    Erstaunlich wie schnell meine alte GTX480 doch so ist. Liegt im Bereich zwischen GTX570 und GTX670.
    Auch nett ist die recht gleichmäßige Auslastung der CPU Kerne, sieht man jetzt nicht so oft.
  • saulus , 23. November 2012 13:06
    Oh und wie ich sehe gab es noch einen i7 mit 4,5Ghz, meine GTX480 musste sich mit einem i7 870 mit 2,9Ghz zufrieden geben.
  • FormatC , 23. November 2012 13:27
    Das Spiel skaliert etwas bescheiden mit dem Takt und mehr als 3 Kerne werden auch nicht so recht ausgelastet. Das Einzige, was mich an den älteren Fermi-Karten stört, ist der Einbruch der Minframerate im Ultra-bereich mit MSAA.
  • saulus , 23. November 2012 13:41
    Ja die mini FPS waren bei der 570m die durchschnittlichen bei der 670.

    Bei mir laufen alle 4 Kerne gleichmäßig bei 70-90%. Also nichts mit nur 3.
  • FormatC , 23. November 2012 14:19
    Dann ist Deine CPU eh am Limit, bei mir läuft nämlich kein Kern über 80%. Das Problem ist, dass die Glacier-2-Engine nun mal nicht skaliert (was bekannt ist) und auch kein HT kann. Das habe aber nicht nur ich festgestellt, CB hatte das Problem genauso. Du darfst auch nicht einfach so die Auslastung der Kerne messen, sondern nur die Threads, die zum Spiel gehören und deren Zuordnung zu den Kernen samt kumulierter Last. Nur mal eben Perfmon starten ist sinnlos und sagt garnichts.
  • saulus , 23. November 2012 14:29
    Ist alles absolut uninteressant. Ich habe einen Rechner auf dem das Spiel läuft, und wenn alle 4 Kerne gleichmäßig ausgelastet sind ist das super, wenn welche nichts zu tun haben nicht so super. Mehr interessiert mich als Anwender absolut überhaupt nicht. Bei vielen Spielen haben 1-2 Kerne wirklich nichts zu tun und machen fast nichts, das ist hier nicht der Fall. Somit für mich ein optimales Bild.

    Und da meine alte 480 auch recht gute Leistung bringt mag es sein das die CPU teilweise am Limit ist, aber die GPU könnte wohl eh nicht mehr leisten. Also ist das System offensichtlich wohl sehr stimmig.

    Gibt es überhaupt Engines die mit HT umgehen können? Ich habe HT seit Anfang an aus.
  • FormatC , 23. November 2012 14:44
    Zitat :
    Gibt es überhaupt Engines die mit HT umgehen können?
    Einge. Assassins Creed III kann das aktuell auch ganz gut.
  • Brat , 24. November 2012 01:26
    komisch das ne gtx 580> gtx 670 ist, das kann ich mir nur schwer vorstellen, auch seid ihr die erste seite auf der die amd karten nicht total untergehen
  • crogge , 24. November 2012 04:03
    Läuft mit 40-45 FPS~ in Full HD auf einem ASUS G73 notebook von März 2010~ (i7-720QM, 8GB DDR3-1333 RAM, Radeon 5870 - 1GB DDR5). Grafikeinstellungen auf Medium, Texturen auf Hoch, Tessolation abgeschaltet.
  • FormatC , 24. November 2012 05:50
    Zitat :
    komisch das ne gtx 580> gtx 670 ist, das kann ich mir nur schwer vorstellen, auch seid ihr die erste seite auf der die amd karten nicht total untergehen
    Da verwechselst Du Hitman mit Assassins Creed :) 

    Bei PCGH haben die Nvidia-Karten sogar noch schlechtere Karten. Die GTX 580 hat im Vergleich zur GTX 670 eine bessere Computing-Performance, was wiederum beweist, dass die GTX6xx eigentlich elende GPGPU-Krüppel sind. DoF runter, dann klappts auch mit der GTX 670. :) 

  • m3cti , 25. November 2012 13:15
    Warum testet THG eigentlich keine mobilen Grafikchips? Es gibt auf der Seite keine einzige Komplett-Liste in den Charts, mit der man sich vor einem potentiellen Kauf eines Notebooks hinsichtlich der Spielefähigkeit orientieren kann. Da im (stagnierenden) Markt mit PCs die Laptop-Verkäufe die von Desktops deutlich übersteigen, finde ich das schon recht ignorant. Klar ist es aufwändiger, da man ja im Vergleich nicht einfach die Grafikkarten im Testsystem auswechseln kann, sondern i.d.R. komplett neue NBs braucht, aber wer den Anspruch hat, den Lesern gewisse Leitfäden an die Hand zu geben, sollte davor eigentlich nicht zurück schrecken ;) 
  • FormatC , 25. November 2012 13:54
    Wer zockt eigentlich freiwillig auf einem Notebook? Bis auf wenige potente Chips kann man die komplette Notebookgrafik leider in der Pfeife rauchen. Solange man keine Plattform findet, bei der man nur die Grafikmodule austauschen braucht, ist das auch nicht wirklich vergleichbar, denn auch CPU, Mainboard und RAM beeinflussen die Ergebnisse erheblich. Wir hatten so etwas bereits schon einmal angedacht, mussten es aber auf Grund des Desinteresses der Hersteller wieder aufgeben. Kaum ein Notebook-Hersteller ist interessiert, dass die Kunden mit den Gurken auch zocken. Die paar Gamer-Notebooks sind leider nicht repräsentativ und eine extreme Nische.

    Dass der PC-Markt vor sich hin dümpelt, liegt auch an den stagnierenden Leistungssteigerungen. Hardware von 2010 ist durchaus noch bestens dabei und man muss kaum noch so oft nachrüsten wie früher. Die für den mobilen Einsatz gekauften Teile haben noch nie zum Zocken gedient. Ich besitze selbst Notebook, Tabletts und einige Smartphones - aber Zocken würde ich mit diesen Teilen nie im Leben.
  • saulus , 25. November 2012 22:13
    Schade das die Hersteller das ganze so aus bremsen. Ganz uninteressant ist das Thema nämlich wirklich nicht.

    Ich spiele gelegentlich am Schleppi, der wird per HDMI an die Glotze gestöpselt und der Rest Kabellos vom Sofa aus. Xbox360 hatte ich, aber Konsole ist einfach nichts anständiges. PC ist zum Zocken einfach besser.

    Gibt aber eine Seite die Mobile Grafik grob vergleicht und in Leistungsklassen sortiert. Reicht zur Entscheidungsfindung aus.
  • FormatC , 25. November 2012 23:25
    Richtig. Nur fur objektive Charts reicht es eben nicht. Wir wollten das mit einem ganz speziellen Notebook und wechselbaren Karten tun (gibt es ja), aber die Anbieter haben einen Rückzieher gemacht und ohne diese Karten und eine einheitliche Basisplattform ist das reichlich witz- und sinnlos.
  • Patman 1 , 27. November 2012 17:45
    Kann mir hier einer mal weiterhelfen?

    Zitat:
    "....ganz bescheiden nur auf der FXAA-Matschwelle, ......, da die CPU zu limitieren beginnt....."

    Warum beginnt bei zu niedrigen Einstellungen der GrKa die CPU eher zu limitieren als bei hohen?

    Ich hab mich länger nicht mit diesem Thema beschäftigt. Aber in der Vergangenheit musste die CPU auch immer die Datenmengen der GPU "wegschaffen".
    Wenn also bereits mit niedrigen Einstellungen die CPU die Datenmenge die die GPU bereitstellt nicht mehr verarbeiten kann, warum soll das bei hohen Einstellungen besser werden?
    Greets



  • FormatC , 27. November 2012 20:54
    Ganz einfach:
    Wir haben zwei Arbeiter. Einer muss Kartons falten (CPU, 12 Handgriffe), der zweite (Grafikkarte) verpackt darin Kerzen. Sind es große Kartons (große Grafiklast für die GPU) mit je 100 Kerzen, dann kann es der Kartonfalter ruhig angehen lassen und warten, bis der andere die 100 Stück einsortiert hat. Sind es aber nur kleine Kartons mit jeweils 5 Kerzen ist der Zeit- und Arbeitsaufwand für den Faltkollegen Nummer 1 immer noch fast der gleiche. Nur dass nun der zweite Arbeiter, also der Sortierer, eher fertig ist. Das Limit ist nun also der Kartonagen-Heini und nicht mehr der Kerzeneinleger.

    Die CPU liefert die Daten für die Grafikkarte, nicht umgekehrt.

    :) 
  • Patman 1 , 27. November 2012 21:14
    Zitat :
    Ganz einfach:
    Wir haben zwei Arbeiter. Einer muss Kartons falten (CPU, 12 Handgriffe), der zweite (Grafikkarte) verpackt darin Kerzen. Sind es große Kartons (große Grafiklast für die GPU) mit je 100 Kerzen, dann kann es der Kartonfalter ruhig angehen lassen und warten, bis der andere die 100 Stück einsortiert hat. Sind es aber nur kleine Kartons mit jeweils 5 Kerzen ist der Zeit- und Arbeitsaufwand für den Faltkollegen Nummer 1 immer noch fast der gleiche. Nur dass nun der zweite Arbeiter, also der Sortierer, eher fertig ist. Das Limit ist nun also der Kartonagen-Heini und nicht mehr der Kerzeneinleger.

    Die CPU liefert die Daten für die Grafikkarte, nicht umgekehrt.

    :) 


    Ahhhhhh. Ein Licht geht auf. ;) 
    Ich verstehe.


  • DaPete89 , 28. Dezember 2012 19:18
    Also ich hab 2 HD6950 mit nem x6 1090@3,8ghz verbaut....komme bei Ultrasettings auf ~29FPS....heißt das jetzt das die HD7970 schneller is als 2 Karten im CF oder is mein AMD ne Spaßbremse(Flaschenhals). Ausgelastet werden lt. Taskmanager alle 6 Kerne.
Alle Kommentare anzeigen
Ihre Reaktion auf diesen Artikel