Anmelden mit
Registrieren | Anmelden

Testsystem und Benchmark

Nummer 47 lebt! Hitman Absolution mit 35 Grafikkarten im Benchmarktest
Von

Integrierter Benchmark oder doch lieber was Selbstgestricktes?

Als Erstes stellt sich natürlich die Frage nach dem verwendeten Benchmark. Ich habe lange an und mit mehreren Savegames herumexperimentiert, da mich der integrierte Benchmark am Anfang eher irritiert als begeistert hat. Zwar fährt man dort grandios auf, was die Glacier2-Küche so alles zu bieten hat, leider schwanken aber auch die Ergebnisse von Durchlauf zu Durchlauf ein wenig. Also doch besser eine eigene Benchmark-Szene verwenden? Nach dem protokollierten Durchspielen verschiedener Level zeigte sich dann ein durchaus interessantes Bild. In Massenszenen mit viel jubelndem Fußvolk (wie im integrierten Benchmark auch), fängt bei zu moderaten Settings bereits die CPU an zu limitieren (und nicht nur da), wenn man echte High-End-Karten nutzt. Der Grund an sich ist ziemlich simpel - das Spiel kann mit mehr als 3 Kernen nicht mehr viel anfangen, und wenn man dann noch SMT aktiviert, büßt man sogar noch Perfomance ein. Hyper-Threading ist also nicht die Stärke der Glacier2-Enginge, leider. Kommt die KI übermäßig ins Spiel, ist die Limitierung bei echten High-End-Karten fast schon vorprogrammiert, und insgesamt 5 Karten dümpeln dann bei ca. 70 fps gemütlich und gemeinsam in der windgeschützten Bucht so vor sich hin.

Man kann sich auch zu Tode tessellieren....Man kann sich auch zu Tode tessellieren....

Andererseits hat man im geschlossenen Gebäude kaum Grafik- und CPU-Last, so dass die Frameraten dann im Verhältnis viel zu hoch ausfallen könnten. Eine Kombination aus insgesamt 3 verschiedenen Kontrollpunkten ergab dann ein aus meiner Sicht doch recht stimmiges Ergebnis. Erschreckenderweise stimmten diese Werte dann näherungsweise wieder mit denen des integrierten Benchmarks überein. Um diesen Marathon am Ende überhaupt zu ermöglichen, habe ich somit doch wieder auf den integrierten Benchmark zurück gegriffen, allerdings die Streuungen minimiert, indem ich die ersten 2 Durchläufe nach dem Wechsel einer Karte samt Neustart nicht gewertet habe. Danach wurden pro Karte in insgesamt 3 Settings auch jeweils 3 Durchläufe absolviert, die Ergebnisse kumuliert und durch 3 geteilt. Wichtig auch, dass bei der Installation auf einer SSD die Schwankungen von Haus aus geringer ausfallen.

Diese Entscheidung habe ich auch im Hinblick auf die nötige Transparenz getroffen, denn die Werte sind damit für jeden nachvollzieh- und reproduzierbar und reflektieren sehr gut ein mögliches Worst-Case-Szenario, das in dieser Form stellenweise durchaus auftreten kann. Viel Spaß also beim Mittesten!

Leute, Leute. Tessellation. Bokeh und jede Menge Partikel.Leute, Leute. Tessellation. Bokeh und jede Menge Partikel.

Testsystem
CPU
Intel Core i7-3770K @4,5 GHz (SMT aus)
Mainboard
Gigabyte Z77 Sniper 3 G1 Killer
Speicher
4 x 8 GB Corsair Dominator Platinum
CPU-Kühler
Corsair H100i
2x Noiseblocker eLoop B12-PS (PWM)
SSD
Corsair Neutron GTX 480 GB
Netzteil
Corsair AX 1200i
         Betriebssystem         Windows 7 x64 Ultimate
Grafikkarten
Referenzkarten von AMD und Nvidia
Werksübertaktete AMD-Karten: HIS
Werksübertaktete Nvidia-Karten: Gigabyte / Sparkle (GTX 650)
(es wurden keine Karten oder Taktraten emuliert)
      Treiber      Catalyst 12.11 (Beta8)
GeForce 310.61 (Beta)

  

Diesmal ist es ausnahmsweise nicht Nvidia, sondern AMD, welches die Spielentwicklung unterstützt hat, was man am neuen Startlogo recht deutlich erkennt. Deswegen sollten uns auch die Benchmarkergebnisse nicht verwundern, denn die AMD-Karten schneiden im Gesamtbild nicht nur nicht schlecht, sondern sogar recht dominant ab. Diesmal ist es also umgekehrt zu Battlefield 3, und das Spiel von Hase und Igel scheint sich umzukehren. Doch dazu auch den folgenden Seiten mehr.

Kommentar abgeben
Experten im Forum befragen
Ihre Reaktion auf diesen Artikel

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 24 Kommentare anzeigen.
Sortieren nach: Neueste zuerst | Älteste zuerst
  • 7664stefan , 23. November 2012 08:50
    Bäh, das ist ja Wasser auf die Mühlen der Dual-GPU-Besitzer mit einem Preis um die 1000 Euro. :D 
    Die Graphik sieht vielversprechend aus.
  • FormatC , 23. November 2012 10:38
    Naja, geht schon :) 
  • saulus , 23. November 2012 13:02
    Erstaunlich wie schnell meine alte GTX480 doch so ist. Liegt im Bereich zwischen GTX570 und GTX670.
    Auch nett ist die recht gleichmäßige Auslastung der CPU Kerne, sieht man jetzt nicht so oft.
  • saulus , 23. November 2012 13:06
    Oh und wie ich sehe gab es noch einen i7 mit 4,5Ghz, meine GTX480 musste sich mit einem i7 870 mit 2,9Ghz zufrieden geben.
  • FormatC , 23. November 2012 13:27
    Das Spiel skaliert etwas bescheiden mit dem Takt und mehr als 3 Kerne werden auch nicht so recht ausgelastet. Das Einzige, was mich an den älteren Fermi-Karten stört, ist der Einbruch der Minframerate im Ultra-bereich mit MSAA.
  • saulus , 23. November 2012 13:41
    Ja die mini FPS waren bei der 570m die durchschnittlichen bei der 670.

    Bei mir laufen alle 4 Kerne gleichmäßig bei 70-90%. Also nichts mit nur 3.
  • FormatC , 23. November 2012 14:19
    Dann ist Deine CPU eh am Limit, bei mir läuft nämlich kein Kern über 80%. Das Problem ist, dass die Glacier-2-Engine nun mal nicht skaliert (was bekannt ist) und auch kein HT kann. Das habe aber nicht nur ich festgestellt, CB hatte das Problem genauso. Du darfst auch nicht einfach so die Auslastung der Kerne messen, sondern nur die Threads, die zum Spiel gehören und deren Zuordnung zu den Kernen samt kumulierter Last. Nur mal eben Perfmon starten ist sinnlos und sagt garnichts.
  • saulus , 23. November 2012 14:29
    Ist alles absolut uninteressant. Ich habe einen Rechner auf dem das Spiel läuft, und wenn alle 4 Kerne gleichmäßig ausgelastet sind ist das super, wenn welche nichts zu tun haben nicht so super. Mehr interessiert mich als Anwender absolut überhaupt nicht. Bei vielen Spielen haben 1-2 Kerne wirklich nichts zu tun und machen fast nichts, das ist hier nicht der Fall. Somit für mich ein optimales Bild.

    Und da meine alte 480 auch recht gute Leistung bringt mag es sein das die CPU teilweise am Limit ist, aber die GPU könnte wohl eh nicht mehr leisten. Also ist das System offensichtlich wohl sehr stimmig.

    Gibt es überhaupt Engines die mit HT umgehen können? Ich habe HT seit Anfang an aus.
  • FormatC , 23. November 2012 14:44
    Zitat :
    Gibt es überhaupt Engines die mit HT umgehen können?
    Einge. Assassins Creed III kann das aktuell auch ganz gut.
  • Brat , 24. November 2012 01:26
    komisch das ne gtx 580> gtx 670 ist, das kann ich mir nur schwer vorstellen, auch seid ihr die erste seite auf der die amd karten nicht total untergehen
  • crogge , 24. November 2012 04:03
    Läuft mit 40-45 FPS~ in Full HD auf einem ASUS G73 notebook von März 2010~ (i7-720QM, 8GB DDR3-1333 RAM, Radeon 5870 - 1GB DDR5). Grafikeinstellungen auf Medium, Texturen auf Hoch, Tessolation abgeschaltet.
  • FormatC , 24. November 2012 05:50
    Zitat :
    komisch das ne gtx 580> gtx 670 ist, das kann ich mir nur schwer vorstellen, auch seid ihr die erste seite auf der die amd karten nicht total untergehen
    Da verwechselst Du Hitman mit Assassins Creed :) 

    Bei PCGH haben die Nvidia-Karten sogar noch schlechtere Karten. Die GTX 580 hat im Vergleich zur GTX 670 eine bessere Computing-Performance, was wiederum beweist, dass die GTX6xx eigentlich elende GPGPU-Krüppel sind. DoF runter, dann klappts auch mit der GTX 670. :) 

  • m3cti , 25. November 2012 13:15
    Warum testet THG eigentlich keine mobilen Grafikchips? Es gibt auf der Seite keine einzige Komplett-Liste in den Charts, mit der man sich vor einem potentiellen Kauf eines Notebooks hinsichtlich der Spielefähigkeit orientieren kann. Da im (stagnierenden) Markt mit PCs die Laptop-Verkäufe die von Desktops deutlich übersteigen, finde ich das schon recht ignorant. Klar ist es aufwändiger, da man ja im Vergleich nicht einfach die Grafikkarten im Testsystem auswechseln kann, sondern i.d.R. komplett neue NBs braucht, aber wer den Anspruch hat, den Lesern gewisse Leitfäden an die Hand zu geben, sollte davor eigentlich nicht zurück schrecken ;) 
  • FormatC , 25. November 2012 13:54
    Wer zockt eigentlich freiwillig auf einem Notebook? Bis auf wenige potente Chips kann man die komplette Notebookgrafik leider in der Pfeife rauchen. Solange man keine Plattform findet, bei der man nur die Grafikmodule austauschen braucht, ist das auch nicht wirklich vergleichbar, denn auch CPU, Mainboard und RAM beeinflussen die Ergebnisse erheblich. Wir hatten so etwas bereits schon einmal angedacht, mussten es aber auf Grund des Desinteresses der Hersteller wieder aufgeben. Kaum ein Notebook-Hersteller ist interessiert, dass die Kunden mit den Gurken auch zocken. Die paar Gamer-Notebooks sind leider nicht repräsentativ und eine extreme Nische.

    Dass der PC-Markt vor sich hin dümpelt, liegt auch an den stagnierenden Leistungssteigerungen. Hardware von 2010 ist durchaus noch bestens dabei und man muss kaum noch so oft nachrüsten wie früher. Die für den mobilen Einsatz gekauften Teile haben noch nie zum Zocken gedient. Ich besitze selbst Notebook, Tabletts und einige Smartphones - aber Zocken würde ich mit diesen Teilen nie im Leben.
  • saulus , 25. November 2012 22:13
    Schade das die Hersteller das ganze so aus bremsen. Ganz uninteressant ist das Thema nämlich wirklich nicht.

    Ich spiele gelegentlich am Schleppi, der wird per HDMI an die Glotze gestöpselt und der Rest Kabellos vom Sofa aus. Xbox360 hatte ich, aber Konsole ist einfach nichts anständiges. PC ist zum Zocken einfach besser.

    Gibt aber eine Seite die Mobile Grafik grob vergleicht und in Leistungsklassen sortiert. Reicht zur Entscheidungsfindung aus.
  • FormatC , 25. November 2012 23:25
    Richtig. Nur fur objektive Charts reicht es eben nicht. Wir wollten das mit einem ganz speziellen Notebook und wechselbaren Karten tun (gibt es ja), aber die Anbieter haben einen Rückzieher gemacht und ohne diese Karten und eine einheitliche Basisplattform ist das reichlich witz- und sinnlos.
  • Patman 1 , 27. November 2012 17:45
    Kann mir hier einer mal weiterhelfen?

    Zitat:
    "....ganz bescheiden nur auf der FXAA-Matschwelle, ......, da die CPU zu limitieren beginnt....."

    Warum beginnt bei zu niedrigen Einstellungen der GrKa die CPU eher zu limitieren als bei hohen?

    Ich hab mich länger nicht mit diesem Thema beschäftigt. Aber in der Vergangenheit musste die CPU auch immer die Datenmengen der GPU "wegschaffen".
    Wenn also bereits mit niedrigen Einstellungen die CPU die Datenmenge die die GPU bereitstellt nicht mehr verarbeiten kann, warum soll das bei hohen Einstellungen besser werden?
    Greets



  • FormatC , 27. November 2012 20:54
    Ganz einfach:
    Wir haben zwei Arbeiter. Einer muss Kartons falten (CPU, 12 Handgriffe), der zweite (Grafikkarte) verpackt darin Kerzen. Sind es große Kartons (große Grafiklast für die GPU) mit je 100 Kerzen, dann kann es der Kartonfalter ruhig angehen lassen und warten, bis der andere die 100 Stück einsortiert hat. Sind es aber nur kleine Kartons mit jeweils 5 Kerzen ist der Zeit- und Arbeitsaufwand für den Faltkollegen Nummer 1 immer noch fast der gleiche. Nur dass nun der zweite Arbeiter, also der Sortierer, eher fertig ist. Das Limit ist nun also der Kartonagen-Heini und nicht mehr der Kerzeneinleger.

    Die CPU liefert die Daten für die Grafikkarte, nicht umgekehrt.

    :) 
  • Patman 1 , 27. November 2012 21:14
    Zitat :
    Ganz einfach:
    Wir haben zwei Arbeiter. Einer muss Kartons falten (CPU, 12 Handgriffe), der zweite (Grafikkarte) verpackt darin Kerzen. Sind es große Kartons (große Grafiklast für die GPU) mit je 100 Kerzen, dann kann es der Kartonfalter ruhig angehen lassen und warten, bis der andere die 100 Stück einsortiert hat. Sind es aber nur kleine Kartons mit jeweils 5 Kerzen ist der Zeit- und Arbeitsaufwand für den Faltkollegen Nummer 1 immer noch fast der gleiche. Nur dass nun der zweite Arbeiter, also der Sortierer, eher fertig ist. Das Limit ist nun also der Kartonagen-Heini und nicht mehr der Kerzeneinleger.

    Die CPU liefert die Daten für die Grafikkarte, nicht umgekehrt.

    :) 


    Ahhhhhh. Ein Licht geht auf. ;) 
    Ich verstehe.


  • DaPete89 , 28. Dezember 2012 19:18
    Also ich hab 2 HD6950 mit nem x6 1090@3,8ghz verbaut....komme bei Ultrasettings auf ~29FPS....heißt das jetzt das die HD7970 schneller is als 2 Karten im CF oder is mein AMD ne Spaßbremse(Flaschenhals). Ausgelastet werden lt. Taskmanager alle 6 Kerne.
Alle Kommentare anzeigen
Ihre Reaktion auf diesen Artikel