Tom Clancy's The Division: 22 Grafikkarten und sechs CPUs im Test

Eine oppulente Grafik bekommt man nicht zum Nulltarif und so verwundert es auch nicht, dass dieses Spiel Hardware verspeist wie eine alte Waschmaschine Socken. Doch was bekommt man wirklich geboten und was benötigt man, um mitspielen zu können?

Am Anfang steht das Spiel

Neue Engine, neues Glück? Um es vorab zu sagen: "The Division" sieht wirklich extrem gut (und realistisch) aus, wenn man nicht gerade mit einer Einsteiger-Karte spielt. Und genau da liegt die Crux, denn man kann von allem nie genug haben, was die Hardware betrifft. Am Ende entscheiden also die Grafikkarte UND der Prozessor, wo die optische Reise hingeht.

Ubisoft liefert somit fast schon einen neuen Benchmark-Dauerbrenner ab, wären da nicht das lästige Online-Gedöns mit den üblichen Unwägbarkeiten und der verbuggte Ingame-Benchmark. Doch dazu gleich mehr.

Die "Snowdrop"-Engine bietet extreme Weitsicht und sehr viele, für ein Online-Spiel eher untypisch feine Details, die einen den Online-Zwang einschließlich aller damit verbundenen Ärgernisse dann doch schnell wieder vergessen lassen - selbst wenn sich unserer Artikel wegen Server-Wartungsarbeiten und diverser -Ausfälle zusätzlich noch weiter verzögert hat und wir am Ende fast zwei Tage eingebüßt haben.

Je nach Hardware wird man über die Teilnahme an Nvidias Gameworks-Programm vielleicht geteilter Meinung sein, aber per Default wird man als AMD-User dadurch erst einmal keine überproportionalen Leistungseinbußen befürchten müssen. Auch der sonst fast schon obligatorische, manuelle Eingriff in Einstellungsdateien entfällt löblicherweise. Denn alles, was zusatzlich Leistung kosten könnte, kann in den Einstellungsmenüs im Spiel nachträglich an- und abgeschaltet werden.

Die optionale Umgebungsverdeckung HBAO+ bietet rein optisch gegenüber der standardmäßigen Darstellung (auf Ultra) kaum sichtbare Vorteile, kann jedoch auf leistungssstarken Nvidia-Karten unter Umständen sogar zu besserer Performance führen. AMD-Karten werden zumindest im High-End-Bereich davon nicht ausgebremst, nur bei schwächeren Karten fällt die Leistung dann doch ein wenig ab. Die beiden optionalen Schattendarstellungen (PCCS und HFTS) kosten jedoch richtig Performance, so dass sie den absoluten High-End-Kisten vorbehalten bleiben sollten.

Auswahl der Benchmark-Scene: Ingame ja, aber...

Will man das Spiel möglichst objektiv und vor allem reproduzierbar benchmarken, steht man vor zwei Problemen. Das erste Problem: Nutzt man eine eigene, möglichst fordernde Benchmark-Szene, dann ist man der dynamischen Welt hoffnungslos ausgeliefert. Ganz abgesehen vom extremen Aufwand sind trotzdem bei ein und derselben Karte Streuungen von bis zu fünf Prozent zwischen den Durchläufen möglich, was den Vergleich ähnlich starker Karten schnell ad absurdum führen kann. Um dies zu umgehen, haben die Entwickler einen Ingame-Benchmark eingebaut, der in der dargebotenen Form jedoch im Moment nicht zu gebrauchen ist - Problem Nummer 2.

Auf den ersten Blick gibt dieser eingebaute Benchmark nämlich vor allem bei High-End-Grafikkarten ganz offensichtlich unrealistisch hohe Werte aus, die schon einmal locker 20 Prozent (und mehr!) über dem liegen können, was an den kritischsten Stellen im Spiel selbst auftreten kann. Außerdem sind die ermittelten Werte kaum plausibel, wenn man Grafikkarten verschiedener Leistungsklassen und ihre sonstige Performance ins Verhältnis setzt.

Da wir keine Schnellschüsse mögen, haben wir zunächst die vom Spiel selbst geschriebene Log-Datei analysiert, die nach jedem Durchlauf exakt das repräsentiert, was auch im Spiel als Ergebnis angezeigt wird. Allerdings haben die Programmierer an dieser Stelle wohl hanebüchenen Unsinn verzapft, so dass bereits die in der Datei abgelegten Zahlen grundfalsch sind. Die nachfolgende Grafik für zwei sehr unterschiedliche Grafikkarten wird dies nun veranschaulichen:

Die beiden dünnen, schwarzen Kurven zeigen das, was das Spiel mitloggt, um es dann als Endergebnis anzuzeigen. Wir sehen, dass  für die schnellere Karte deutlich weniger Frames aufgezeichnet werden, als für die langsamere, was an sich schon bar jeder Logik ist. Während bei der GeForce GTX 980 Ti mitten im Durchlauf plötzlich Ende ist und die letzten Frames nur noch Grütze wiedergeben, hängt man bei der Radeon R9 380X noch jede Menge "Phantom-Frames" mit utopischsten Werten an.

Misst man dies nun extern mit Fraps mit, ergeben sich zwar in weiten Bereichen deckungsgleiche Kurven, jedoch auch bereits andere Ergebnisse. Um möglichst realistisch zu bleiben und auch die fordernderen Szenen mit einzubeziehen, starten wir Fraps erst vier Sekunden nach dem sichtbaren Start der Sequenz und begrenzen die Laufzeit automatisch auf 50 Sekunden.

Im direkten Vergleich zu den eigenen "Street walks", die als dynamische Szene eine sehr deutliche Streuung ergeben, steht unsere eingegrenzte Fraps-Szene gar nicht so übel da, weil die Streuung der Ergebnisse unter einem FPS liegt. Der von uns so ermittelte Durchschnitt ist dabei sehr gut reproduzierbar und dürfte wohl geschätzte 80 Prozent der Spieldauer repräsentieren, was eine mitgeloggte Stunde im Spiel unterlegte.

Die Balkengrafik zeigt noch einmal anhand der Einzelergebnisse, wo man unsere "Cut-Szene" in ungefähr einordnen kann. Sie ist in jedem Fall plausibler als das, was das Spiel selbst glaubt geloggt zu haben und vor allem im Ergebnis auch stabiler als alles, was wir mit eigenen Szenen ermitteln konnten.

Je nach Leistungsklasse halten wir uns auch an die vier vorgegeben Presets "Niedrig", "Mittel", "Hoch" und "Ultra", wobei man bei Letzterem noch nicht einmal das Ende der Fahnenstange erreicht hat, denn einige Settings lassen sich nur manuell setzen, treiben aber im Gegensatz die Performance so weit nach unten (wie bereits erwähnt), dass es zwar schöner aussieht, für die breite Masse aber einfach unrealistisch wird. Deshalb haben wir diese Optionen nicht genutzt und überlassen es dem Leser, hier eine individuelle Einstellung zu wählen.

Wir haben Ubisoft natürlich zwischenzeitlich über die aufgezeigten Probleme mit dem Ingame-Benchmark informiert und werden über eine etwaige offizielle Rückmeldung berichten.

Darüber hinaus wollten wir gleich noch aus der Not eine Tugend machen und haben fairerweise mit dem ganz neuen AMD-Treiber 16.3 getest, konnten jedoch keine echten Verbesserungen zum Hotfix-Treiber 16.2.1 feststellen.

Testsystem und -methoden

Nachfolgend wollen wir noch einmal einen kurzen Blick auf unsere Testsysteme werfen, denn wir haben für die Analyse der verschiedenen Leistungsgruppen der Grafikkarten keine synthetischen CPU-Skalierungen, sondern echte Systeme genutzt:

Gaming-Performance
Testsysteme:
Intel Core i7 5930K @4.2 GHz (MSI X99S XPower AC, 16 GB DDR4-2400)
Intel Core i5-6500 (Z170A Gaming M7, 16 GB DDR4-2400)
Intel Core i3-4160 (MSI Z97A Gaming 6, 16 GB DDR3-2133)
AMD FX-9590, AMD FX-8370 & AMD FX-6300 (MSI 970 Gaming, 16 GB DDR3-2133)
Treiber:
AMD: Radeon Software 16.3
Intel: 364.51 Game-ready

Beginnen wir nun mit den ersten Tests und werfen einen Blick auf die unterschiedlichen Unterbauten und ihre möglichen Folgen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
21 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • goch
    Doppelte "Grafik" im Einleitungssatz :-)

    Ansonsten schöner Test!
    0
  • FormatC
    Danke, ist gefixt. :)
    0
  • doofeOhren
    Vielen Dank, man vergleichen wievielen Fachkräften anderen Gamerportale das mit f
    Den Fehlern in den Datenreihen und den dadurch resultierenden falschen avg FPS sonst noch aufgefallen ist. Danke für die Arbeit, Igor und THG,
    0
  • FormatC
    Methodisches Arbeiten ist immer besser, als unbedingt der Erste sein zu müssen. ;)
    0
  • alterSack66
    Ich spiel das Spiel ja nicht aber eine von mir nicht so sehr geschätzte Seite macht die GTX 970 ziemlich gnadenlos nieder. Ich halt die Messmethoden dort für nicht so ganz nachvollziehbar. Aber die warnen vor anderen Seiten. Ist die GTX 970 wirklich so schlecht?
    0
  • FormatC
    Was heißt schlecht...

    Man muss bei der 970 die Zielgruppe im Auge behalten. Auf Full HD passiert (meist) nichts, es sei denn, man knallt sich so viele Mods ins Spiel, dass man wirklich die Speicherbarriere knackt. Dann wird es wirklich eklig. Der typische 970-Käufer wollte vor 1,5 Jahren keine überteuerte 980 und hat seit über einem Jahr sicher auch Freude an der Karte. Mit steigender Auflösung und höheren Ansprüchen fällt sie jedoch überproportional ab, was dann schon Frust erzeugen kann.

    Man kann das Ganze von zwei Seiten betrachten. Der eine warnt davor, dass konkurrierende Medien das Problem bewusst ignorieren, der andere unterstellt dem ersten übertriebene Hysterie und Profilierungssucht. Die Wahrheit liegt irgendwo in der Mitte. Man kann und darf diese Problematik nicht totschweigen und ignorieren, man muss es aber auch nicht immer und immer wieder durchkauen. Dir wird sicher aufgefallen sein, dass die 970 ab gewissen Benchmarks bei mir fehlt. Karten, die nicht laufen, lasse ich raus. Nur komme ich mir blöd vor, ein und dasselbe in jedem Artikel immer und immer wieder zu schreiben. Ich hasse sowas :D

    Es liegt aber auch daran, wie Medien generell öffentlich auftreten und welchen Richtlinien die Redakteure zu folgen haben. Viele Spiele kaufe ich mir bewusst selbst, um nicht dem Zwang von "Beleglinks" und potentiellem Liebesentzug bei Kritiken ausgesetzt zu sein. Trotzdem muss man sich auch immer der Verantwortung bewusst sein, wenn man Urteile in aller Öffentlichkeit abgibt und damit auch die Meinung der Leser beeinflussen kann. Da haben vor allem jüngere Kollegen ab und zu ein immenses Problem bei der Abschätzung der möglichen Folgen. Soziopathische Egotrips, egal von wem jetzt, bringen der Allgemeinheit nichts außer Verwirrung und einseitiger Betrachtung.
    1
  • alterSack66
    Ok, danke. Also wie gehabt für FHD ists (meistens) gut und für mehr ist die Karte nicht gedacht und gemacht. Wie man sieht helfen die 8 GB der R 9 390 bei WQHD allerdings auch nicht viel.
    0
  • FormatC
    Das ist doch genau das, was ich meinte - es relativiert sich vieles :D
    0
  • TenDance
    Dennoch sollte der geneigte Käufer bei der GTX970 im Hinterkopf behalten dass die Karte bei neuen Spielen unter Umständen bereits unter Full-HD mit MSAA/DSR Probleme bekommen könnte. Da wird auch der Preis von 300 - 350€ relativiert, da die meisten Käufer von solch einer Investition auch nächstes Jahr noch einiges erwarten. Gruselig find ich das dann bei der GTX980 (und auch den Fiji-Karten, obwohl das Speichermanagement bei der Bandbreite scheinbar mit weniger Arbeitsspeicher auskommt) wenn man sieht dass die immer noch zwischen 470 und 550€ gehandelt werden.
    0
  • Plitz
    DSR sollte kein Argument für FHD sein ... weil DSR ist NICHT FHD sondern WQHD oder sogar 4k+ ...
    0
  • klomax
    Der Witz ist, das DSR GERADE bei FullHD deutliche Verbesserungen und einen Nutzen mit sich brachte, als es damals vorgestellt wurde...mit...Sakrileg(!)...primitiven FullHD-Displays. ;)
    0
  • Plitz
    Dann soll man aber bitte nicht FHD in dem Zusammenhang erwähnen, weil es ist schlicht und einfach kein FHD mehr! Dann soll man ehrlich sein und die echte Auflösung erwähnen.
    1
  • Derfnam
    Ich halte es für unseriös, ne Karte zum Kauf zu empfehlen, die trotz deutlichen Mehrverbrauchs langsamer ist als die des anderen Herstellers. Und selbst für den Fall, dass sie - wie die R9 380 gegenüber der GTX 960 - etwas schneller ist, erachte ich die üble Leistungsineffizienz der AMD als wichtigeres Gegenargument.
    Und das zieht sich ja durch alle Leistungsklassen.

    Zudem noch ne Frage bezüglich eben der GTX 960 von Gigabyte: ist das wieder die Version mit 2 GB? Wenn ja: das sollte imo dann auch angegeben werden. Ebenso für den Fall geltend: warum die? Keine mit 4 GB auf Lager? Oder weil die anderen Tests auch mit der 2 GB-Version durchgeführt worden sind?
    0
  • sunToxx
    Gibt es einen CPU Vergleich auf low Einstellung? Da könnten die Unterschiede vielleicht deutlicher sein. Interessant für Leute die lieber mit 120 fps als mit Ultra zocken.

    Sind in den Grafiken die durchschnitts oder die minimal Werte aufgeführt? Für mich als 120 Hz Fan, ist der Durchschnittswert leider uninteressant.
    0
  • Grabonator86
    Wie würde eine R9 290 abschneiden?
    0
  • FormatC
    Je nach Model und Auflösung velleicht 5-15% weniger
    0
  • Grabonator86
    Weniger als was denn?
    0
  • FormatC
    390, was sonst ?
    0
  • sunToxx
    Könntet ihr vielleicht auch einen Guide zu den einzelnen Optionen in Division machen? Nvidia hat da schon gute Vorarbeit geleistet, aber es wäre interessant zu wissen, welche Optionen wieviel CPU brauchen auf dieser Engine. Schatten zum Beispiel und viele andere Eye Candy Optionen verursachen zusätzlich zur GPU Belastung ja auch häufig eine CPU Belastung welche die FPS spikes nach unten hin schlimmer macht.

    Ich spiele Division zur Zeit quasi auf low (i5 3570k @ 4.2Ghz, 16Gb Cl9 1600, MSI R9 390 Gaming 8G) und habe nur einige Sachen hochgesetzt. Parallax Mapping, Ambient Occlusion, Reflection, Chromatic Abberation und Vignette Effekt. Die anderen Optionen scheinen zu tiefe FPS spikes zu verursachen (die lassen sich in MSI Afterburner angenehm verfolgen, da man die FPS der letzten 20 Minuten sieht). So bleibe ich meist im 55fps Bereich.
    0
  • sunToxx
    Also 55 minimum FPS, die durchschnitts FPS sind natürlich extrem viel höher.
    0