Anmelden mit
Registrieren | Anmelden

Benchmark-Ergebnisse: Arma 3

AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung
Von , Chris Angelini, Gerald Strömer

Arma 3: 2560 x 1440 Pixel

Laut AMD ist seine Radeon R9 295X2 für 4K-Gaming designt. Wir wollten aber auch in der WQHD-Auflösung testen. Diese Auflösung ist im High-End-Segment nicht nur wesentlich stärker verbreitet, sondern stellt auch einen guten Vergleichswert zu unseren anderen Benchmark-Sessions dar, bevor wir dann zu den 4K-Messwerten kommen.

Bei Arma 3 gibt es bei WQHD selbst dann einen Plattform-Flaschenhals, wenn die üppigsten Detaileinstellungen aktiviert sind. Die durchschnittlichen Framerates der meisten Konfigurationen liegen knapp unter 80 fps, die Minimalwerte knapp unter 70 fps.

Nur die Radeon HD 7990 und die GeForce GTX 690 bleiben unter diesem Leistungsniveau, liefern aber immer noch ein absolut spielbare Performance ab.

Auch die Grafik zur Framerate im Zeitverlauf zeigt die Ultra-High-End-Boards ganz oben, während die beiden anderen Karten etwas hinterhertrödeln.

Mit der Messung der Frame-Time-Varianz versucht man die Flüssigkeit eine Grafikkarten-Performance zu quantifizieren. In nicht allzu ferner Vergangenheit hatte AMD mit Multi-GPU-Konfigurationen hier ziemliche Probleme. Seine Grafikprozessoren lieferten Frames so schnell aus, wie sie erstellt wurden, was manchmal in sogenannten Runt-Frames resultierte – Bilder, die so kurz auf dem Monitor dargestellt wurden, dass man sie nicht wahrnahm.

AMD adressierte dieses Problem zuerst mit einem Treiber-Update, das die Geschwindigkeit normalisierte, mit dem die Frames angezeigt wurden. Und obwohl Radeon-HD-7990- und Radeon-R9-290X-Karten CrossFire technisch verschieden umsetzen, zeigen die extrem niedrigen Frame-Time-Varianzen in Arma 3, dass beide Lösungen effektives Pacing für niedrige Varianzen nutzen.

Dieses Beispiel der Frame-Time-Varianz enthüllt zwar eine Anzahl von Ausschlägen, zeigt aber insgesamt eine sehr konsistente Performance.

Arma 3: 3840 x 2160 Pixel

In der 4K-Auflösung sehen wir keinen Plattform-Flaschenhals mehr, jetzt limitieren die Grafikkarten. Auf jeden Fall sieht man deutliche Unterschiede zwischen den einzelnen Karten. Die Radeon R9 295X2 sichert sich den Spitzenplatz, hinter ihr reihen sich die beiden Radeon-R9-290X-Karten im CrossFire-Verbund ein. Die GeForce GTX 780 Ti und die beiden Titanen im SLI-Verbund belegen die Plätze drei und vier.

Obwohl wir in der Vergangenheit bei Nvidia keine Dropped- oder Runt-Frames-Probleme feststellen konnten, sollten zwei GK110-GPUs locker ein Paar GK104-GPUs schlagen. Dennoch sind die mittels Fraps und FCAT erhobenen durchschnittlichen Framerates sehr ähnlich. Die sehr wahrscheinliche Ursache ist die Speicherbestückung der GTX 690 mit zwei GByte je GPU, was ziemlich viel Stottern sorgt. So scheint die via Fraps gemessene Framerate zwar sehr hoch zu sein, aber der subjektive Eindruck beim 4K-Gaming mit einer GTX 690 dürfte nicht annähernd an das herankommen, was der Durchschnittswert vermuten lässt.

Das gleiche Phänomen lässt sich nicht in der Grafik zur Framerate im Zeitverlauf ablesen, wo die GeForce GTX 690 ziemlich flink aussieht. Bemerkenswerter ist, dass sich die R9 295X2 deutlich von dem CrossFire-Verbund aus zwei R9-290X-Karten absetzen kann, der wiederum klar schneller ist als die beiden High-End-Combos von Nvidia.

Die Frame-Time-Varianz ist bei 3840 x 2160 Pixeln viel höher als bei 2560 x 1440 Pixeln – angesichts deutlich niedrigerer Framerates ist das auch keine Überraschung. Bis einschließlich zum SLI-Verbund der beiden Titan-Karten sind die Worst-Case--Varianzen aber wirklich nicht schlecht.

Die GeForce GTX 690 zeigt bei Ultra-HD deutlich stärkere Varianzen. Die Worst-Case-Varianzen von AMDs Radeon HD 7990 sind die schlechtesten in diesem Testfeld, wohingegen ihre 75er Perzentil-Werte schon wesentlich freundlicher aussehen.

Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 37 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Die besten Kommentare
  • Vom Autor empfohlen
    Michalito , 9. April 2014 01:18
    Danke für den schönen Monster Test mit Monster Arbeit.. (24h...) Cool find ich die Wasserkühlung, schön das daß mal kommt. Auch schön finde ich das AMD mit richtiger Enthusiasen Hardware auch mal endlich richtig Punkten kann. Da gibt es auch nix mehr zu meckern, von wegen geiler Chip aber sch ... lechter (ab Werk) Kühlösung. Danke auch für die wie immer gute Schreibe von Igor. Für mich der bestgeschriebenste Tests zur dieser Karte. Und das die Karte über PCIe sowenig zieht.. Super, wer das Geld für so eine Karte hat hat auch genug für ein Platimax oder what ever.. Und findet es sicher besser das Netzteil zu belasten als das Board. Aber, alles nicht meine Kragenweite. Egal, da sieht man was CGN kann, und 1300 vs. 3000 zu der kommenden Dual Karte von NV ist mal ein Fehdenhandschuh.. Wer da noch das Geld für die NV auspackt, dem sollte man in seinem Fanwhan auch gleich 5000 abknöpfen..
Weitere Kommentare
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Take , 8. April 2014 15:07
    Im Grunde scheint die Karte also ein voller Erfolg zu sein.Wer hätte das gedacht.
  • FormatC , 8. April 2014 15:11
    Wir waren auch überrascht :) 
  • 7664stefan , 8. April 2014 15:36
    Mensch, die gefällt mir aus diversen Gründen sehr gut. Gelungene Karte. Sag mal Igor: Ruckelt es bei Dual-GPUs eigentlich immer noch so sehr, dass man denkt, man hätte gesoffen? :D 

    P.S.: Mein Account macht immer noch Probleme. Kann nur von einem Rechner posten. :( 
  • FormatC , 8. April 2014 15:55
    Das Ruckeln geht mittlerweile wirklich, aber man merkt es ab und an dann doch.
  • campi , 8. April 2014 15:56
    Also das mit den Mikrorucklern sollte sich endlich erledigt haben (zumindest größtenteils). Siehe "Frame Time Variance", die ist ja ein Indikator dafür.
  • FormatC , 8. April 2014 17:07
    Man muss danach suchen, bzw. explizit darauf aufpassen. Je nach Spiel mehr oder weniger
  • Willi70 , 8. April 2014 18:55
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
  • Willi70 , 8. April 2014 19:04
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
  • tadL , 8. April 2014 19:21
    Wie willst denn das testen? Konsole aufschrauben?`Finde es eh bullshit Konsolen Ports für Benchmarks zu nutzen.

    Ich freue mich ja das wir immerhin im GPU bereich noch Wettbewerb sehen von AMD.
  • FormatC , 8. April 2014 19:25
    Zitat :
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?


    Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal.

  • tadL , 8. April 2014 19:28
    Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
  • tadL , 8. April 2014 19:31
    Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
  • Erpethos , 8. April 2014 19:39
    also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage

    "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."

    ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .
  • MarkusGathome , 8. April 2014 19:49
    Ich denke mal die Zeit ist ein hindernder Faktor! Die bekommen die Karte ja nicht für ne Ewigkeit und dafür ist der Test sehr sehr ausführlich!

    Großes Lob an dieser Stelle, der Artikel hat mich echt fasziniert!
  • Willi70 , 8. April 2014 19:54
    Wie schon geschrieben, ich hätte den vergleich doch gerne gesehen. Vielleicht kann man das ja noch nachreichen ?
  • klomax , 8. April 2014 20:21
    Ich wollt kein PCIe-8-Pinner mehr sein. - Da musste schon was leisten!^^
    Sich über so ein Stück feine Hardware negativ auszulassen, das wäre schon borniert. :D 

    Schöner Artikel!
  • avaka , 8. April 2014 21:40
    boah, ich bin sprachlos. Endlich hat es ein Hersteller mal geschafft das umzusetzen was alle schon seid der Geforce 7950GX2 und HD3870X2 wissen. So ein Tier endlich mal adäquat mit Wasser zu kühlen damit es "etwas" leiser wird. Hat ja nur 7-8 Jahre gedauert. Warscheinlich ist, dass ein normaler 80-90mm Quirl schlicht und einfach nicht genug Mumm aufbringen kann und es physikalisch fast schon nicht anders ging. Stichwort: "Pumpgrenze" Irgendwann ist Drehzahl egal und die Leistungsaufnahme des Lüfters steigt ins Unermessliche.
  • alterSack66 , 8. April 2014 23:01
    Leider zu groß für mein Gehäuse :(  Also stell ich die auch neben meine Titan und Titan Black ins Regal. Wie isn das jetzt mit den PCIe? Kann da nix anbrennen?
  • FormatC , 8. April 2014 23:14
    Also - ich habe die Temperaturen an der Buchse und dem Kabel gemessen. Wenn man nicht gerade ein Inter-Tech DragonForceMegaCombat mit 1000 Watt PMPO kauft.... das bleibt locker unter 50°C bzw 40°C fürs Kabel.

    BTW:
    Wir haben 550 USD für den Kurierversand zahlen müssen, damit die Karte aus den Staaten hierher zu mir ins Labor kommt. AMD in Deutschland hat uns leider bei diesem Sample ausgeschlossen. Wir waren wohl nicht liebevoll genug... Die Karte schicke ich auch wieder zeitnah zurück zu Chris. Tut mir leid, AMDs Bemusterung in DE ist schon sehr eigenartig.
  • gst , 8. April 2014 23:26
    Gerade
    Zitat :
    also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage

    "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."

    ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .

    Wenn ein Feature richtig interessant ist, wird ihm auch irgendwann ein eigener Artikel gewidmet. Hier war es aus den von Igor genannten Gründen (noch) nicht für uns relevant. Und ich glaube wirklich nicht, dass man uns Nvidia-Fanboyz schimpfen kann. ;) 

    Und @"mal schnell mittesten" (sinngemäß): Dieser Artikel ist wie alle unserer Grafikkarten-Launch-Artikel in enger Kooperation mit unseren US-Kollegen entstanden. Normalerweise haben wir eigene Test-Hardware, haben diesmal aber keine bekommen - komische Bemusterung seitens AMD.
    Die Karte, mit der Igor letztlich getestet hat, war die unserer US-Jungs - und die kam am Motag vormittag hier in Deutschland an statt wie geplant am Freitag. Igor hatte also deutlich weniger als 24 Stunden Zeit, um die ganzen Energiaufnahme/-effizienz und Betriebsgeräusch-Parts auszutesten und Texte zu schreiben. Das musste dann ins Englische übersetzt und wiederum unseren anderen internationalen Partnern (Italien, Frankreich, ...) zur Verfügung gestellt werden - und zwar mit so viel Vorlauf, dass die das noch lokalisieren und rechtzeitig einpflegen konnten.
    Das war eine Monster-Arbeit, die Igor da gestemmt hat. Ist jetzt wirklich nicht so, als würden wir Däumchen drehend in der Ecke sitzen und Löcher in die Luft starren... ;) 

    Gut möglich, dass wir uns Mantle nochmal dezidiert vornehmen. Im Rahmen dieses Launches war es wegen dem Testgeräte- und dem daraus resultierendem Zeitmangel schlichtweg nicht möglich.
Alle Kommentare anzeigen