Radeon R9 295X2 im CrossFire-Test: 4K-Gaming mit 25 Mrd. Transistoren?

Über Ostern haben wir das mit zwei Radeon-R9-295X2-Karten bestückte Komplettsystem iBuyPower Erebus getestet. Schlagen sich die neuen Boards besser als andere getestete Quad-GPU-Konfigurationen oder sollte man in CrossFire doch lieber weniger GPUs nutze...

Vierundzwanzig Komma acht Milliarden Transistoren. Elftausendzweihundertundvierundsechzig Shader. Sechzehn Gigabyte GDDR5-Speicher. Dreiundzwanzig Teraflops Rechenleistung. 1000 Watt Energieaufnahme.

Egal, welche Spezifikationen man heranzieht, um zwei Radeon-R9-295X2-Karten zu beschreiben – die Zahlen unterscheiden sich zweifellos ganz erheblich von denen eines "normalen" Gaming-PCs. Aber letzten Freitag trudelte am späten Nachmittag ein Paket von iBuyPower im Testlabor unserer US-Kollegen ein, das den großen, majestätischen Erebus-Komplett-PC enthielt – und auf den treffen all diese Spezifikationen zu.

Der Erebus verbaut nämlich zwei von AMDs nagelneuen, wassergekühlten Dual-GPU-Flaggschiffen, die wir erst kürzlich in AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung näher unter die Lupe nahmen.

Die Systembauer von iBuyPower hielten sich sogar an die Konfiguration unserer Teststation und integrierten einen auf 4,2 GHz übertakteten Core i7-4960X, 32 GByte Arbeitsspeicher in einer Quad-Channel-Konfiguration und sogar ein mit 1350 Watt sogar noch stärkeres Netzteil als wir es nutzten.

Trotz der Muckis der Kiste (und der Eile, unter der es für uns gebaut wurde, da AMD ja kein Testsystem stellen konnte oder wollte), war jedes Kabel fein säuberlich verstaut, so dass die AMDs neue Flaggschiffe ein schönes, großes, aufgeräumtes Gehäuse mit Seitenfenster illuminieren kann.

Ein weiteres Detail, das man als Bastler und Enthusiast durchaus zu schätzen weiß: iBuyPower hat hier ein ausgesprochen schweres System gebaut, was wohlgemerkt zwei getrennte Wasserkühlkreisläufe und zwei wassergekühlte Grafikkarten integriert – und trotzdem ist alles in einwandfreiem, gebrauchsfertigem Zustand heil bei uns angekommen; schlüsselfertig, sozusagen. Tja – Polyurethan-Schaum wirkt halt Wunder…

Aber genug der Vorrede, kommen wir zum eigentlichen Test. Wir sind gespannt, denn Jahre der Erfahrung haben uns gezeigt, dass vier GPUs in einem System typischerweise nicht gut miteinander auskommen – ganz egal, von welchem Hersteller die Karten kommen. Auf den nächsten Seiten wird sich zeigen, ob sich die Geschichte wiederholt oder ob AMDs bislang beste Grafikkarte in mehr als nur einer Hinsicht Präzedenzfälle schaffen und nicht nur als Single-, sondern auch als Dual-Karten-Konfiguration glänzen kann.

So testen wir zwei Radeon R9 295X2

Wir haben Grund zu der Annahme, dass zwei Radeon-R9-295X2-Karten sich anders verhalten als andere, früher von uns getestete Quad-GPU-Konfigurationen. Erstens gibt es da AMDs neue DMA-Engine, die CrossFire ohne Brückenanschluss möglich macht. Zweitens testen wir bei 3840 x 2160 Pixeln mithilfe einer übertakteten Ivy-Bridge-E-basierten Plattform, was hoffentlich das schlechte Skalieren einer Plattform-gebunden Konfiguration minimiert. Und AMD schickte letzte Woche auch noch einen neuen Beta-Treiber lang, der für 4-Wege-CrossFire optimiert sein sollte.

Test Hardware
Processors
Intel Core i7-4960X (Ivy Bridge-E) 3.5 GHz Base Clock Rate, Overclocked to 4.2 GHz, LGA 2011, 15 MB Shared L3, Hyper-Threading enabled, Power-savings enabled
Motherboard
MSI X79A-GD45 Plus (LGA 2011) X79 Express Chipset, BIOS 17.8
ASRock X79 Extreme11 (LGA 2011) X79 Express Chipset
Memory
G.Skill 32 GB (8 x 4 GB) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 and 1.65 V
Hard Drive
Samsung 840 Pro SSD 256 GB SATA 6Gb/s
Graphics
2 x AMD Radeon R9 295X2 8 GB

2 x AMD Radeon R9 290X 4 GB (CrossFire)

AMD Radeon HD 7990 6 GB

2 x Nvidia GeForce GTX Titan 6 GB (SLI)

2 x Nvidia GeForce GTX 780 Ti 3 GB (SLI)

Nvidia GeForce GTX 690 4 GB
Power Supply
Rosewill  Lightning 1300 1300 W, Single +12 V rail, 108 A output
System Software And Drivers
Operating System
Windows 8.1 Professional 64-bit
DirectX
DirectX 11
Graphics DriverAMD Catalyst 14.4 Beta

Nvidia GeForce 337.50 Beta

Wir achten natürlich darauf, dass Frame-Pacing aktiviert ist, der Tessellation-Modus von der Anwendung kontrolliert wird und V-Sync in AMDs Treiber abgeschaltet ist.

Benchmarks And Settings
Battlefield 4
3840x2160: Ultra Quality Preset, v-sync off, 100-second Tashgar playback. Fraps/FCAT for 3840x2160
Arma 3
3840x2160: Ultra Quality Preset, 8x FSAA, Anisotropic Filtering: Ultra, v-sync off, Infantry Showcase, 30-second playback, FCAT and Fraps
Metro: Last Light
3840x2160: Very High Quality Preset, 16x Anisotropic Filtering, Normal Motion Blur, v-sync off, Built-In Benchmark, FCAT and Fraps
Assassin's Creed IV
3840x2160: Maximum Quality options, 4x MSAA, 40-second Custom Run-Through, FCAT and Fraps
Grid 2
 3840x2160: Ultra Quality Preset, 120-second recording of built-in benchmark, FCAT and Fraps
Thief
3840x2160: Very High Quality Preset, 70-second recording of built-in benchmark, FCAT and Fraps
Tomb Raider
3840x2160: Ultimate Quality Preset, FXAA, 16x Anisotropic Filtering, TressFX Hair, 45-second Custom Run-Through, FCAT and Fraps
Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
17 Kommentare
    Dein Kommentar
  • Tesetilaro
    hätten wir das auch mal wieder geklärt, vielen dank an chris an dieser stelle @gerald ;)

    ich glaube das war einfach mal wieder nötig um den ewigen zweiflern zu erklären, daß das 0815 heimsystem eben kein SLI oder CF braucht ;)
    1
  • Peter Hodapp
    Mich würde mal interessieren, ob mittlerweile nicht das Windows Betriebssystem zur Performance Bremse wird. Hat dazu die Tomshardware Redaktion schon Untersuchungen gemacht ?
    0
  • FormatC
    Die zwei GPUs auf den PCBs kommunizieren wie gehabt über PLX-Chips und dann das Ganze zwischen den Karten noch über den PEG. Das ist vom Ansatz her schon sowas von gaga... Dummerweise verrecken bei mir 4 Einzelkarten im Referenzdesign nach ca. 15 Minuten dermaßen im Takt, das es kaum noch zu ertragen ist. Aber: solange sie laufen, funktioniert CF ohne derartige Einbrüche. Es liegt also nicht am System und auch nicht am OS, sondern schlicht an den Treibern, die diese verquere Kommunikation ganz offensichtlich nicht gebacken bekommen.

    Heute kam meine eigene R9 295X2, da AMD leider außerstande ist, hier in DE außer an ein paar Lieblinge überhaupt Samples zu verschicken. Was ich anhand erster Versuche aber sagen kann ist, dass eine dritte Karte erst einmal absolut nichts bringt außer lauter Rucklern und Hängern, während es mit drei Einzelkarten geht. Spaß macht das aber alles nicht, weil die Referenzkarten so laut sind, dass man im Raum noch nicht mal telefonieren kann. :D
    1
  • Orgelnator
    Toller Test, auf jeden Fall. Auf ein ein CF-Gespann hab ich auch gewartet. Ich finde es interessant dass zwei von diesen Monstern bei Battlefield nur wenig besser sind als eine. Ich bin echt gespannt auf einen Test wo dieses Setup als Heizung eingesetzt wird. :D Und den Stromzähler möchte ich wirklich nicht sehen :) Man, der muss wahrscheinlich echt abgehn... Vielleicht kann man ja noch eine Messung der Leistungsaufnahme hinzufügen ;)
    0
  • FormatC
    http://www.tomshardware.de/HD6990-GTX590-Corsair-Obsidian-800D,testberichte-240761.html

    Ich habe einen Heizungstest mit über 900 Watt schon mal gemacht - ist mittlerweile in Klassiker :)
    0
  • Big-K
    hmm lol da hätten aber 4 MH/s drin sein sollen :-) vielleicht nicht alle 4 GPUs auf einmal starten, kenn das nur zu gut. *trolllooll sorry
    Aber möchte die Gelegenheit mal nutzen zu fragen ob es irgendwo ne CFX games liste gibt. Bei SLI kann man sich ja noch sein Profil selbst anlegen was bis jetzt bei mir immer ging.
    Was macht man bei CFX wenn man kein passendes CAP hat?
    Da dieses Jahr wohl nicht mehr viel kommen wird, wollte ich mir jetzt mal ne Zweite holen ;-)
    0
  • Peter Hodapp
    Die x86 Computer sind schon eine abstruse Sache an sich. Schade das sich nicht die DEC Alpha durch gesetzt hat, die hatte schon 1996 mit 667 MHZ durch Superskalare Technik mehr Datendurchsatz als die Systeme von heute. Und Besserung ist auch nicht in Sicht.
    0
  • FormatC
    Nicht der Durchsatz ist das Problem, denn mit Einzelkarten läuft es ja (mehr oder weniger). Es ist wohl doch die alberne Verquickung von PLX intern und PCI-E extern.

    @Big-K
    Chris nahm den Litecoin - ohne weitere Optimierungen. Man kann AFR ja erzwingen und sich ein eigenes Profil anlegen. Aber wenn es das Spiel nicht hergibt, nützt auch das nichts.
    0
  • fffcmad
    Doofe Frage: Das System hat zwar Quadchannel, aber da der Speicher auf DDR3 2133 lief koennte das auch eine Verschlechterung der Leistung bewirkt haben. Die CPU ist optimiert auf DDR3 1866/ DDR3 1600. Man sollte schauen ob das Herabsetzen und Verringern der Timings einen positiven Einfluss auf die Performance haben. Nicht das der Speichercontroller bei DDR3 2133 die Handbremse anzieht. Die Frage ist halt: Wo klebts? Ich denke mal das der Treiber die Hauptursache ist. Aber man sollte schauen wo noch Engpaesse sein koennten. Die Ruckler beim Laden der Texturen koennten ein Hinweis sein.
    0
  • FormatC
    Noch einmal: mit Einzelkarten geht es definitiv besser. Die CPU liefert zudem eine vorzügliche Performance und auch den SC kann man ja mit übertakten ;) Das System ist um Längen schneller als der olle 3770K @4.8 GHz. Ich habe den Speicherdurchsatz auch mal gemessen - besser geht es kaum.
    0
  • Peter Hodapp
    @Formatic Gebe uns mal eine ganz konkrete Idee, wie zwei oder mehrere Karten im SLI oder Crossfire besser zusammenarbeiten könnten. Gibt es da schon technische Ansätze?
    0
  • FormatC
    Einzelkarten sind doch kein Thema, da hat AMD ja ganz gut nachgebessert. Nur der Mix aus diesen verschiedenen Kommunikationswegen ist echt krude.
    0
  • Techniker Freak
    @Peter Hodapp
    Es gab vor einigen Jahren mal einen vielversprechenden Ansatz der aber leider nicht mehr weiter entwickelt wird. Der Hydra Chip von Lucidlogix, der hat die Kommunikation und Datenaufteilung zwischen den Grafikkarten übernommen. Damit war es z.B. möglich das AMD und Nvidia Karten zu kombinieren. Ein nettes Gimick aber nicht der springende Punkt, der bleibt die Kommunikation und Datenaufteilung.

    Ein entsprechender Chip dürfte in der Lage sein die ankommenden Daten effizient auf die Grafikkarten zu verteilen und dabei eine bessere Ausnutzung des Grafikspeichers erzielen als bisher. Zur Zeit müssen bei jeder GPU die gleichen Daten im Speicher vorgehalten werden. Am Ende könnten dann die ganzen Daten wieder zusammengesetzt und ausgegeben werden.
    Schwierigkeiten könnte es bei den Framelatenzen geben, außerdem müssten Takt und Architektur der Grafikkarten identisch sein. Die Anzahl der Shader wäre nicht so entscheidend, genauso wenig wie die Speichergröße. Aber was Takt, Timings und Durchsatz des Speichers angeht bin ich mir nicht so sicher.
    0
  • fffcmad
    @techniker: Das gesamte Modell Grafikkarte sollte einfach ueberdacht werden. Eigentlich braucht es nur ein paar dedizierte Displayschnittstellen auf dem Mainboard, und eine Onboardgrafikkarte mit ca 128, besser 256MB sehr schnellen RAMs, der vielleicht auch fuer die CPU als langsamer Cache genutzt werden kann. Die Grafikkarte an sich sollte eher ein reines Rechenwerk sein. Und der Chipset, bzw in die CPU integriert waere ein entsprechender Controller, der die Daten der Karten verwaltet und entgegennimmt. Das Problem ist, das dieser dann der Flaschenhals sein wird, wenn nicht genuegend und schneller Pufferspeicher zur Verfuegung steht. Und bei der Kombination mehrerer Karten besteht das Problem, das der Speicher der Karten nur sehr langsam kohärent gehalten werden kann. Das wuerde zudem auch erfordern, das alle Karten, egal welchen Hersteller, die selben Ergebnisse auspucken muessen. Es braucht also ein sehr schnelles Bussystem. PCIe3 waere von der Datenrate her schnell genug, leider ist die Latenz sehr hoch. Die Kommunikation der Karten mit dem Controller duerfte weniger durch einen Treiber zu steuern sein, sondern waere eher effizienter mit einer flexiblen, standardisierten und schnelleren Hardwareloesung.
    0
  • Peter Hodapp
    Die einfachste Sache wäre ein Leistungsstarke Grafikeinheit in den CPU zu integrieren. Dann gibt es keine Probleme mehr mit Schnittstellen, Bus etc. Da habe ich mir was erhofft vom Kaveri APU und wurde mächtig enttäuscht.
    0
  • fffcmad
    Quote:
    Die einfachste Sache wäre ein Leistungsstarke Grafikeinheit in den CPU zu integrieren. Dann gibt es keine Probleme mehr mit Schnittstellen, Bus etc. Da habe ich mir was erhofft vom Kaveri APU und wurde mächtig enttäuscht.


    Das funktioniert einfach nicht. Der Preis fuer die CPU waere zu hoch, und der RAM ist und bleibt einfach zu langsam. Mit DDR4 kommt zwar endlich RAM, der eigentlich Grafikkartentauglich ist, aber halt mit nur einem Bruchteil der Performance. Das ist einmal der Anbindung geschuldet, nur Highendsysteme haben wenn ueberhaupt gerade mal 256Bit/ +32Bit ECC Speicheranbindung und dann kommt noch die extrem hohe Latenz und die niedrige Datenuebertragungsrate im Vergleich zu dediziertem Grafikkartenspeicher selbst. Das was du willst wiederspricht dem Konzept PC einfach komplett und laesst sich nicht guenstig umsetzen, zumindest nicht bei Mitteklasse/ Highend. Und die Kuehlung waere dann noch das kleinste große problem :)
    0
  • Techniker Freak
    @fffcmad
    Du hast Recht, es müssten dafür Enduro und Optimus weitergedacht werden, dann könnte man dahin kommen.
    Ich hab einfach mal eine kleine Skizze gemacht um zu verdeutlich wie ich es meine. Ein Cache wäre in dieser Variante nicht erforderlich (die notwendigkeit will ich aber nicht ausschließen). Die Daten werden normal über PCIe an den Controller gegeben der sie dann wiederum über PCIe an die Karten verteilt. Diese können über einen eigenen Bus von dem Controller gesteuert werden und auf die Daten im Speicher einer Karte zugreifen. Die berechneten Daten werden über diesen Bus an den Controller gegeben der sie zusammen setzt und an die Bildausgabe weiter gibt. Eine integrierte Grafik habe ich jetzt nicht eingeplant aber dürfte ebenso problemlos einzubinden sein.
    http://s1.directupload.net/images/140423/temp/rkm48jlz.jpg

    Ob so ein Controller rein in Hardware funktionieren könnte, ohne das die Grafikengines darauf angepasst wurden ist mir allerdings nicht klar. Die größte Schwierigkeit dabei wäre allerdings das sich AMD und Nvidia dazu durchringen müssten ein einheitliches Bussystem für das zusammenschalten von Grafikkarten zu entwickeln...
    0