Über Ostern haben wir das mit zwei Radeon-R9-295X2-Karten bestückte Komplettsystem iBuyPower Erebus getestet. Schlagen sich die neuen Boards besser als andere getestete Quad-GPU-Konfigurationen oder sollte man in CrossFire doch lieber weniger GPUs nutzen?
Vierundzwanzig Komma acht Milliarden Transistoren. Elftausendzweihundertundvierundsechzig Shader. Sechzehn Gigabyte GDDR5-Speicher. Dreiundzwanzig Teraflops Rechenleistung. 1000 Watt Energieaufnahme.
Egal, welche Spezifikationen man heranzieht, um zwei Radeon-R9-295X2-Karten zu beschreiben – die Zahlen unterscheiden sich zweifellos ganz erheblich von denen eines "normalen" Gaming-PCs. Aber letzten Freitag trudelte am späten Nachmittag ein Paket von iBuyPower im Testlabor unserer US-Kollegen ein, das den großen, majestätischen Erebus-Komplett-PC enthielt – und auf den treffen all diese Spezifikationen zu.
Der Erebus verbaut nämlich zwei von AMDs nagelneuen, wassergekühlten Dual-GPU-Flaggschiffen, die wir erst kürzlich in AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung näher unter die Lupe nahmen.
Die Systembauer von iBuyPower hielten sich sogar an die Konfiguration unserer Teststation und integrierten einen auf 4,2 GHz übertakteten Core i7-4960X, 32 GByte Arbeitsspeicher in einer Quad-Channel-Konfiguration und sogar ein mit 1350 Watt sogar noch stärkeres Netzteil als wir es nutzten.
Trotz der Muckis der Kiste (und der Eile, unter der es für uns gebaut wurde, da AMD ja kein Testsystem stellen konnte oder wollte), war jedes Kabel fein säuberlich verstaut, so dass die AMDs neue Flaggschiffe ein schönes, großes, aufgeräumtes Gehäuse mit Seitenfenster illuminieren kann.
Ein weiteres Detail, das man als Bastler und Enthusiast durchaus zu schätzen weiß: iBuyPower hat hier ein ausgesprochen schweres System gebaut, was wohlgemerkt zwei getrennte Wasserkühlkreisläufe und zwei wassergekühlte Grafikkarten integriert – und trotzdem ist alles in einwandfreiem, gebrauchsfertigem Zustand heil bei uns angekommen; schlüsselfertig, sozusagen. Tja – Polyurethan-Schaum wirkt halt Wunder…
Aber genug der Vorrede, kommen wir zum eigentlichen Test. Wir sind gespannt, denn Jahre der Erfahrung haben uns gezeigt, dass vier GPUs in einem System typischerweise nicht gut miteinander auskommen – ganz egal, von welchem Hersteller die Karten kommen. Auf den nächsten Seiten wird sich zeigen, ob sich die Geschichte wiederholt oder ob AMDs bislang beste Grafikkarte in mehr als nur einer Hinsicht Präzedenzfälle schaffen und nicht nur als Single-, sondern auch als Dual-Karten-Konfiguration glänzen kann.
So testen wir zwei Radeon R9 295X2
Wir haben Grund zu der Annahme, dass zwei Radeon-R9-295X2-Karten sich anders verhalten als andere, früher von uns getestete Quad-GPU-Konfigurationen. Erstens gibt es da AMDs neue DMA-Engine, die CrossFire ohne Brückenanschluss möglich macht. Zweitens testen wir bei 3840 x 2160 Pixeln mithilfe einer übertakteten Ivy-Bridge-E-basierten Plattform, was hoffentlich das schlechte Skalieren einer Plattform-gebunden Konfiguration minimiert. Und AMD schickte letzte Woche auch noch einen neuen Beta-Treiber lang, der für 4-Wege-CrossFire optimiert sein sollte.
| Test Hardware | |
|---|---|
| Processors | Intel Core i7-4960X (Ivy Bridge-E) 3.5 GHz Base Clock Rate, Overclocked to 4.2 GHz, LGA 2011, 15 MB Shared L3, Hyper-Threading enabled, Power-savings enabled |
| Motherboard | MSI X79A-GD45 Plus (LGA 2011) X79 Express Chipset, BIOS 17.8 ASRock X79 Extreme11 (LGA 2011) X79 Express Chipset |
| Memory | G.Skill 32 GB (8 x 4 GB) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 and 1.65 V |
| Hard Drive | Samsung 840 Pro SSD 256 GB SATA 6Gb/s |
| Graphics | 2 x AMD Radeon R9 295X2 8 GB |
| 2 x AMD Radeon R9 290X 4 GB (CrossFire) | |
| AMD Radeon HD 7990 6 GB | |
| 2 x Nvidia GeForce GTX Titan 6 GB (SLI) | |
| 2 x Nvidia GeForce GTX 780 Ti 3 GB (SLI) | |
| Nvidia GeForce GTX 690 4 GB | |
| Power Supply | Rosewill Lightning 1300 1300 W, Single +12 V rail, 108 A output |
| System Software And Drivers | |
| Operating System | Windows 8.1 Professional 64-bit |
| DirectX | DirectX 11 |
| Graphics Driver | AMD Catalyst 14.4 Beta |
| Nvidia GeForce 337.50 Beta | |
Wir achten natürlich darauf, dass Frame-Pacing aktiviert ist, der Tessellation-Modus von der Anwendung kontrolliert wird und V-Sync in AMDs Treiber abgeschaltet ist.

| Benchmarks And Settings | |
|---|---|
| Battlefield 4 | 3840x2160: Ultra Quality Preset, v-sync off, 100-second Tashgar playback. Fraps/FCAT for 3840x2160 |
| Arma 3 | 3840x2160: Ultra Quality Preset, 8x FSAA, Anisotropic Filtering: Ultra, v-sync off, Infantry Showcase, 30-second playback, FCAT and Fraps |
| Metro: Last Light | 3840x2160: Very High Quality Preset, 16x Anisotropic Filtering, Normal Motion Blur, v-sync off, Built-In Benchmark, FCAT and Fraps |
| Assassin's Creed IV | 3840x2160: Maximum Quality options, 4x MSAA, 40-second Custom Run-Through, FCAT and Fraps |
| Grid 2 | 3840x2160: Ultra Quality Preset, 120-second recording of built-in benchmark, FCAT and Fraps |
| Thief | 3840x2160: Very High Quality Preset, 70-second recording of built-in benchmark, FCAT and Fraps |
| Tomb Raider | 3840x2160: Ultimate Quality Preset, FXAA, 16x Anisotropic Filtering, TressFX Hair, 45-second Custom Run-Through, FCAT and Fraps |
- Radeon R9 295X2 im CrossFire-Setup
- Benchmark-Ergebnisse: Arma 3
- Benchmark-Ergebnisse: Assassin’s Creed IV
- Benchmark-Ergebnisse: Battlefield 4
- Benchmark-Ergebnisse: Grid 2
- Benchmark-Ergebnisse: Metro: Last Light
- Benchmark-Ergebnisse: Thief
- Benchmark-Ergebnisse: Tomb Raider
- 2x Radeon R9 295X2: Es gibt noch viel zu tun


ich glaube das war einfach mal wieder nötig um den ewigen zweiflern zu erklären, daß das 0815 heimsystem eben kein SLI oder CF braucht
Heute kam meine eigene R9 295X2, da AMD leider außerstande ist, hier in DE außer an ein paar Lieblinge überhaupt Samples zu verschicken. Was ich anhand erster Versuche aber sagen kann ist, dass eine dritte Karte erst einmal absolut nichts bringt außer lauter Rucklern und Hängern, während es mit drei Einzelkarten geht. Spaß macht das aber alles nicht, weil die Referenzkarten so laut sind, dass man im Raum noch nicht mal telefonieren kann.
Ich habe einen Heizungstest mit über 900 Watt schon mal gemacht - ist mittlerweile in Klassiker
Aber möchte die Gelegenheit mal nutzen zu fragen ob es irgendwo ne CFX games liste gibt. Bei SLI kann man sich ja noch sein Profil selbst anlegen was bis jetzt bei mir immer ging.
Was macht man bei CFX wenn man kein passendes CAP hat?
Da dieses Jahr wohl nicht mehr viel kommen wird, wollte ich mir jetzt mal ne Zweite holen ;-)
@Big-K
Chris nahm den Litecoin - ohne weitere Optimierungen. Man kann AFR ja erzwingen und sich ein eigenes Profil anlegen. Aber wenn es das Spiel nicht hergibt, nützt auch das nichts.
Es gab vor einigen Jahren mal einen vielversprechenden Ansatz der aber leider nicht mehr weiter entwickelt wird. Der Hydra Chip von Lucidlogix, der hat die Kommunikation und Datenaufteilung zwischen den Grafikkarten übernommen. Damit war es z.B. möglich das AMD und Nvidia Karten zu kombinieren. Ein nettes Gimick aber nicht der springende Punkt, der bleibt die Kommunikation und Datenaufteilung.
Ein entsprechender Chip dürfte in der Lage sein die ankommenden Daten effizient auf die Grafikkarten zu verteilen und dabei eine bessere Ausnutzung des Grafikspeichers erzielen als bisher. Zur Zeit müssen bei jeder GPU die gleichen Daten im Speicher vorgehalten werden. Am Ende könnten dann die ganzen Daten wieder zusammengesetzt und ausgegeben werden.
Schwierigkeiten könnte es bei den Framelatenzen geben, außerdem müssten Takt und Architektur der Grafikkarten identisch sein. Die Anzahl der Shader wäre nicht so entscheidend, genauso wenig wie die Speichergröße. Aber was Takt, Timings und Durchsatz des Speichers angeht bin ich mir nicht so sicher.
Das funktioniert einfach nicht. Der Preis fuer die CPU waere zu hoch, und der RAM ist und bleibt einfach zu langsam. Mit DDR4 kommt zwar endlich RAM, der eigentlich Grafikkartentauglich ist, aber halt mit nur einem Bruchteil der Performance. Das ist einmal der Anbindung geschuldet, nur Highendsysteme haben wenn ueberhaupt gerade mal 256Bit/ +32Bit ECC Speicheranbindung und dann kommt noch die extrem hohe Latenz und die niedrige Datenuebertragungsrate im Vergleich zu dediziertem Grafikkartenspeicher selbst. Das was du willst wiederspricht dem Konzept PC einfach komplett und laesst sich nicht guenstig umsetzen, zumindest nicht bei Mitteklasse/ Highend. Und die Kuehlung waere dann noch das kleinste große problem
Du hast Recht, es müssten dafür Enduro und Optimus weitergedacht werden, dann könnte man dahin kommen.
Ich hab einfach mal eine kleine Skizze gemacht um zu verdeutlich wie ich es meine. Ein Cache wäre in dieser Variante nicht erforderlich (die notwendigkeit will ich aber nicht ausschließen). Die Daten werden normal über PCIe an den Controller gegeben der sie dann wiederum über PCIe an die Karten verteilt. Diese können über einen eigenen Bus von dem Controller gesteuert werden und auf die Daten im Speicher einer Karte zugreifen. Die berechneten Daten werden über diesen Bus an den Controller gegeben der sie zusammen setzt und an die Bildausgabe weiter gibt. Eine integrierte Grafik habe ich jetzt nicht eingeplant aber dürfte ebenso problemlos einzubinden sein.
Ob so ein Controller rein in Hardware funktionieren könnte, ohne das die Grafikengines darauf angepasst wurden ist mir allerdings nicht klar. Die größte Schwierigkeit dabei wäre allerdings das sich AMD und Nvidia dazu durchringen müssten ein einheitliches Bussystem für das zusammenschalten von Grafikkarten zu entwickeln...