Wir haben noch niemals eine gute Skalierung von vier GPUs gesehen und haben auch noch niemals empfohlen, dass sich ein Enthusiast ein Grafikkarten-Quartett in den Rechner steckt – und das gilt egal von welchem Hersteller, das schließt Nvidia ausdrücklich ein.
Mit AMDs Radeon R9 295X2 hatten wir im Einzeltest aber sehr gute Erfahrungen gemacht und wollten natürlich sehen, wie sich zwei dieser Karten in einer CrossFire-Konfiguration schlagen. Zumindest zum jetzigen Zeitpunkt verhält sich ein solches Gespann bei einer 4K-Auflösung wie ein Dreijähriger im Kaufhaus: Wenn man Glück hat, reden wir über einen kleinen Engel, was bei den Grafikkarten bedeutet, dass sie die Performance steigern (wenn auch nur ein bisschen). Wenn man Pech hat, bringen sie einen dazu, verschiedene Entscheidungen im Leben in Frage zu stellen.
Vielleicht leidet Ultra-HD angesichts von so viel Grafik-Power unter einem anderen Plattform-Engpass und wir müssen solche Monster wirklich mit einem Trio von drei 4K-Monitoren (wir reden dann mal über 11.520 x 2160 Pixel) testen. Aber genügend Spiele zeigen Probleme mit flüssiger, sauberer Darstellung, konsistenten Frame-Lieferungen und sogar Dropped Frames auf, das wir nicht wirklich an einen Engpass glauben.
Aber was wäre, wenn ihr zwei R9 295X2 nicht zum Gaming, sondern für irgendwelche heftigen Rechenlasten kaufen wollt? Ein Quartett von Hawaii-GPUs sollte doch in GUIMiner die Fetzen fliegen lassen, oder? Nicht wirklich. Man muss schon mal mit verringerter Intensität starten, weil ein Start mit einer maximalen 20er Intensität AMDs Treiber praktisch unverzüglich in den Absturz treibt. Somit reden wir nur noch über ein bisschen mehr als 550 kH/s pro GPU. Aber nach ein paar Minuten wird das 75°C-Temperaturziel zum Problem und die Taktraten werden heruntergefahren. So viel dazu…
Und so endet diese Geschichte vorerst – nicht mit einem Knall, sondern mit einem wimmernden Winseln. Letztlich kommen wir zum selben Schluss wie bislang jedes Mal, wenn wir vier Grafikprozessoren in ein Chassis gepackt und aufs Beste gehofft haben. Die Performance reicht einfach nicht aus – vor allem nicht, wenn man über Marktpreise von 1500 Euro pro Karte redet.
Und die Abwärme! Oh, die Abwärme… AMDs geschlossene Wasserkühlung ist eine elegante Lösung und wir haben sie folgerichtig in unserem Test zu AMDs Radeon R9 295X2 entsprechend komplimentiert. Aber selbst mit einer effektiven Kühllösung pumpt man immer noch rund 1000 Watt in die nähere Umgebung, wenn man wirklich zwei diese Karten parallel betreibt.
Vielleicht wird es irgendwann mal mehr Sinn machen, die Potenziale von AMDs CrossFire- und Nvidias SLI-Technik weiter auszureizen und dabei eine gute, breite Skalierung für eine große Palette an Spielen bei fordernden Auflösungen zu erwarten. Bis dahin freuen wir uns einfach nur, dass beide Unternehmen starke, wirklich überzeugende Single-GPU-Grafikkarten produzieren, die man entspannt kombinieren kann, um einzelne 4K- und drei gekoppelte WQHD-Display mit flüssigen Framerates zu beschicken. Es ist immer noch eine tolle Zeit, ein PC-Gamer zu sein.
- Radeon R9 295X2 im CrossFire-Setup
- Benchmark-Ergebnisse: Arma 3
- Benchmark-Ergebnisse: Assassin’s Creed IV
- Benchmark-Ergebnisse: Battlefield 4
- Benchmark-Ergebnisse: Grid 2
- Benchmark-Ergebnisse: Metro: Last Light
- Benchmark-Ergebnisse: Thief
- Benchmark-Ergebnisse: Tomb Raider
- 2x Radeon R9 295X2: Es gibt noch viel zu tun


ich glaube das war einfach mal wieder nötig um den ewigen zweiflern zu erklären, daß das 0815 heimsystem eben kein SLI oder CF braucht
Heute kam meine eigene R9 295X2, da AMD leider außerstande ist, hier in DE außer an ein paar Lieblinge überhaupt Samples zu verschicken. Was ich anhand erster Versuche aber sagen kann ist, dass eine dritte Karte erst einmal absolut nichts bringt außer lauter Rucklern und Hängern, während es mit drei Einzelkarten geht. Spaß macht das aber alles nicht, weil die Referenzkarten so laut sind, dass man im Raum noch nicht mal telefonieren kann.
Ich habe einen Heizungstest mit über 900 Watt schon mal gemacht - ist mittlerweile in Klassiker
Aber möchte die Gelegenheit mal nutzen zu fragen ob es irgendwo ne CFX games liste gibt. Bei SLI kann man sich ja noch sein Profil selbst anlegen was bis jetzt bei mir immer ging.
Was macht man bei CFX wenn man kein passendes CAP hat?
Da dieses Jahr wohl nicht mehr viel kommen wird, wollte ich mir jetzt mal ne Zweite holen ;-)
@Big-K
Chris nahm den Litecoin - ohne weitere Optimierungen. Man kann AFR ja erzwingen und sich ein eigenes Profil anlegen. Aber wenn es das Spiel nicht hergibt, nützt auch das nichts.
Es gab vor einigen Jahren mal einen vielversprechenden Ansatz der aber leider nicht mehr weiter entwickelt wird. Der Hydra Chip von Lucidlogix, der hat die Kommunikation und Datenaufteilung zwischen den Grafikkarten übernommen. Damit war es z.B. möglich das AMD und Nvidia Karten zu kombinieren. Ein nettes Gimick aber nicht der springende Punkt, der bleibt die Kommunikation und Datenaufteilung.
Ein entsprechender Chip dürfte in der Lage sein die ankommenden Daten effizient auf die Grafikkarten zu verteilen und dabei eine bessere Ausnutzung des Grafikspeichers erzielen als bisher. Zur Zeit müssen bei jeder GPU die gleichen Daten im Speicher vorgehalten werden. Am Ende könnten dann die ganzen Daten wieder zusammengesetzt und ausgegeben werden.
Schwierigkeiten könnte es bei den Framelatenzen geben, außerdem müssten Takt und Architektur der Grafikkarten identisch sein. Die Anzahl der Shader wäre nicht so entscheidend, genauso wenig wie die Speichergröße. Aber was Takt, Timings und Durchsatz des Speichers angeht bin ich mir nicht so sicher.
Das funktioniert einfach nicht. Der Preis fuer die CPU waere zu hoch, und der RAM ist und bleibt einfach zu langsam. Mit DDR4 kommt zwar endlich RAM, der eigentlich Grafikkartentauglich ist, aber halt mit nur einem Bruchteil der Performance. Das ist einmal der Anbindung geschuldet, nur Highendsysteme haben wenn ueberhaupt gerade mal 256Bit/ +32Bit ECC Speicheranbindung und dann kommt noch die extrem hohe Latenz und die niedrige Datenuebertragungsrate im Vergleich zu dediziertem Grafikkartenspeicher selbst. Das was du willst wiederspricht dem Konzept PC einfach komplett und laesst sich nicht guenstig umsetzen, zumindest nicht bei Mitteklasse/ Highend. Und die Kuehlung waere dann noch das kleinste große problem
Du hast Recht, es müssten dafür Enduro und Optimus weitergedacht werden, dann könnte man dahin kommen.
Ich hab einfach mal eine kleine Skizze gemacht um zu verdeutlich wie ich es meine. Ein Cache wäre in dieser Variante nicht erforderlich (die notwendigkeit will ich aber nicht ausschließen). Die Daten werden normal über PCIe an den Controller gegeben der sie dann wiederum über PCIe an die Karten verteilt. Diese können über einen eigenen Bus von dem Controller gesteuert werden und auf die Daten im Speicher einer Karte zugreifen. Die berechneten Daten werden über diesen Bus an den Controller gegeben der sie zusammen setzt und an die Bildausgabe weiter gibt. Eine integrierte Grafik habe ich jetzt nicht eingeplant aber dürfte ebenso problemlos einzubinden sein.
Ob so ein Controller rein in Hardware funktionieren könnte, ohne das die Grafikengines darauf angepasst wurden ist mir allerdings nicht klar. Die größte Schwierigkeit dabei wäre allerdings das sich AMD und Nvidia dazu durchringen müssten ein einheitliches Bussystem für das zusammenschalten von Grafikkarten zu entwickeln...