"Do you have what it takes?" fragt AMD und bezieht sich dabei offensichtlich auf das fette Budget und das dicke Netzteil, das man für die Radeon R9 295 X2 braucht. Wir testen das 500-Watt-Biest gegen eine Kombination beindruckender Grafikkartengespanne.
Dreadnought. Vielleicht kennt ihr dieses Wort ja aus Final Fantasy. Oder vielleicht Warhammer. Oder vielleicht sogar Star Trek.
Aber die Dreadnoughts, an die wir während der letzten, mit Benchmarks über Benchmarks angefüllten Woche dachten, sind die Schlachtschiffe des frühen 20. Jahrhunderts, die von Großbritannien, Frankreich, Italien, Japan und den USA gebaut wurden. Vor der Washingtoner Flottenkonferenz (1922) herrschte zwischen diesen Seemächten und diversen anderen Nationen ein mehr oder weniger uneingeschränktes Flottenwettrüsten. Jedes Land pumpte unter immer stärkerer Belastung seiner Ökonomie immer mehr Ressourcen in den Neubau von Großkampfschiffen, die schneller, besser gepanzert und stärker bewaffnet waren.
Und alles nur, damit man Überlegenheit für sich verbuchen kann.
Der Grafikkartenmarkt erlebt grad sein eigenes Wettrüsten. AMD eröffnete das Gefecht 2011 mit der Vorstellung der Radeon HD 7970, die Nvidias GeForce GTX 580 problemlos in den Schatten stellte. Ein paar Monate später kam die Kontersalve von Nvidia in Form der GeForce GTX 680, die für weniger Geld noch mehr Leistung bot. Seitdem haben beide Hersteller immer wieder Breitseiten ausgetauscht und die Radeon HD 7970 GHz Edition, GeForce GTX 690, Radeon HD 7990, GeForce GTX Titan und Radeon R9 290X vorgestellt, die mit recht ähnlichen Architekturen die Performance-Marke immer weiter nach oben verschoben. Mit steigender Leistung gingen aber auch die Preise immer mehr in die Höhe, die von genügend Gamern willentlich gezahlt wurden.
Wenn diese Karten die Schlachtschiffe der Gaming-Industrie sind, treten wir jetzt wohl ins Zeitalter der Super-Schlachtschiffe ein.
Vor ein paar Wochen kündigte Nvidia seine GeForce GTX Titan Z an, ein drei Slots großes Ungetüm von Grafikkarte mit zwei GK110-GPUs. Nvidia-CEO Jen-Hsun beschrieb sie als die perfekte Karte für all jene Anwender, die einen Supercomputer unterm Tisch brauchen. Wenn man die Angabe von acht TFlops zurückrechnet, kommt man auf einen Takt von etwa 700 MHz je GPU. Das ist mehr als 100 MHz weniger als die Taktfrequenz einer GK110-GPU auf einer normalen GeForce GTX Titan. Wäre man also nicht besser dran, wenn man den angesprochenen Supercomputer mit zwei, drei oder vier einzelnen GTX-Titan-Karten aufbaut und die GTX Titan Z ignoriert? Diesbezüglich können wir noch keine verbindliche Aussage treffen, da die Titan Z noch nicht verfügbar ist.
Ach ja: Obwohl eine GeForce GTX Titan Z theoretisch deutlich langsamer sein dürfte als ein Paar normale Titan-Karten, hat Nvidia den Listenpreis bei 3000 US-Dollar festgemacht – mehr als 50 Prozent Aufpreis gegenüber einem Paar normaler Titanen.

Als Antwort hat AMD das Wettrüsten mit seiner Radeon R9 295X2 weiter eskaliert, die ebenfalls eine Dual-GPU-Grafikkarte ist. Aber diese hier unterschiedet sich vom Rest: So integriert sie beispielsweise Hawaii-GPUs, die ein bisschen höher takten als die gleiche GPU auf einer Radeon R9 290X. Außerdem ist die 295X2 eine Dual-Slot-Lösung. Wie das möglich ist? Natürlich nur mit einer geschlossenen Flüssigkühlung.
AMD kontert mit (relativ) hohem Gegenwert
Die Existenz dieser Karte war nicht gerade ein wohlgehütetes Geheimnis. Stattdessen ließ AMD eine Marketingagentur Care-Paket verschicken, die auf den die Ankunft der Karte anspielten. Aber viele der im Vorfeld gerüchteweise kolportierten Spezifikationen waren komplett daneben. Doch nun können wir endlich Tacheles reden.
AMD startet mit zwei Hawaii-GPUs, die beide in 28-nm-Prozesstechnik gefertigt werden und jeweils über 6,2 Mrd. Transistoren verfügen. Diese GPUs werden nicht beschnitten oder eingebremst und bieten daher jeweils volle 2816 Shader, 176 Textur-Einheiten, 64 ROPs und einen aggregierten Speicherbus von 512 Bit Breite. An jeder GPU hängen vier GByte GDDR5-Speicher, insgesamt verfügt die Karte also über acht GByte.

AMD hat sich den Ruf erarbeitet, dass seine Dual-GPU-Karten fast genauso schnell sind wie die Single-GPU-Flaggschiffe. Die Radeon HD 6990 taktete beispielsweise 50 MHz niedriger als eine Radeon HD 6970, beherbergte aber trotzdem zwei vollwertige Cayman-GPUs. Die Tahiti-GPUs der Radeon HD 7990 hatten ebenfalls einen um 50 MHz niedrigeren Takt als die jeweils schnellste Single-GPU-Karte. Und auch ihre GPUs waren absolut vollwertig, alle 2048 Shader waren aktiv.
| Radeon R9 295X2 | Radeon R9 290X | GeForce GTX Titan | GeForce GTX 780 Ti | |
|---|---|---|---|---|
| Prozesstechnik: | 28 nm | 28 nm | 28 nm | 28 nm |
| Transistoren: | 2x 6,2 Mrd. | 6,2 Mrd. | 7,1 Mrd. | 7,1 Mrd. |
| GPU-Takt: | bis zu 1018 MHz | bis zu 1 GHz | 837 MHz | 875 MHz |
| Shader: | 2x 2816 | 2816 | 2688 | 2880 |
| FP32-Performance: | bis zu 11,5 TFLOPS | 5,6 TFLOPS | 4,5 TFLOPS | 5,0 TFLOPS |
| Textur-Einheiten: | 2x 176 | 176 | 224 | 240 |
| Textur-Füllrate: | bis zu 358,3 GT/s | 176 GT/s | 188 GT/s | 210 GT/s |
| ROPs: | 2x 64 | 64 | 48 | 48 |
| Pixel-Füllrate: | bis zu 130,3 GP/s | 64 GP/s | 40 GP/s | 41 GP/s |
| Speicherbus: | 2x 512 Bit | 512 Bit | 384 Bit | 384 Bit |
| Speicher: | 2x 4 GByte GDDR5 | 4 GByte GDDR5 | 6 GByte GDDR5 | 3 GByte GDDR5 |
| Speicher-Transferrate: | bis zu 5 GT/s | 5 GT/s | 6 GT/s | 7 GT/s |
| Speicher-Bandbreite: | 2x 320 GB/s | 320 GB/s | 288 GB/s | 336 GB/s |
| Power: | 500 Watt | 250 Watt | 250 Watt | 250 Watt |
Die Radeon R9 295X2 geht noch ein bisschen weiter, da sie eine Fusion aus zwei Hawaii-Chips darstellt. Und wo ein Referenzmodell der R9 290X mit 1000 MHz taktet, sind es bei der 295X2 sogar leicht höhere 1018 MHz. Ja, auch hier gibt es das Problem mit dem dynamischen Throttling-Verhalten, dass wir bereits nach dem Launch der R9 290 beschrieben. Aber dank besserer Kühlung soll das Throttling laut AMD diesmal kein Problem sein.

Zwischen den beiden GPUs, ihrem jeweiligen Speicher und einer Menge Stromschaltkreise hat AMD einen 'PEX 8747'-Schalter platziert – das gleiche Modell mit 48 Lanes und fünf Ports, das schon bei AMDs Radeon HD 7990 und Nvidias GeForce GTX 690 Verwendung fand. Der Schalter interagiert mit den PCI-Express-3.0-Controllern beider Hawaii-GPUs und etabliert eine 16-Lane-Verbindung zwischen den GPUs und der Plattform.
Auch in Sachen Displayausgängen unterscheidet sich die 295X2 nicht großartig von der HD 7990: Der DVI-D-Anschluss (Dual-Link) und die vier mini-DisplayPort-Anschlüsse sind nicht wirklich Unbekannte.

Für all das verlangt AMD 1500 US-Dollar (oder 1100 Euro plus Mehrwertsteuer, also 1309 Euro). Die Karte wird auch nicht sofort verfügbar sein. Stattdessen soll sie laut AMD ab der 17. Kalenderwoche (ab 21. April 2014) online verfügbar werden. Unsere US-Kollegen und wir stimmen aber in einem überein: Wir haben in der Vergangenheit schon zu viele verpasste Preisangaben und Markteinführungsdaten seitens AMD gehört, als das wir das für absolut bare Münze nehmen würden. Sollte AMD diesen Preis und dieses Datum aber dennoch aufrechterhalten können, sind wir ernsthaft beeindruckt.
- Laut AMD nichts für Zaghafte
- Energieaufnahme und Design-Entscheidungen
- Diese Hardware braucht man für die Radeon R9 295X2
- Test-Hardware und Benchmarks
- Benchmark-Ergebnisse: Arma 3
- Benchmark-Ergebnisse: Assassin’s Creed IV: Black Flag
- Benchmark-Ergebnisse: Battlefield 4
- Benchmark-Ergebnisse: Grid 2
- Benchmark-Ergebnisse: Metro: Last Light
- Benchmark-Ergebnisse: Thief
- Benchmark-Ergebnisse: Tomb Raider
- Leistungsaufnahme: Einführung und Setup
- Leistungsaufnahme: Idle
- Leistungsaufnahme: Gaming
- Leistungsaufnahme: GPGPU
- Leistungsaufnahme: Vergleich und Übersicht
- Temperaturen und Geräuschentwicklung
- Fazit: AMDs Radeon R9 295X2 macht vieles richtig

P.S.: Mein Account macht immer noch Probleme. Kann nur von einem Rechner posten.
Ich freue mich ja das wir immerhin im GPU bereich noch Wettbewerb sehen von AMD.
Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal.
Buh AMD buuuuh.
<3 Test
Buh AMD buuuuh.
<3 Test
"Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."
ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .
Großes Lob an dieser Stelle, der Artikel hat mich echt fasziniert!
Sich über so ein Stück feine Hardware negativ auszulassen, das wäre schon borniert.
Schöner Artikel!
BTW:
Wir haben 550 USD für den Kurierversand zahlen müssen, damit die Karte aus den Staaten hierher zu mir ins Labor kommt. AMD in Deutschland hat uns leider bei diesem Sample ausgeschlossen. Wir waren wohl nicht liebevoll genug... Die Karte schicke ich auch wieder zeitnah zurück zu Chris. Tut mir leid, AMDs Bemusterung in DE ist schon sehr eigenartig.
"Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."
ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .
Wenn ein Feature richtig interessant ist, wird ihm auch irgendwann ein eigener Artikel gewidmet. Hier war es aus den von Igor genannten Gründen (noch) nicht für uns relevant. Und ich glaube wirklich nicht, dass man uns Nvidia-Fanboyz schimpfen kann.
Und @"mal schnell mittesten" (sinngemäß): Dieser Artikel ist wie alle unserer Grafikkarten-Launch-Artikel in enger Kooperation mit unseren US-Kollegen entstanden. Normalerweise haben wir eigene Test-Hardware, haben diesmal aber keine bekommen - komische Bemusterung seitens AMD.
Die Karte, mit der Igor letztlich getestet hat, war die unserer US-Jungs - und die kam am Motag vormittag hier in Deutschland an statt wie geplant am Freitag. Igor hatte also deutlich weniger als 24 Stunden Zeit, um die ganzen Energiaufnahme/-effizienz und Betriebsgeräusch-Parts auszutesten und Texte zu schreiben. Das musste dann ins Englische übersetzt und wiederum unseren anderen internationalen Partnern (Italien, Frankreich, ...) zur Verfügung gestellt werden - und zwar mit so viel Vorlauf, dass die das noch lokalisieren und rechtzeitig einpflegen konnten.
Das war eine Monster-Arbeit, die Igor da gestemmt hat. Ist jetzt wirklich nicht so, als würden wir Däumchen drehend in der Ecke sitzen und Löcher in die Luft starren...
Gut möglich, dass wir uns Mantle nochmal dezidiert vornehmen. Im Rahmen dieses Launches war es wegen dem Testgeräte- und dem daraus resultierendem Zeitmangel schlichtweg nicht möglich.