AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung

"Do you have what it takes?" fragt AMD und bezieht sich dabei offensichtlich auf das fette Budget und das dicke Netzteil, das man für die Radeon R9 295 X2 braucht. Wir testen das 500-Watt-Biest gegen eine Kombination beindruckender Grafikkartengespanne.

Quelle: WikipediaQuelle: Wikipedia

Dreadnought. Vielleicht kennt ihr dieses Wort ja aus Final Fantasy. Oder vielleicht Warhammer. Oder vielleicht sogar Star Trek.

Aber die Dreadnoughts, an die wir während der letzten, mit Benchmarks über Benchmarks angefüllten Woche dachten, sind die Schlachtschiffe des frühen 20. Jahrhunderts, die von Großbritannien, Frankreich, Italien, Japan und den USA gebaut wurden. Vor der Washingtoner Flottenkonferenz (1922) herrschte zwischen diesen Seemächten und diversen anderen Nationen ein mehr oder weniger uneingeschränktes Flottenwettrüsten. Jedes Land pumpte unter immer stärkerer Belastung seiner Ökonomie immer mehr Ressourcen in den Neubau von Großkampfschiffen, die schneller, besser gepanzert und stärker bewaffnet waren.

Und alles nur, damit man Überlegenheit für sich verbuchen kann.

Der Grafikkartenmarkt erlebt grad sein eigenes Wettrüsten. AMD eröffnete das Gefecht 2011 mit der Vorstellung der Radeon HD 7970, die Nvidias GeForce GTX 580 problemlos in den Schatten stellte. Ein paar Monate später kam die Kontersalve von Nvidia in Form der GeForce GTX 680, die für weniger Geld noch mehr Leistung bot. Seitdem haben beide Hersteller immer wieder Breitseiten ausgetauscht und die Radeon HD 7970 GHz Edition, GeForce GTX 690, Radeon HD 7990, GeForce GTX Titan und Radeon R9 290X vorgestellt, die mit recht ähnlichen Architekturen die Performance-Marke immer weiter nach oben verschoben. Mit steigender Leistung gingen aber auch die Preise immer mehr in die Höhe, die von genügend Gamern willentlich gezahlt wurden.

Wenn diese Karten die Schlachtschiffe der Gaming-Industrie sind, treten wir jetzt wohl ins Zeitalter der Super-Schlachtschiffe ein.

Vor ein paar Wochen kündigte Nvidia seine GeForce GTX Titan Z an, ein drei Slots großes Ungetüm von Grafikkarte mit zwei GK110-GPUs. Nvidia-CEO Jen-Hsun beschrieb sie als die perfekte Karte für all jene Anwender, die einen Supercomputer unterm Tisch brauchen. Wenn man die Angabe von acht TFlops zurückrechnet, kommt man auf einen Takt von etwa 700 MHz je GPU. Das ist mehr als 100 MHz weniger als die Taktfrequenz einer GK110-GPU auf einer normalen GeForce GTX Titan. Wäre man also nicht besser dran, wenn man den angesprochenen Supercomputer mit zwei, drei oder vier einzelnen GTX-Titan-Karten aufbaut und die GTX Titan Z ignoriert? Diesbezüglich können wir noch keine verbindliche Aussage treffen, da die Titan Z noch nicht verfügbar ist.

Ach ja: Obwohl eine GeForce GTX Titan Z theoretisch deutlich langsamer sein dürfte als ein Paar normale Titan-Karten, hat Nvidia den Listenpreis bei 3000 US-Dollar festgemacht – mehr als 50 Prozent Aufpreis gegenüber einem Paar normaler Titanen.

Als Antwort hat AMD das Wettrüsten mit seiner Radeon R9 295X2 weiter eskaliert, die ebenfalls eine Dual-GPU-Grafikkarte ist. Aber diese hier unterschiedet sich vom Rest: So integriert sie beispielsweise Hawaii-GPUs, die ein bisschen höher takten als die gleiche GPU auf einer Radeon R9 290X. Außerdem ist die 295X2 eine Dual-Slot-Lösung. Wie das möglich ist? Natürlich nur mit einer geschlossenen Flüssigkühlung.

AMD kontert mit (relativ) hohem Gegenwert

Die Existenz dieser Karte war nicht gerade ein wohlgehütetes Geheimnis. Stattdessen ließ AMD eine Marketingagentur Care-Paket verschicken, die auf den die Ankunft der Karte anspielten. Aber viele der im Vorfeld gerüchteweise kolportierten Spezifikationen waren komplett daneben.  Doch nun können wir endlich Tacheles reden.

AMD startet mit zwei Hawaii-GPUs, die beide in 28-nm-Prozesstechnik gefertigt werden und jeweils über 6,2 Mrd. Transistoren verfügen. Diese GPUs werden nicht beschnitten oder eingebremst und bieten daher jeweils volle 2816 Shader, 176 Textur-Einheiten, 64 ROPs und einen aggregierten Speicherbus von 512 Bit Breite. An jeder GPU hängen vier GByte GDDR5-Speicher, insgesamt verfügt die Karte also über acht GByte.

AMD hat sich den Ruf erarbeitet, dass seine Dual-GPU-Karten fast genauso schnell sind wie die Single-GPU-Flaggschiffe. Die Radeon HD 6990 taktete beispielsweise 50 MHz niedriger als eine Radeon HD 6970, beherbergte aber trotzdem zwei vollwertige Cayman-GPUs. Die Tahiti-GPUs der Radeon HD 7990 hatten ebenfalls einen um 50 MHz niedrigeren Takt als die jeweils schnellste Single-GPU-Karte. Und auch ihre GPUs waren absolut vollwertig, alle 2048 Shader waren aktiv.


Radeon R9 295X2
Radeon R9 290X
GeForce GTX Titan
GeForce GTX 780 Ti
Prozesstechnik:
28 nm
28 nm
28 nm28 nm
Transistoren:
2x 6,2 Mrd.
6,2 Mrd.
7,1 Mrd.
7,1 Mrd.
GPU-Takt:
bis zu 1018 MHz
bis zu 1 GHz
837 MHz
875 MHz
Shader:
2x 2816
2816
2688
2880
FP32-Performance:
bis zu 11,5 TFLOPS
5,6 TFLOPS
4,5 TFLOPS
5,0 TFLOPS
Textur-Einheiten:
2x 176
176
224
240
Textur-Füllrate:
bis zu 358,3 GT/s
176 GT/s
188 GT/s
210 GT/s
ROPs:
2x 64
64
48
48
Pixel-Füllrate:
bis zu 130,3 GP/s
64 GP/s
40 GP/s
41 GP/s
Speicherbus:
2x 512 Bit
512 Bit
384 Bit
384 Bit
Speicher:
2x 4 GByte GDDR5
4 GByte GDDR5
6 GByte GDDR5
3 GByte GDDR5
Speicher-Transferrate:
bis zu 5 GT/s
5 GT/s
6 GT/s
7 GT/s
Speicher-Bandbreite:
2x 320 GB/s
320 GB/s
288 GB/s
336 GB/s
Power:
500 Watt
250 Watt
250 Watt
250 Watt

Die Radeon R9 295X2 geht noch ein bisschen weiter, da sie eine Fusion aus zwei Hawaii-Chips darstellt. Und wo ein Referenzmodell der R9 290X mit 1000 MHz taktet, sind es bei der 295X2 sogar leicht höhere 1018 MHz. Ja, auch hier gibt es das Problem mit dem dynamischen Throttling-Verhalten, dass wir bereits nach dem Launch der R9 290 beschrieben. Aber dank besserer Kühlung soll das Throttling laut AMD diesmal kein Problem sein.

Zwischen den beiden GPUs, ihrem jeweiligen Speicher und einer Menge Stromschaltkreise hat AMD einen 'PEX 8747'-Schalter platziert – das gleiche Modell mit 48 Lanes und fünf Ports, das schon bei AMDs Radeon HD 7990 und Nvidias GeForce GTX 690 Verwendung fand. Der Schalter interagiert mit den PCI-Express-3.0-Controllern beider Hawaii-GPUs und etabliert eine 16-Lane-Verbindung zwischen den GPUs und der Plattform.

Auch in Sachen Displayausgängen unterscheidet sich die 295X2 nicht großartig von der HD 7990: Der DVI-D-Anschluss (Dual-Link) und die vier mini-DisplayPort-Anschlüsse sind nicht wirklich Unbekannte.

Für all das verlangt AMD 1500 US-Dollar (oder 1100 Euro plus Mehrwertsteuer, also 1309 Euro). Die Karte wird auch nicht sofort verfügbar sein. Stattdessen soll sie laut AMD ab der 17. Kalenderwoche (ab 21. April 2014) online verfügbar werden.  Unsere US-Kollegen und wir stimmen aber in einem überein: Wir haben in der Vergangenheit schon zu viele verpasste Preisangaben und Markteinführungsdaten seitens AMD gehört, als das wir das für absolut bare Münze nehmen würden. Sollte AMD diesen Preis und dieses Datum aber dennoch aufrechterhalten können, sind wir ernsthaft beeindruckt.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
37 Kommentare
    Dein Kommentar
    Top-Kommentare
  • Danke für den schönen Monster Test mit Monster Arbeit.. (24h...) Cool find ich die Wasserkühlung, schön das daß mal kommt. Auch schön finde ich das AMD mit richtiger Enthusiasen Hardware auch mal endlich richtig Punkten kann. Da gibt es auch nix mehr zu meckern, von wegen geiler Chip aber sch ... lechter (ab Werk) Kühlösung. Danke auch für die wie immer gute Schreibe von Igor. Für mich der bestgeschriebenste Tests zur dieser Karte. Und das die Karte über PCIe sowenig zieht.. Super, wer das Geld für so eine Karte hat hat auch genug für ein Platimax oder what ever.. Und findet es sicher besser das Netzteil zu belasten als das Board. Aber, alles nicht meine Kragenweite. Egal, da sieht man was CGN kann, und 1300 vs. 3000 zu der kommenden Dual Karte von NV ist mal ein Fehdenhandschuh.. Wer da noch das Geld für die NV auspackt, dem sollte man in seinem Fanwhan auch gleich 5000 abknöpfen..
    0
  • Andere Kommentare
  • Im Grunde scheint die Karte also ein voller Erfolg zu sein.Wer hätte das gedacht.
    0
  • Wir waren auch überrascht :)
    0
  • Mensch, die gefällt mir aus diversen Gründen sehr gut. Gelungene Karte. Sag mal Igor: Ruckelt es bei Dual-GPUs eigentlich immer noch so sehr, dass man denkt, man hätte gesoffen? :D

    P.S.: Mein Account macht immer noch Probleme. Kann nur von einem Rechner posten. :(
    0
  • Das Ruckeln geht mittlerweile wirklich, aber man merkt es ab und an dann doch.
    0
  • Also das mit den Mikrorucklern sollte sich endlich erledigt haben (zumindest größtenteils). Siehe "Frame Time Variance", die ist ja ein Indikator dafür.
    1
  • Man muss danach suchen, bzw. explizit darauf aufpassen. Je nach Spiel mehr oder weniger
    0
  • Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
    0
  • Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
    0
  • Wie willst denn das testen? Konsole aufschrauben?`Finde es eh bullshit Konsolen Ports für Benchmarks zu nutzen.

    Ich freue mich ja das wir immerhin im GPU bereich noch Wettbewerb sehen von AMD.
    0
  • 74328 said:
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?


    Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal.
    1
  • Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
    0
  • Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
    0
  • also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage

    "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."

    ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .
    0
  • Ich denke mal die Zeit ist ein hindernder Faktor! Die bekommen die Karte ja nicht für ne Ewigkeit und dafür ist der Test sehr sehr ausführlich!

    Großes Lob an dieser Stelle, der Artikel hat mich echt fasziniert!
    1
  • Wie schon geschrieben, ich hätte den vergleich doch gerne gesehen. Vielleicht kann man das ja noch nachreichen ?
    0
  • Ich wollt kein PCIe-8-Pinner mehr sein. - Da musste schon was leisten!^^
    Sich über so ein Stück feine Hardware negativ auszulassen, das wäre schon borniert. :D

    Schöner Artikel!
    0
  • boah, ich bin sprachlos. Endlich hat es ein Hersteller mal geschafft das umzusetzen was alle schon seid der Geforce 7950GX2 und HD3870X2 wissen. So ein Tier endlich mal adäquat mit Wasser zu kühlen damit es "etwas" leiser wird. Hat ja nur 7-8 Jahre gedauert. Warscheinlich ist, dass ein normaler 80-90mm Quirl schlicht und einfach nicht genug Mumm aufbringen kann und es physikalisch fast schon nicht anders ging. Stichwort: "Pumpgrenze" Irgendwann ist Drehzahl egal und die Leistungsaufnahme des Lüfters steigt ins Unermessliche.
    0
  • Leider zu groß für mein Gehäuse :( Also stell ich die auch neben meine Titan und Titan Black ins Regal. Wie isn das jetzt mit den PCIe? Kann da nix anbrennen?
    0
  • Also - ich habe die Temperaturen an der Buchse und dem Kabel gemessen. Wenn man nicht gerade ein Inter-Tech DragonForceMegaCombat mit 1000 Watt PMPO kauft.... das bleibt locker unter 50°C bzw 40°C fürs Kabel.

    BTW:
    Wir haben 550 USD für den Kurierversand zahlen müssen, damit die Karte aus den Staaten hierher zu mir ins Labor kommt. AMD in Deutschland hat uns leider bei diesem Sample ausgeschlossen. Wir waren wohl nicht liebevoll genug... Die Karte schicke ich auch wieder zeitnah zurück zu Chris. Tut mir leid, AMDs Bemusterung in DE ist schon sehr eigenartig.
    0
  • Gerade
    Quote:
    also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal." ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .

    Wenn ein Feature richtig interessant ist, wird ihm auch irgendwann ein eigener Artikel gewidmet. Hier war es aus den von Igor genannten Gründen (noch) nicht für uns relevant. Und ich glaube wirklich nicht, dass man uns Nvidia-Fanboyz schimpfen kann. ;)

    Und @"mal schnell mittesten" (sinngemäß): Dieser Artikel ist wie alle unserer Grafikkarten-Launch-Artikel in enger Kooperation mit unseren US-Kollegen entstanden. Normalerweise haben wir eigene Test-Hardware, haben diesmal aber keine bekommen - komische Bemusterung seitens AMD.
    Die Karte, mit der Igor letztlich getestet hat, war die unserer US-Jungs - und die kam am Motag vormittag hier in Deutschland an statt wie geplant am Freitag. Igor hatte also deutlich weniger als 24 Stunden Zeit, um die ganzen Energiaufnahme/-effizienz und Betriebsgeräusch-Parts auszutesten und Texte zu schreiben. Das musste dann ins Englische übersetzt und wiederum unseren anderen internationalen Partnern (Italien, Frankreich, ...) zur Verfügung gestellt werden - und zwar mit so viel Vorlauf, dass die das noch lokalisieren und rechtzeitig einpflegen konnten.
    Das war eine Monster-Arbeit, die Igor da gestemmt hat. Ist jetzt wirklich nicht so, als würden wir Däumchen drehend in der Ecke sitzen und Löcher in die Luft starren... ;)

    Gut möglich, dass wir uns Mantle nochmal dezidiert vornehmen. Im Rahmen dieses Launches war es wegen dem Testgeräte- und dem daraus resultierendem Zeitmangel schlichtweg nicht möglich.
    0