Anmelden mit
Registrieren | Anmelden

Fazit: AMDs Radeon R9 295X2 macht vieles richtig

AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung
Von , Chris Angelini, Gerald Strömer

Als einer der lautstärksten Kritiker von AMDs Board-Designs ist speziell unser US-Kollege Chris Angelini sehr zufrieden mit den Design-Entscheidungen, die AMD bei der Kombination von zwei Hawaii-GPUs auf einer Grafikkarte getroffen hat.

Radeon HD 6990, Radeon HD 7970, Radeon HD 7990, Radeon R9 290 – all diese Produkte waren jeweils auf ihre Weise bemerkenswert und glänzten mit Spezifikationen, die die Konkurrenz das Fürchten lehrten. Aber all diese Karten waren laut oder heiß oder unfreundlich zu den Komponenten um sie herum. AMD hat dem Produkt-Design einfach keinen wirklichen Wert beigemessen.

Währenddessen löste Nvidia seine kunststoffumhüllte GeForce GTX 680 mit einer Serie metallummantelter, flüsterleiser Referenz-gekühlter Boards ab, die nicht nur Performance sondern eben auch Eleganz verkörperten.

Letztlich ist AMDs Radeon R9 295X2 die erste Karte des Herstellers (überhaupt, würden wir fast anmerken), die den Besitz einer echten High-End-Hardware betont: Sie integriert zwei massive GPUS, betreibt sie mit leicht höherer Taktrate als ihre Single-GPU-Implementierung, kühlt sie effektiver als die Referenz-Version der Radeon R9 290X und erledigt das Ganze auch noch leiser. Und basierend auf den Messungen unserer ausgesprochen präzisen und sehr teuren Messgeräte genehmigt sich eine Radeon R9 295X2 sogar einen bisschen weniger Energie als zwei R9-290X-Boards.

Die 295X2 ist nicht so auspoliert wie einige der Nvidia-Karten. Der Kompaktwasserkühler kann sperrig sein und zusätzlich zu den Gummischläuchen gibt es noch exponierte Lüfterkabel und -anschlüsse, die man verstecken muss – das Ganze riecht halt ein bisschen nach DIY-Kit. Aber AMD nutzt hier eine externe Kühllösung von Asetek und keine In-House-Kühllösung, was definitiv ein Schritt vorwärts ist.

Insgesamt gefällt das Ganze: Die Metallabdeckung, die Metall-Backplate und das beleuchtete Logo sind Premium-Aspekte, die die früheren Bemühungen AMDs locker in den Schatten stellen. Da die 295X2 einen Wärmetauscher und einen 12-cm-Lüfter mitbringt, der Abwärme aufs dem Chassis transportiert, müssen wir in diesem Artikel endlich mal nicht über Axial-Lüfter wettern. Und wenn man zwei dieser Karten einem Quad-GPU-Arrangement laufen lassen will, muss man sich lediglich über die Kapazität des Netzteils und die Auswahl des richtigen Gehäuses Gedanken machen.

Oh – und natürlich über das Budget. Laut AMD soll die Karte rund 1300 Euro (1100 Euro plus MwSt.) kosten, wenn sie ab dem 21. April auf den Markt kommen soll. Eine einzelne 295X2 sollte in der Lage sein, dass Nvidias kommendes GK110-basiertes Dual-GPU-Flaggschiff GeForce Titan Z zu übertreffen. Aber zum Preis einer Titan Z bekommt man zwei Radeon R9 295X2 und hat noch "ein bisschen" Wechselgeld über… So betrachtet bleibt eines des 'Super-Schlachtschiffe rauchend im Kielwasser des anderen zurück.

Wir sind allerdings smarte Enthusiasten. Warum sollte man also keine sinnvollere, ökonomischere Karten-Kombination nutzen?

Beginnen wir beim AMD-Portfolio. Eine R9 295X2 ist fast exakt so schnell wie zwei R9-290X-Karten. Die günstigsten R9-290X-Modelle gibt es zu Preisen ab 430 Euro. Für rund 900 Euro bekommt man also die gleichen Hawaii-GPUs, die den neuen Gaming-PC für 4K-Gaming fit machen und spart schmucke 400 Euro. Der Nachteil: Alle guten Board-Partner-Karten verteilen die Radeon-Abwärme im Gehäuse und heizen es so auf. Denn zwei R9-290X-Karten heizen das Gehäuse schon ziemlich auf – vor allem, wenn man sie und die CPU auch noch übertaktet. Gut betuchte Power-User, die unbedingt eine AMD-Grafikkarte ihr Eigen nennen wollen, sind mit der teureren 295X2 und ihrer Kompaktwasserkühlung, dem Dual-Slot-Design und ein bisschen mehr Prestige vielleicht besser bedient.

Der Vergleich mit Nvidia-Karten ist schwieriger. Die GeForce GTX 780 Ti ist eine klasse Karte, kostet derzeit aber auch mindestens 565 Euro. Sie ist gut für WQHD-Gaming (2560 x 1440 Pixel) geeignet, aber da Auslesen des Logs der Speichernutzung zeigt, dass sie beim 4K-Gaming (3840 x 2160 Pixel) dank ihrer drei GByte Speicher praktisch keine Reserven mehr hat. Wir erwarten in den nächsten Wochen ein marginal teureres 780-Ti-Modell mit sechs GByte Speicher, so dass dann zwi dieser Karten genauso teurer sind wie eine Radeon R9 295X2. Ein Paar GTX-Titan-Black-Karten könnten eine Alternative sein, kosten aber auch mindestens 860 Euro je Karte – hier ist die AMD-Karte die ökonomisch sinnvollere Wahl.

Fazit

Letztlich stellt die Einführung der Radeon R9 295X2 einen wichtigen Moment für AMD dar. Dieses Produkt ist nicht nur ein überzeugendes Stück Hardware und zu einem Preis avisiert, der für gut betuchte Gamer viel Sinn macht, sondern zeigt auch, das AMD endlich auf das in seine Richtung geschleuderte Feedback gehört und letztlich eine Grafikkarte gebaut hat, bei der man sich stolz als Besitzer outen kann.

AMD ist allerdings noch nicht ganz aus dem Schneider: Bisher gibt es nur einen geschätzten Preis und ein geschätztes Markteinführungsdatum. Die letzten Launches von AMD-Grafikkarten hatten aber in beiden Punkten mit Problemen zu kämpfen. Wir haben unsere Lektion gelernt und empfehlen keine Hardware mehr, bevor man sie nicht wirklich kaufen kann. Daher: Wir sind gespannt, ob AMD seine Versprechen einhält. Schön wäre es ja.

Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 37 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Die besten Kommentare
  • Vom Autor empfohlen
    Michalito , 9. April 2014 01:18
    Danke für den schönen Monster Test mit Monster Arbeit.. (24h...) Cool find ich die Wasserkühlung, schön das daß mal kommt. Auch schön finde ich das AMD mit richtiger Enthusiasen Hardware auch mal endlich richtig Punkten kann. Da gibt es auch nix mehr zu meckern, von wegen geiler Chip aber sch ... lechter (ab Werk) Kühlösung. Danke auch für die wie immer gute Schreibe von Igor. Für mich der bestgeschriebenste Tests zur dieser Karte. Und das die Karte über PCIe sowenig zieht.. Super, wer das Geld für so eine Karte hat hat auch genug für ein Platimax oder what ever.. Und findet es sicher besser das Netzteil zu belasten als das Board. Aber, alles nicht meine Kragenweite. Egal, da sieht man was CGN kann, und 1300 vs. 3000 zu der kommenden Dual Karte von NV ist mal ein Fehdenhandschuh.. Wer da noch das Geld für die NV auspackt, dem sollte man in seinem Fanwhan auch gleich 5000 abknöpfen..
Weitere Kommentare
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Take , 8. April 2014 15:07
    Im Grunde scheint die Karte also ein voller Erfolg zu sein.Wer hätte das gedacht.
  • FormatC , 8. April 2014 15:11
    Wir waren auch überrascht :) 
  • 7664stefan , 8. April 2014 15:36
    Mensch, die gefällt mir aus diversen Gründen sehr gut. Gelungene Karte. Sag mal Igor: Ruckelt es bei Dual-GPUs eigentlich immer noch so sehr, dass man denkt, man hätte gesoffen? :D 

    P.S.: Mein Account macht immer noch Probleme. Kann nur von einem Rechner posten. :( 
  • FormatC , 8. April 2014 15:55
    Das Ruckeln geht mittlerweile wirklich, aber man merkt es ab und an dann doch.
  • campi , 8. April 2014 15:56
    Also das mit den Mikrorucklern sollte sich endlich erledigt haben (zumindest größtenteils). Siehe "Frame Time Variance", die ist ja ein Indikator dafür.
  • FormatC , 8. April 2014 17:07
    Man muss danach suchen, bzw. explizit darauf aufpassen. Je nach Spiel mehr oder weniger
  • Willi70 , 8. April 2014 18:55
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
  • Willi70 , 8. April 2014 19:04
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?
  • tadL , 8. April 2014 19:21
    Wie willst denn das testen? Konsole aufschrauben?`Finde es eh bullshit Konsolen Ports für Benchmarks zu nutzen.

    Ich freue mich ja das wir immerhin im GPU bereich noch Wettbewerb sehen von AMD.
  • FormatC , 8. April 2014 19:25
    Zitat :
    Warum wurde BF4 nicht einmal mit Mantle durchgetestet ?


    Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal.

  • tadL , 8. April 2014 19:28
    Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
  • tadL , 8. April 2014 19:31
    Achja, wie kein Gewinnspiel?

    Buh AMD buuuuh.

    <3 Test
  • Erpethos , 8. April 2014 19:39
    also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage

    "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."

    ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .
  • MarkusGathome , 8. April 2014 19:49
    Ich denke mal die Zeit ist ein hindernder Faktor! Die bekommen die Karte ja nicht für ne Ewigkeit und dafür ist der Test sehr sehr ausführlich!

    Großes Lob an dieser Stelle, der Artikel hat mich echt fasziniert!
  • Willi70 , 8. April 2014 19:54
    Wie schon geschrieben, ich hätte den vergleich doch gerne gesehen. Vielleicht kann man das ja noch nachreichen ?
  • klomax , 8. April 2014 20:21
    Ich wollt kein PCIe-8-Pinner mehr sein. - Da musste schon was leisten!^^
    Sich über so ein Stück feine Hardware negativ auszulassen, das wäre schon borniert. :D 

    Schöner Artikel!
  • avaka , 8. April 2014 21:40
    boah, ich bin sprachlos. Endlich hat es ein Hersteller mal geschafft das umzusetzen was alle schon seid der Geforce 7950GX2 und HD3870X2 wissen. So ein Tier endlich mal adäquat mit Wasser zu kühlen damit es "etwas" leiser wird. Hat ja nur 7-8 Jahre gedauert. Warscheinlich ist, dass ein normaler 80-90mm Quirl schlicht und einfach nicht genug Mumm aufbringen kann und es physikalisch fast schon nicht anders ging. Stichwort: "Pumpgrenze" Irgendwann ist Drehzahl egal und die Leistungsaufnahme des Lüfters steigt ins Unermessliche.
  • alterSack66 , 8. April 2014 23:01
    Leider zu groß für mein Gehäuse :(  Also stell ich die auch neben meine Titan und Titan Black ins Regal. Wie isn das jetzt mit den PCIe? Kann da nix anbrennen?
  • FormatC , 8. April 2014 23:14
    Also - ich habe die Temperaturen an der Buchse und dem Kabel gemessen. Wenn man nicht gerade ein Inter-Tech DragonForceMegaCombat mit 1000 Watt PMPO kauft.... das bleibt locker unter 50°C bzw 40°C fürs Kabel.

    BTW:
    Wir haben 550 USD für den Kurierversand zahlen müssen, damit die Karte aus den Staaten hierher zu mir ins Labor kommt. AMD in Deutschland hat uns leider bei diesem Sample ausgeschlossen. Wir waren wohl nicht liebevoll genug... Die Karte schicke ich auch wieder zeitnah zurück zu Chris. Tut mir leid, AMDs Bemusterung in DE ist schon sehr eigenartig.
  • gst , 8. April 2014 23:26
    Gerade
    Zitat :
    also ich finds schade das Mantle nich mit getestet wurde , immer hin ist es ein Feature dieser Karte und Features gehoeren mit getestet . Ihr wuerdet ja auch Nvidia Features mit Testen wenn es Ähnliche gäbe , und als aussage

    "Weil Mantle auf so einer CPU kaum noch echte Zuwächse ergibt. Wenn man den Sinn und die Absicht hinter Mantle verstehen will, dann muss man eine langsamere CPU einbauen. Denn nur wenn diese ins Limit läuft, bringt Mantle auch echte Vorteile. Sonst ist es eher marginal."

    ist eher eine Ausrede , klar , skaliert es mit schwächeren CPU´s besser aber was hindert euch Mantle Benches zu machen wenn ihr schon so n Geschoss da habt .

    Wenn ein Feature richtig interessant ist, wird ihm auch irgendwann ein eigener Artikel gewidmet. Hier war es aus den von Igor genannten Gründen (noch) nicht für uns relevant. Und ich glaube wirklich nicht, dass man uns Nvidia-Fanboyz schimpfen kann. ;) 

    Und @"mal schnell mittesten" (sinngemäß): Dieser Artikel ist wie alle unserer Grafikkarten-Launch-Artikel in enger Kooperation mit unseren US-Kollegen entstanden. Normalerweise haben wir eigene Test-Hardware, haben diesmal aber keine bekommen - komische Bemusterung seitens AMD.
    Die Karte, mit der Igor letztlich getestet hat, war die unserer US-Jungs - und die kam am Motag vormittag hier in Deutschland an statt wie geplant am Freitag. Igor hatte also deutlich weniger als 24 Stunden Zeit, um die ganzen Energiaufnahme/-effizienz und Betriebsgeräusch-Parts auszutesten und Texte zu schreiben. Das musste dann ins Englische übersetzt und wiederum unseren anderen internationalen Partnern (Italien, Frankreich, ...) zur Verfügung gestellt werden - und zwar mit so viel Vorlauf, dass die das noch lokalisieren und rechtzeitig einpflegen konnten.
    Das war eine Monster-Arbeit, die Igor da gestemmt hat. Ist jetzt wirklich nicht so, als würden wir Däumchen drehend in der Ecke sitzen und Löcher in die Luft starren... ;) 

    Gut möglich, dass wir uns Mantle nochmal dezidiert vornehmen. Im Rahmen dieses Launches war es wegen dem Testgeräte- und dem daraus resultierendem Zeitmangel schlichtweg nicht möglich.
Alle Kommentare anzeigen