AMD Radeon R9 Fury X 4GB im Test: Fiji und HBM auf einer Karte

AMD ist bekannt dafür, seine Fans im Vorfeld wichtiger Launches in eine Art gemeinschaftlichen Fressrausch zu versetzen. Nachdem AMD immer wieder Details zu seiner neuen Flaggschiffgrafikkarte Radeon R9 Fury X durchsickern ließ, ist es nun Zeit für uns zu prüfen, ob der Hype gerechtfertigt war. Können eine komplexere GPU, eine bahnbrechende Speichertechnologie und eine Kompaktwasserkühlung genügend Performance generieren, um Nvidias effiziente Maxwell-Architektur in Form der GeForce GTX 980 Ti vom Thron zu stoßen?

AMDs letzte Ultra-High-End-Hardware kam vor mehr als einem Jahr auf den Markt: Die Radeon R9 295X2 war ein Höhepunkt für das Unternehmen. Diese Karte demonstrierte, dass zwei Hawaii-GPUs auf eine Grafikkarte passen und im Gegensatz zur Radeon HD 7990 und Radeon HD 6990 auch vergleichsweise leise gekühlt werden können.

Das Geheimnis von AMDs Erfolg war eine Kompaktwasserkühlung: Ein großer Wärmetauscher und ein 12-cm-Lüfter sorgten dafür, dass die Abwärme direkt an der Rückseite des Gehäuses nach außen abgeführt wurde. Diese Kombination machte nicht viel Lärm und stellte gleichzeitig genügend Kühlleistung bereit, dass AMD seine großen GPUs sogar über die Referenzspezifikationen der R9 290X hinaus übertakten konnte.

Und das Beste: Die Dual-GPU-Karte kam zu einem Preis von rund 1300 Euro auf den Markt – also weniger als die Hälfte von dem, was Nvidia für seine GeForce GTX Titan Z verlangte. Zur Erinnerung: Dieses Monster belegte nicht nur satte drei Slots, sondern musste auch gehörig an die Leine gelegt werden, damit es seine Luftkühlung nicht überforderte.

Wir bewunderten regelrecht, was AMD mit seiner Radeon R9 295X2 geschafft hatte. Aber angesichts der immer schneller werdenden Single-GPU-Karten von Nvidia wurde die R9 295X2 im Lauf der Zeit immer mehr zu einem Wahrzeichen dafür, dass AMD sich auf rohe Kraft statt Effizienz verließ, um konkurrenzfähig zu bleiben. Mittlerweile bekommt man die Dual-GPU-Grafikkarte schon zu Marktpreisen von knapp 700 Euro – ein (relatives) Schnäppchen für jeden, der sich mit den riesigen Abmessungen und dem manchmal frustrierend schlechten CrossFire-Support arrangieren konnte.

Technische Spezifikationen

AMD belebt die glorreiche Vergangenheit

Die Radeon R9 Fury X hat die gleiche DNA wie die 295X2: Sie basiert auf AMDs GCN-Architektur (Graphics Core Next) und nutzt eine Wasserkühlung, um die Abwärme der massiven Fiji-GPU abzuführen. Im Gegensatz zur 295X2 ist sie allerdings ein Single-GPU-Board, braucht also kein besonders langes PCB. Außerdem ist die Fury X AMDs erste Grafikkarte mit HBM (High Bandwidth Memory) als Grafikspeicher: Sie verbaut direkt neben der Fiji-GPU vier Gigabyte gestapelte Dies auf einem Silizium-Interposer, was die Abmessungen weiter reduziert.

AMD hat angesagt, dass die größeren Rechenressourcen der neuen GPU zusammen mit der beispiellos hohen Bandbreite der Speicheranbindung in einer Grafikkarte resultieren, die Nvidias GeForce GTX 980 Ti schlagen kann – und das zu einem annähernd gleichen Preispunkt (hierzulande 700 Euro).

AMD überlässt das Schicksal der Karte aber nicht dem Zufall. Die Marketing-Maschine des Unternehmens belebt einen alten Markennamen neu – einen, der sogar älter ist als Tom's Hardware. Denn ATI nannte 1995 seine ersten 3D-Beschleuniger "Rage" – das war noch vor PCIe und sogar noch vor AGP. Und ja – viele von uns besaßen wohl eine 3D Rage-Grafikkarte. Bei Chris fanden auch die Rage Pro, die Rage 128 Pro und die Rage Fury Maxx irgendwann ihren Weg in verschiedene seiner Rechner. Mit der Namenswahl für die neue Grafikkartengeneration will AMD wohl wieder etwas der alten Magie heraufbeschwören, die das Unternehmen dazu verführte, 2006 mehr als fünf Milliarden US-Dollar für den Kauf von ATI hinzublättern.

AMDs Fiji nimmt Form an

Aber ist die Radeon R9 Fury X solch einer Bezeichnung eigentlich würdig? Sie hat auf jeden Fall vielversprechende Spezifikationen, das steht mal fest. Unsere US-Kollegen haben die wichtigsten Eckdaten letzte Woche in einem Preview beleuchtet. Aber zur Erinnerung: Dreh- und Angelpunkt der Karte ist AMDs neue Fiji-GPU.

Sowohl AMD als auch Nvidia wussten, dass die 28-nm-Prozesstechnik eine Langzeitangelegenheit sein würde. AMD rechnete nach eigener Aussage aber mit einer schneller Entwicklung der Prozesstechnik. Das gleiche gilt mit Sicherheit auch für Nvidia. Aber beide Firmen passten sich an die Realitäten an und schlugen dabei verschiedene Wege im Design ihrer neuen GPUs ein. Wo Nvidias GM200 601 mm² misst, ist AMDs Fiji mit 596 mm² fast genauso groß. AMD quetscht 8,9 Milliarden Transistoren auf diese Fläche und montiert den Chip dann auf einem 1011 mm² großen Silizium-Interposer, der von vier Blöcken High Bandwidth Memory flankiert wird.

Ein schneller Blick auf Fijis Blockdiagramm lässt an das 2013 gelaunchte Hawaii-Design denken – und wenn es nur deswegen ist, weil beide GPUs in vier Shader Engines organisiert sind, von denen jede über einen eigenen Geometrie-Prozessor und Rasterizer sowie vier Render-Backends verfügt, von denen jedes 16 Pixel pro Takt schafft. AMD lässt all das unberührt. Aber das Unternehmen packt mehr Compute Units in jede Shader Engine, nämlich 16 statt 11. Bei 64 Shadern pro CU resultiert das in 1024 Shadern pro Shader Engine und 4096 Shadern für die gesamte GPU. AMD behält die vier Textur-Filter-Units pro CU bei, was in insgesamt 256 je Shader Engine bei der Fiji-GPU im Vergleich zu den 176 je Shader Engine der Hawaii-GPU resultiert.

In der Theorie müsste die Shading-, Compute- und Texture-Filterung-Performance von Fiji also deutlich höher sein. Aber ist das ohne korrespondierende Verbesserungen an den Geometrie-Engines oder der ROP-Anzahl nicht schon wieder ein großer Engpass auf Ansage? Letztlich wird es vom Workload abhängen. Als AMD Hawaii vorstellte unternahm das Unternehmen konzertierte Anstrengungen, um den Geometrie-Durchsatz mit dem 4-Wege-Shader-Engine-Layout zu verbessern und die Pixel-Füllrate zu erhöhen. AMD-Vertreter postulierten damals sogar, dass die Speicher-Bandbreite die GPU begrenzen würde – trotz einem 512 Bit breiten Interface. Heute hört man von AMD, dass laut seinen Analysen Rasteroperationen mit acht Bit pro Kanal kaum die Performance limitieren. Raster-Ops mit 16 Bit pro Kanal sollen da schon eher eine Herausforderung darstellen, aber dank der Kombination aus HBM und Farbkompression soll Fiji die GCN-Möglichkeiten bezüglich der vollen Unterstützung von 16-Bit/Kanal-Rasteroperationen voll ausschöpfen können, während frühere GPUs in der Tat mit Engpässen zu kämpfen hatten. Ob sich AMD wünscht, das man eine größere Engine hätte bauen können? Das scheint der Plan gewesen zu sein. Aber angesichts der limitierten Größe des Interposers war auch die Größe der GPU limitiert – und AMD hat dieses Limit in Form der Fiji-GPU auch voll ausgeschöpft.

Was man im Blockdiagramm des Grafikprozessors nicht sieht sind die inkrementellen Verbesserungen, die AMD an seiner GCN-Architektur vorgenommen hat – und von denen einige in der Tat dabei helfen, die Engpässe aufzuweiten, über die wir uns Sorgen machten. Hawaii nutzte eine zweite Iteration von GCN, die für die Tonga-GPU der Radeon R9 285 noch einmal einem Update unterzogen wurde. Fiji kommt in den Genuss der Vorteile der dritten Generation des GCN-Designs. Ein solcher Vorteil sind aktualisierte Geometrieprozessoren, die die Tesselation-Performance verbessern. Verlustfreie Farbkompression für die Lese- und Schreibvorgänge des Frame-Puffers, neue 16-Bit-Integer-/Gleitkommainstruktionen und eine Verdopplung des L2-Caches auf zwei Megabyte finden sich ebenfalls auf dieser Liste. Weniger relevant für die 3D-Pipeline von Fiji aber genauso willkommen sind ein hochwertigerer Display-Skalar und eine aktualisierte Videodekodierungs-Engine, die HEVC-Playback unterstützt.

Rechnerisch integriert Fiji ein verbessertes  Task-Scheduling und einige neue Instruktionen für die parallele Datenverarbeitung. Dank seiner 4096 Shader und der maximalen Taktfrequenz von 1050 MHz gibt AMD die Single-Precision-Rechenleistung mit 8,6 TFLOP an. Die FP64-Leistung hat AMD jedoch auf ein Sechzehntel davon reduziert, was die Double-Precision-Performance auf 537,6 MFLOP limitiert – weniger als Hawaii. Nach der Beschneidung der GM200-GPU darf man dies als erneute Bestätigung spezialisierter High-End-Gaming-GPUs werten.

Schlaglicht: High Bandwidth Memory (HBM)

Hinsichtlich der Implementierung von High Bandwidth Memory macht AMD aber richtig Boden gut, denn der Spitzendurchsatz steigt von 320 GByte/s bei der R9 290X auf die 512 GByte/s der Fury X. Die Low-Level-Details sind ja mittlerweile ziemlich gut bekannt, aber HBM erzielt seine hohe Bandbreite, indem DRAM vertikal gestapelt wird. Jeder der vier Dies beherbergt zwei 128-Bit-Kanäle, so dass man aggregiert auf ein 1024 Bit breites Interface kommt.

Die erste HBM-Generation taktet mit 500 MHz recht konservativ und überträgt zwei Bits pro Takt. Zum Vergleich: GDDR5 läuft aktuell mit bis zu 1750 MHz und schaufelt dabei vier Bits pro Takt durch die Leitung – das ist der Unterschied zwischen einem und sieben Gigabit pro Sekunde. Autsch. Aber wenn man sollte auch die Busbreite mit ins Kalkül einbeziehen und nicht vergessen, dass jeder HBM-Stapel mit seinen 256 Bit Bandbreite 128 GByte/s schafft – bei GDDR5 reden wir über 32 Bit und 28 GByte/s. Einje Karte wie die GeForce GTX 980 Ti beherbergt sechs 64-Bit-Speicher-Controller. Wenn man das alles durchmultipliziert kommt man schließlich auf die spezifizierten 336 GByte/s. AMDs Radeon R9 Fury X hat exakt vier HBM-Stapel an Bord, wodurch wir auf die angesprochenen 512 GByte/s kommen.

Es geschieht nicht oft, dass man bei einer derart wichtigen Spezifikation einen Leistungssprung um 60 Prozent erlebt oder sieht, dass der Wert 50 Prozent über dem Besten der Konkurrenz liegt. Es gibt keinen Zweifel, dass HBM eine wichtige Rolle für die Performance der Fury X spielt. Wenn Fiji ein größerer Chip geworden wäre, hätte HBM noch mehr an Bedeutung bekommen. Ihr werdet aber an den Performance-Ergebnissen sehen, dass die Radeon R9 290X und die GeForce GTX 980 heute sehr nahe aneinander liegen. Fiji und HBM stehen erst am Anfang ihres Weges und es ist nur logisch anzunehmen, dass AMDs Treiber-Team im Laufe der Zeit noch mehr Performance aus dieser Kombination herauskitzeln kann. AMD hat spezifische Release-Targets eingeplant, zu denen signifikante Leistungszuwächse erwartet werden. Wir können natürlich keine Schätzung abgeben, wo Fury X schließlich landen wird; das entspräche dem guten, alten Blick in die Kristallkugel. Dennoch ist es interessant, dass AMD selbst offenbart ein noch nicht realisiertes Potenzial in der Karte sieht.

Angesichts ihrer nur vier Gigabyte HBM gibt es bezüglich der Langzeitaussichten der Fury X durchaus auch Ungewissheit. Es ist nur natürlich, dass angesichts von GTX 980 Ti- und Titan X-Grafikkarten mit sechs bzw. zwölf Gigabyte Speicher Bedenken aufkommen. Allerdings lässt kein einziger unserer 4K-Benchmarks vermuten, dass die Radeon R9 Fury X wegen ihrer "nur" vier Gigabyte HBM Probleme machen wird. Wir bastelten eine ziemlich realitätsfremde Kombination von Einstellungen in GTA V zusammen, die die 4-GByte-Schallmauer in Sachen Speichernutzung durchbrach und die Framerates in den einstelligen Bereich drückte. Allerdings war das Spiel zu diesen Zeitpunkt sowieso nicht mehr wirklich flüssig spielbar. AMD findet sich allerdings angesichts der Bewaffnung der R9 390X- und R9 390-Karten mit acht Gigabyte Speicher allerdings in einer etwas seltsamen Position wieder. Dennoch denken wir, dass die halbierte Speicherkapazität des Flaggschiffs nicht wirklich ein Handicap ist. Bei den Auflösungen und Einstellungen, die nötig sind, um die 4-GByte-Grenze zu knacken, ist Fijis sowieso schon nicht mehr in seinem Element – zumindest als Single-GPU-Karte oder -Setup. Zudem kann AMD nach eigener Aussage noch eine Menge mehr in Sachen Speicherverwaltung machen, was bisher nur noch nicht umgesetzt wurde. Solche Aussagen dürften natürlich das Interesse der Ingenieure wecken.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
91 Kommentare
    Dein Kommentar
  • eine kurze Frage.Wird BF4 bei AMD GPUs mit Mantle getestet, was ja noch einige Prozentpunkte mehr bringt?
    0
  • Mantle bringt bei dieser CPU faktisch gar nichts. Deshalb ist es auch nicht aktiviert, genauso wie wir auch kein PhysX nutzen ;)
    0
  • Bleibt abzuwarten wo sich die Preise letztlich einpendeln werden bzw. ob AMD/Nvidia eine offensivere Preispolitik fahren werden. Mit gleicher Leistung zu einer 980Ti werden viele wohl eher zur 980Ti greifen da Nvidias Image bei der Masse deutlich besser darsteht als AMDs.

    Für den Normaleinsatz finde ich die Temperaturen ganz angenehm.

    Noch eine Frage zu der Serie: Wenn ich mich nicht irre steht noch eine weitere Karte an und zwar eine Luftgekühlte. Ich gehe nicht davon aus, dass diese mit der Fury XT mithalten kann und sich eher an der 980 orientieren wird. Sind die Versionen noch unter Verschluss? Meinem Verständnis nach sollten sie gleichzeitig erscheinen. Die Nano dann irgendwann später.

    Zuletzt, steht die Karte den Anbietern offen oder wird es ausschließlich bei diesem Referenzmodell bleiben?
    0
  • danke für die ausfühlichen tests, wie immer!!!

    Mein eigenes Fazit lautet:
    Wenn man zu viel Geld hat - definitiv eine Betrachtung wert, wenn man günstig rankommt umso mehr - auf keinen Fall aber in der Referenzversion - ich würde auf ein Boardpartnerdesign mit ohne lustigen hochfrequenten Tönen warten!
    0
  • Danke für den ausführlichen Test. Der Stromverbrauch unter Gaming Last hat mich wirklich überrascht, hätte erwartet das das deutlich näher an der Board Power von 275W hängt... Schöne Überraschung.

    Battlefield 4 läuft bei mir mit Mantle besser als mit DX, trotz Xeon E3 1230v3 der eigentlich nicht limitieren sollte... Mit PhysX kann man das vermutlich auch eher weniger vergleichen, nen Performance Nachteil auf Nvidia Systemen kann man durch Mantle ja nicht verursachen... Trotzdem wohl besser mit DX zu testen, schon allein für die Vergleichbarkeit...

    Kann man die Frontplatte (also die über der Pumpe) demontieren ohne die Garantieansprüche zu verlieren? Für die Frontplatte selbst hat AMD ja ein Modell hochgeladen damit man sich mit 3D Drucker/CNC Fräse eigene basteln kann. Für einen Lüftertausch evtl. auch interessant.
    0
  • Quote:
    Noch eine Frage zu der Serie: Wenn ich mich nicht irre steht noch eine weitere Karte an und zwar eine Luftgekühlte. Ich gehe nicht davon aus, dass diese mit der Fury XT mithalten kann und sich eher an der 980 orientieren wird. Sind die Versionen noch unter Verschluss? Meinem Verständnis nach sollten sie gleichzeitig erscheinen. Die Nano dann irgendwann später. Zuletzt, steht die Karte den Anbietern offen oder wird es ausschließlich bei diesem Referenzmodell bleiben?


    Die Fury X, also den eigentlichen Vollausbau, werden wir soweit ich weiß zumindest auf absehbare Zeit nicht in anderen Versionen von Boardpartnern sehen. Die Fury (Salvage Chip) wohl schon. Wenn man da einen ~30cm langen Luftkühler draufzimmert dürfte man wohl spielend die 1050Mhz erreichen, so viel schluckt die Karte ja nicht...
    0
  • 7962 said:
    Mantle bringt bei dieser CPU faktisch gar nichts. Deshalb ist es auch nicht aktiviert


    Das stimmt so nicht, der limitierende Faktor ist die API in dem Fall DX11 mit den Drawcalls
    0
  • Hier geht es ume Grafikbenchmarks die einen realistischen Vergleich zwischen Grafikkarten erlauben!

    Siehst du bei The Witcher etwa Hairworks aktiviert?

    Die Grafikkarten werden im selben Setting getestet und keinem der Kandidaten werden absichtlich Steine in den Weg geschmissen.
    0
  • Was ist daran Realistisch, meinst du allen Ernstes ein Amd Nutzer wird BF4 / Hardline oder Dragon ... mit DX11 spielen, wenn er Mantle nutzen kann?.

    Nebenbei wenn man eine Grafikerweiterung von einer Api NICHT Unterscheiden kann,
    sollte man sich eher mehr damit auseinandersetzten
    0
  • Ich hab das mit meiner 270x gemacht, weil Mantle bei mir noch öfter abschmierte als die DX Version ;)
    0
  • Jetzt wo es dir passt siehst du Hairworks auch als "Steine in den Weg schmeißen"? Oder hast du dich nochmal damit beschäftigt und bist zu dem Schluss gekommen das sowas eventuell doch unschön ist? Bei AMD Mantle zu nutzen würde an der Performance der Nvidia Karten gar nichts ändern, das ist schon ein Unterschied. Hat aber in so einem Test auch meiner Meinung nach nichts zu suchen.

    @FormatC: Habe mir noch ein paar andere Tests durchgelesen, gibt es eine technische Erklärung warum die Verbrauchsmessungen derart auseinander gehen? PCGH misst fasst 100W mehr unter Gaming Last, bei anderen Seiten sieht es ähnlich aus. Irgendwo muss der Unterschied ja herkommen...
    0
  • HDMI ist ueberfluessig. HTPC/ HDMI geht da auch per Adapter. Und 4K-Videos kann man eh knicken. (4K Bluray) Man benoetigt Windows 10, entsprechende Abspielsoftware und HDMI2.0. Dummerweise ist HDMI2.0 schon bei release nicht zukunftsicher, da die Uebertragungsrate nur fuer 4K 60Hz reicht, und der Kopierschutz scheint ja auch noch nicht komplett durch zu sein.

    Ich habe lieber alles voll mit DP, als mit unsinnigen HDMI/ DVI-Ports. Letztere sind veraltete/ lahme Billigkruecken die sich per Adapter auch ueber Displayport realisieren lassen. Nativ HDMI auf der Karte ist ueberfluessig wie ein Kropf.
    -1
  • Naja, für DP 1.2(a)->HDMI 2.0 gibt es noch keine Adapter, sollen aber wohl diesen ~Sommer kommen. Für DP->DVI-D (es gibt durchaus Monitore die mehr als 60Hz nur mit DVI D mitmachen und keinen anderen Anschluss bieten...) braucht man einen recht teuren aktiven Adapter.... Ich nutze ebenfalls nur DP, aber darauf das diese Anschlüsse fehlen sollte man hinweisen, das ist ein potentieller Nachteil.

    Die einzige Karte die momentan für einen HTPC Sinn macht ist wohl die GTX 960, keine andere Karte bietet HDMI 2.0 und HDCP 2.2....
    0
  • Ich habe eine kurze und leicht eingebremste 960 im HTPC und bin hochzufrieden. Dafür reichts locker :)
    0
  • Ich auch. Hätte sogar eine noch schwächere genommen, aber da gab's nichts mit den entsprechenden Anschlüssen...
    0
  • Schöner Test.
    Was ich jetzt nicht ganz mitbekommen habe, wie ist die GPU Temp. im Gamingloop?

    Mein Monitor macht an 1440p auch 120 Hz über D-DVI. UHD mit 60 Hz funktioniert aber nicht mehr über D-DVI.

    Werde dann wohl nächstes Jahr bei den 14 nm Karten mit HBM2 zu schlagen.
    Sollte dir in den nächsten Wochen mal langweilig werden kannst du ja mal zeigen ob man die Graka in eine Modulare Wakü integrieren kann (Pumpe raus, G1/4" Anschlüsse dran usw.)
    0
  • 70029 said:
    Jetzt wo es dir passt siehst du Hairworks auch als "Steine in den Weg schmeißen"? Oder hast du dich nochmal damit beschäftigt und bist zu dem Schluss gekommen das sowas eventuell doch unschön ist?


    War ich es oder AMD die davon gesprochen haben, dass sie sabotiert wurden? War ich derjenige der unfähig war ein Treiberprofil nachzuliefern oder war es AMD?

    Sorry, dass ich AMD die Last abnehmen wollte sich mit Hairworks rumschlagen zu müssen. Es tut mir ja auch leid, dass sie es nicht 3 Monate nach Release geschafft haben den Tesselationfaktor von Hairworks anzupassen. Ich bitte um Entschuldigung dafür, dass AMD es nicht auf die Reihe bekommen hat ...

    Meine Güte!
    0
  • Interessant wäre, zu wissen, ob ich die Karte mehr oder minder zerstörungsfrei in einen vorhandenen Kühlkreislauf einbinden kann? G1/4 Gewinde am Kühlblock wären schön...
    Wisst ihr da Näheres?
    0
  • Kühlblock?

    Das ist ein simpler Heatspreader mit aufgepappter CM AIO-Pumpe. Warte auf die ersten Fullcover-Blöcke, damit die VRM mitgekühlt werden.
    0
  • Quote:
    War ich es oder AMD die davon gesprochen haben, dass sie sabotiert wurden? War ich derjenige der unfähig war ein Treiberprofil nachzuliefern oder war es AMD? Sorry, dass ich AMD die Last abnehmen wollte sich mit Hairworks rumschlagen zu müssen. Es tut mir ja auch leid, dass sie es nicht 3 Monate nach Release geschafft haben den Tesselationfaktor von Hairworks anzupassen. Ich bitte um Entschuldigung dafür, dass AMD es nicht auf die Reihe bekommen hat ... Meine Güte!


    Hast also immer noch nicht verstanden worum es dabei ging und das die Geschichte nichts mit Treiberprofilen zutun hat...
    0