AMD Radeon R9 290X im Test: AMD meldet sich im Ultra-Highend-Gaming zurück

Nvidias acht Monate der konkurrenzlosen Herrschaft im Ultra-Highend-Segment sind vorbei: AMDs neue Radeon R9 290X meldet Ansprüche an den Thron an. Sie mag zwar manchmal etwas laut sein, aber die Leistung ist brachial und der Preis überzeugt.

Die aktuell schnellste Single-GPU-Grafikkarte ist derzeit Nvidias Geforce GTX Titan (Die GeForce GTX Titan 6 GB im Benchmarktest: Schnell, leise, teuer), die zu Marktpreisen ab 800 Euro über die Theke geht und mit nicht weniger als sechs GByte GDDR5-Speicher bestückt ist. Egal, welchen Maßstab man anlegt: Es ist eine sehr starke Karte. Die Titan ist gut für Gaming bei 2560 x 1440 Pixeln geeignet und liefert in einigen Games spielbare Performance bei 5760 x 1080 Pixeln ab, ist aber immer noch einen Tick zu langsam, um mit 4K-Auflösung (3840 x 2160 Pixel) zu spielen. In einem anderen Test (Gaming At 3840x2160: Is Your PC Ready For A 4K Display?) kamen unsere US-Kollegen zu dem Schluss, dass es schon eine Handvoll Geforce-GTX-780-Karten bräuchte, um einen Ultra-HD-Bildschirm mit zufriedenstellenden Frameraten zu beschicken.

Und nun bewirbt AMD seine neue, mit einem offiziellen empfohlenen Verkaufspreis von 475 Euro (!) eingetaktete Radeon R9 290X damit, dass sie für 4K-Gaming fit sein soll. Das ist eine ziemliche Kampfansage – vor allem angesichts der Tatsache, dass Ultra-HD als der nächste große Meilenstein im PC-Gaming angesehen wird. Die Technologie ist immer noch sehr teuer und alles andere als ausgefeilt. Aber dennoch würden wir jede Wette eingehen, dass wir bei jedem eingefleischten Gamer Begeisterung wecken könnten, wenn wir ihn vor ein 32-zölliges Display mit 8,3 Millionen Pixeln Auflösung setzen würden – er würde das System nicht freiwillig zurückgeben. 4K dürfte das Schlachtfeld werden, auf dem sich AMD und Nvidia mit ihren Highend-GPUs künftig bekriegen werden.

Letzte Woche veranstaltete Nvidia im kanadischen Montreal ein Event, auf dem eine Handvoll Technologien und Initiativen angekündigt wurden – und auch eine kommenden Geforce GTX 780 Ti. Während Nvidia diesbezüglich beschäftigt war, enthüllte AMD ein paar Benchmark-Ergebnisse, laut denen die 290X in BioShock Infinite und Tomb Raider bei 3840 x 2160 Pixeln schneller war als eine Geforce GTX 780.

Was ist das Herz dieses neuen Boards, das trotz merklich niedrigerem Preis (UVP, wohlgemerkt) anscheinend mühelos an Nvidias immer noch über 520 Euro teurer GTX 780 vorbeizieht? Die Hawaii-GPU – ein deutlich komplexeres Stück Silizium als es Tahiti war, aber auf der gleichen 'Graphics Core Next'-Architektur basierend. Letztlich ein Mix aus Neu und Alt.

AMD widmet sich wieder dem "Big GPU"-Ansatz

2007 änderte AMD seine GPU-Strategie und bewegte sich weg von großen, monolithischen Prozessoren hin zu stärker skalierbaren Designs. AMD baute danach eher GPUs mit sehr gutem Preis-Leistungs-Verhältnis und variierte entweder ein bisschen nach unten, um günstigere Ableger zu bekommen, oder packte zwei GPUs zusammen, wenn eine Ultra-Highend-Konfiguration gefragt war.

Im Lauf der Zeit tendierten AMDs Ingenieure zu immer komplexeren Chips und der RV670 mit seinen rund 100 Watt wurde vom RV770 mit rund 150 Watt abgelöst. Dann kamen die Cypress-GPU der Radeon HD 5870 (ca. 200 Watt), die Cayman-GPU der 6970 (rund 250 Watt) und danach die ähnlich hungrige Tahiti-GPU. Bei jeder Generation schaffte es AMD, zwei seiner Flagsschiff-GPUs auf ein gemeinsames PCB zu tackern, was in einer wahnsinnig schnellen Grafikkarte resultierte. Das jüngste Exemplar ist AMDs Radeon HD 7990, die allerdings auch schmucke 375 Watt verbrät.

Mit Hawaii scheint sich AMD von dieser früheren Sweet-Spot-Philosophie zu verabschieden. Die GPU hat 6,2 Milliarden Transistoren und ist somit 44 Prozent komplexer als Tahiti, wird aber dennoch in der gleichen 28-nm-Prozesstechnik hergestellt. Mit einer Die-Größe von 438 mm² ist die GPU immer noch ein ganzes Stück kleiner als Nvidias GK110. Dennoch ist Hawaii größer als jeder andere AMD-Grafikprozessor: Der R600 hatte 420 mm², Tahiti kam auf gerade einmal 352 mm².


Radeon R9 290X
Radeon R9 280X
GeForce GTX Titan
GeForce GTX 780
Process
28 nm
28 nm28 nm28 nm
Transistors
6.2 Mrd.
4.3 Mrd.
7.1 Mrd.
7.1 Mrd.
GPU Clock
1 GHz
1 GHz
836 MHz
863 MHz
Shaders
2816
2048
2688
2304
FP32 Performance
5.6 TFLOPS
4.1 TFLOPS
4.5 TFLOPS
4.0 TFLOPS
Texture Units
176
128
224
192
Texture Fillrate
176 GT/s
128 GT/s
188 GT/s
166 GT/s
ROPs
64
32
48
48
Pixel Fillrate
64 GP/s
32 GP/s
40 GP/s
41 GP/s
Memory Bus
512-bit
384-bit
384-bit
384-bit
Memory
4 GB GDDR5
3 GB GDDR5
6 GB GDDR5
3 GB GDDR5
Memory Data Rate
5 Gb/s
6 Gb/s
6 Gb/s
6 Gb/s
Memory Bandwidth
320 GB/s
288 GB/s
288 GB/s
288 GB/s
Board Power
250 W (Claimed)
250 W
250 W
250 W

Noch einmal: Die grundlegende GCN-Architektur, auf der Hawaii basiert, bleibt praktisch gleich. Der Block der Compute Unit sieht identisch aus: 64 IEEE-754-2008-konforme Shader, die sich auf vier Vektor- und 16 'Textur Fetch Load / Store Units '-Einheiten aufteilen.

Es gibt allerdings ein paar Anpassungen am Design: Dazu gehören 'Device Flat Addressing' zur Unterstützung standardisierter Aufrufkonventionen, Präzisionsverbesserungen für die nativen LOG- und EXP-Operationen und Optimierungen für die MQSAD-Funktion (Masked Quad Sum of Absolute Difference), die Algorithmen für die Bewegungsschätzung auf Trab bringt. All diese Features erblickten übrigens mit der Bonaire-GPU das Licht der Welt, die wir im März diesen Jahres testeten (Testbericht AMD Radeon HD 7790: AMDs später Mittelklasse-Konter); AMD redete lediglich noch nicht darüber. Und mit der Einführung von DirectX 11.2 kommt sowohl bei Bonaire als auch bei Hawaii programmierbares LOD Clamping und die Fähigkeit dazu, einem Shader sagen zu können, ob eine Oberfläche resident ist – beides Tier-2-Features, die mit 'Tiled Resources' assoziiert werden.

Aber das Arrangement von AMDs Computing Units ist anders: Wo Tahiti bis zu 32 CUs hatte (also insgesamt 2048 Shader und 128 Textur-Einheiten), hat Hawaii 44 CUs die in vier sogenannten 'Shader Engines' organisiert sind. Das sind 2816 aggregierte Shader und 176 Textur-Einheiten. Das Ganze läuft mit bis zu einem Gigahertz (das wird später noch wichtig), was in 5,63 TFLOPS Fließkomma- oder – mit der gleichen ¼-Rate – 1,4 TFLOPS Double-Precision-Rechenleistung resultiert.

Hawaii verfügt außerdem über acht überarbeitete ACEs (Asynchronous Compute Engines), die dafür verantwortlich sind, Echtzeit- und Hintergrundaufgaben an die CUs zu verteilen. Jede ACE verwaltet bis zu acht Warteschlangen (zusammen 64 Queues) und kann auf L2-Cache und Shared Memory zugreifen. Tahiti hatte nur zwei ACEs. Die Kabini- und Temash-APUs, die wir dieses Jahr im Test hatten, kommen auf vier. Warum unterscheidet sich Hawaii so dramatisch? Wie sich herausstellt ist Hawaii's ACE-Ansatz stark durch das PlayStation-4-Design beeinflusst worden – anscheinend erwarten Sonys Ingenieure jede Menge rechenintensiver Effekte in Next-Generation-Games. Da macht es Sinn, der Vermittlung zwischen Berechnung und Grafik mehr dedizierte Ressourcen zu widmen – das ermöglicht eine Effizienz, die vorher nicht möglich gewesen wäre.

Tahiti s Frontend beschickte die Shader über ein Paar Geometrieprozessoren mit Vertex-Daten. Trotz seines Quad-Layouts für die Shader Engine verdoppelt Hawaii diese Zahl und unterstützt vier statt zwei Primitives pro Taktzyklus. Es gibt außerdem mehr Interstage-Speicher zwischen Front- und Backend, um Latenzen zu vermeiden und so viel Primitive-Spitzendurchsatz wie möglich zu realisieren.

Neben der dedizierten Geometrie-Engine (und 11 CUs) haben Shader Engines auch ihren eigenen Rasterer und vier Render-Backends, die 16 Pixel pro Taktzyklus schaffen. Das macht für die ganze GPU 64 Pixel pro Taktzyklus – das Doppelte von dem, was Tahiti schaffte. Hawaii ermöglicht bis zu 256 'Depth and Stencil Operations' pro Taktzyklus und verdoppelt auch hier den Tahiti-Wert (128). Auf einer Grafikkarte, die für hohe Auflösungen spezialisiert ist, macht sich eine hohe Pixel-Füllrate immer gut – und in vielen Fällen verschiebt sich der Performance-Flaschenhals von der Füllrate hin zur Speicher-Bandbreite, so AMD.

Der gemeinsam genutzte L2-Schreib-/Lese-Cache wächst von 768 KByte bei Tahiti auf ein MByte bei Hawaii, wo er in 16 64-KByte-Partitionen aufgeteilt ist. Dieser 33-prozentige Zuwachs bedeutet einen korrespondieren Bandbreitenzuwachs von 33 Prozent zwischen den L1- und L2-Strukturen, die nun mit maximal einem TByte/s kommunizieren.

Der erhöhte Geometrie-Durchsatz, das Hinzufügen von 768 Shadern und die Verdopplung des Spitzenwerts der Backend-Pixel-Füllrate bedeuten gleichzeitig aber auch eine stärkere Belastung des Speicher-Subsystems von Hawaii. AMD adressiert dieses Problem mit einem überarbeiteten Controller. Die neue GPU integriert ein 512 Bit breites aggregiertes Speicher-Interface, das laut AMD 20 Prozent weniger Platz als das 384-Bit-Design von Tahiti beanspruchen und insgesamt 50 Prozent mehr Bandbreite pro Quadratmillimeter ermöglichen soll. Wie das möglich ist? Letztlich kosten sehr schnelle Datenraten Die-Platz. 6 GBit/s bei höherer Spannung machte Tahitis Bus weniger effizient als den von Hawaii, der niedriger zielt und mit niedrigerer Spannung arbeitet und somit auch kleiner sein kann. Die mit 5 GBit/s operierende R9 290X nutzt vier GByte GDDR5-Speicher und schiebt 320 GByte/s über den 512-Bit-Bus. Zum Vergleich: Bei Tahiti waren es maximal 288 GByte/s.

Inhaltsübersicht
  1. Hawaii: Eine 6,2-Mrd.-Transistoren-GPU für Gamer
  2. CrossFire: Tschüss Brückenkabel; Hallo DMA
  3. TrueAudio: Dedizierte Ressourcen für Soundbearbeitung
  4. PowerTune: Der Balance-Akt zwischen Performance und Akustik
  5. Overclocking: PowerTune ändert alles
  6. Die Radeon R9 290X
  7. Testsystem und Benchmarks
  8. Benchmark-Ergebnisse: Arma III (1920 x 1080 und 2560 x 1440 Pixel)
  9. Benchmark-Ergebnisse: Arma III (3840 x 2160 Pixel)
  10. Benchmark-Ergebnisse: Battlefield 3 (1920 x 1080 und 2560 x 1440 Pixel)
  11. Benchmark-Ergebnisse: Battlefield 3 (3840 x 2160 Pixel)
  12. Benchmark-Ergebnisse: BioShock Infinite (1920 x 1080 und 2560 x 1440 Pixel)
  13. Bechmark-Ergebnisse: BioShock Infinite (3840 x 2160 Pixel)
  14. Benchmark-Ergebnisse: Crysis 3 (1920 x 1080 und 2560 x 1440 Pixel)
  15. Benchmark-Ergebnisse: Crysis 3 (3840 x 2160 Pixel)
  16. Benchmark-Ergebnisse: Metro: Last Light (1920 x 1080 und 2560 x 1440 Pixel)
  17. Benchmark-Ergebnisse: Metro: Last Light (3840 x 2160 Pixel)
  18. Benchmark-Ergebnisse: The Elder Scrolls: Skyrim (1920 x 1080 und 2560 x 1440 Pixel)
  19. Benchmark-Ergebnisse: The Elder Scrolls V: Skyrim (3840 x 2160 Pixel)
  20. Benchmark-Ergebnisse: Tomb Raider (1920 x 1080 und 2560 x 1440 Pixel)
  21. Benchmark-Ergebnisse: Tomb Raider (3840 x 2160 Pixel)
  22. CrossFire-Ergebnisse: Arma III (7680 x 1440 Pixel)
  23. CrossFire-Ergebnisse: Battlefield 3 (7680 x 1440 Pixel)
  24. CrossFire-Ergebnisse: BioShock Infinite (7680 x 1440 Pixel)
  25. CrossFire-Ergebnisse: Crysis 3 (7680 x 1440 Pixel)
  26. CrossFire-Ergebnisse: Metro: Last Light (7680 x 1440 Pixel)
  27. CrossFire-Ergebnisse: The Elder Scrolls V: Skyrim (7680 x 1440 Pixel)
  28. CrossFire-Ergebnisse: Tomb Raider (7680 x 1440 Pixel)
  29. Leistungsaufnahme
  30. Betriebsgeräusch
  31. CAD: AutoCAD 2013 und Autodesk Inventor 2013
  32. OpenGL: Maya 2013 und LightWave
  33. OpenCL: Bitmining, LuxMark und RatGPU
  34. Fazit: AMD Radeon R9 290X - Ein Stückchen Paradies zum Last-Minute-Preis
Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
54 Kommentare
    Dein Kommentar
  • fragger
    Halbleiter werden üblicherweise nicht aus Silicon gefertigt...
    But semiconductors are usually made of silicon...
    0
  • FormatC
    Stimmt schon so:
    Silicon = Silizium
    Silicone = Silikon

    Ok, niemand ist perfekt. Bei zweisprachigen Artikel vergisst man schnell mal die Übersetzung, also gibts für die deutsche Fangemeinde jetzt Silizium statt Silicon, was wirklich das Selbe ist. Silicone valley hingegen ist die Brutstätte von solchen Silikon-Mutantinnen wir Micaela S.
    0
  • fragger
    Mir ist schon klar, dass ich ein Haar gespalten habe... Jeder weiß eigentlich, was gemeint ist, aber das ist halt ein so klassischer Übersetzungsfehler :-)
    Und wenn man schon übersetzt, dann alles, und möglichst korrekt. In publizierten Texten sollte man meiner Meinung nach denglish vermeiden, zumindest sofern möglich.
    Außerdem kann man Silikon auch im Deutschen mit c schreiben...
    0
  • theo371
    Guter Test, geile Karte! :-)

    Ist schon bekannt, wann Custom Designs erscheinen werden, weil der Lüfter ist prädestiniert dafür, ausgetauscht zu werden!^^ Erscheint die 290 eventuell gleich mit Custom Designs?

    Die Leistungsaufnahme ist bei euch ja @Stock niedriger als von einer Titan, bei einigen anderen Seiten jedoch höher. Sind die Meßmethoden so unterschiedlich?

    Grüße

    Theo
    0
  • Derfnam
    Ich mag den noch einmal, noch einmal-Teil :D

    Ich vermute mal, dass HIS auch hier wieder keine DHE-Karte bringen wird, sondern wie schon zuvor bei der 7970 nen - wenngleich guten - 08/15-Hitzeverteilquirlaufsatz draufsetzt. Da du ja nah dran bist, Igor, mal die Frage an dich, falls du das weißt: woran liegt das?
    Apropos Hitze: kann sich Nvidia ja mal warm einpacken, während sich deren jetzt deutlich überzogenen Preise etwas abkühlen. Und - Bonus - gibt es schon Infos zur noch fehlenden 290? Hieß es nicht, dass erst die und dann die 290X kommen sollte?
    0
  • FormatC
    @Derfnam:
    DHE ist problematisch, da kaum Umsätze stattfanden. Die Pickelkinder haben leider keine Ahnung mehr, Hauptsache "fetziges" Design á la Aerocool :(

    Die 290 ist faktisch das, wo wir (derzeit) nichts dazu sagen und schreiben dürfen - wenn du weißt, was ich damit meine. ;)

    Zitat:
    Die Leistungsaufnahme ist bei euch ja @Stock niedriger als von einer Titan, bei einigen anderen Seiten jedoch höher. Sind die Meßmethoden so unterschiedlich?

    Naja, wenn man wie auf einigen Seiten des Gesamtsystem nur zwischen Wand und PC misst... Das ist einfach nur noch albern und zeigt, dass sich die Tester noch nicht mal mit der Theorie auseinander gesetzt haben. Dann kann man gleich würfeln und schätzen. :lol:

    Power Tune 2.0 reagiert extrem fix und die Stromstärken schwanken neuerdings irrsinnig schnell. Man braucht extrem gute Clamps und ein gutes, hoch auflösendes Mehrkanal-Monitoring-System. Je schneller, um so genauer die Ergebnisse im Gaming. Und umso niedriger, was ja auch Sinn von AMDs Übung war :D

    Klar kann man die Karte im Furmark über 330 Watt prügeln, aber es bringt exakt: nichts.
    0
  • theo371
    Die 290 kommt am 31.10, also in genau einer Woche.
    0
  • FormatC
    Wenn Du es sagst...
    0
  • FormatC
    Bei denen steht so vieles... bei der 290X hatte sie in vielen Dingen Recht, es stand aber auch ein Haufen gut gequirlter Scheiße dort.
    Bestätigen werde ich hier gar nichts ;)
    0
  • Derfnam
    Ja, die NDA ist ne ganz eigene Liga...^^
    Also rein technisch wär DHE kein Problem, ist aber aero uncool. Scheißblagen.
    0
  • FormatC
    Ja. ich finde es auch sehr schade, aber vielleicht lässt sich ja mal ein Testballon starten... Werde mal telefonieren.
    0
  • Schaffe89
    Ein Hallo an die Redaktion und ein Lob für diesen Test, ganz interessante Werte.

    Mit welchen Taktraten lief die 290x, als ihr das Temptarget auf 70 Grad gestellt habt?
    Würde mich wegen der Effizienz sehr interessieren. :)
    0
  • Mr. J
    Die Karte ist toll, allerdings gibt es da hoffentlich noch etwas bessere Kühlungslösungen als die im Referenzdesign.

    MfG
    Mr. J
    0
  • amd64
    Wir können wahrscheinlich froh sein, dass AMD sich der Kühllösung nicht angemessen angenommen hat. So musste der Preis zwangsläufig niedriger angesetzt werden, unabhängig davon, dass gefühlte 90-95% der AMD karten (NVidia evtl. gerade mal 50%) nicht mit Referenzkühler ausgeliefert werden. So geraten die überteuerten NVidia Karten unter Druck ... das kann nur gut sein.
    0
  • gst
    Da gehe ich doch mal sehr stark on aus. ;) In den näheren Zukunft soll es wohl primär Karten geben, die auf AMDs Referenzdesign basieren, also unseren Testkarten gleichen.

    Es soll mich aber seeehr wundern, wenn es nicht allerspätestens zum Ende des Jahres hin (Stichwort: Weihnachtsgeschäft) auch Partnerkarten mit eigenen, deutlich verbesserten Kühllösungen am Markt geben wird.
    0
  • FormatC
    @Schaffe89:
    Du hast eine Mail. Da steht es noch mal im Detail :)
    0
  • Myrkvidr
    Vielleicht hat so eine Karte ja das Potential, die Anbieter von Kühllösungen dazu zu bewegen, wieder verstärkt alternative Grafikkartenkühler für Normalkunden anzubieten, das ist es leider sehr. sehr, sehr ruhig geworden (schon klar, die Teile wurden einfach nicht oft genug gekauft, trotzdem sehr schade!).
    0
  • Nephilim13
    überzeugt mich irgendwie nicht so die karte...am maximum gebaut, laut, extrem heiß, wahrscheinlich wenig übertaktumsspielraum, eher gar keiner. und dass so gefeiert wird, dass die karte die 780 und titan in benchmarks schlägt: bei nem längeren bm würd die karte nach 2 min zu heiß werden und runtertakten. oder man oc seine 780/titan etwas dann hat man die karte auch wieder überholt. mit andeem kühler könnts ne alternative sein (titan find ich eh unnötig), allerdings gibts dann auch schon wieder keinen preislichen unterschied zur 780 und ich nehm dann lieber die 780, die ist kühler, leiser, sieht besser aus mMn sind nvidia treiber besser bzw ccc ist kacke und die 780 kann deutlich weiter oc werden :)
    0
  • Deathdrep
    @Nephilim13
    mit dem Standart-GPU-Kühler sind keine Wunder zu erwarten was OC angeht. Bei anderen Artikeln im Netz versucht man das Maximum aus der Karte und dem Kühler raus zu holen (100% Lüftergeschwindigkeit) wo dann Teilweise stabil bis zu 200MHz und mehr (dauerhaft) aus der Karte gelockt werden kann. Setzt man da dann noch einen richtig guten Kühler ein oder verpasst der Karte sogar eine WaKü könnte sie ein Wahres OC-Monster werden ... aber das wird die Zeit (und die Boardpartner) zeigen müssen.
    0