Sapphire Radeon R9 380X Nitro im Test: Kann Tonga XT überzeugen?

Tonga startete bereits vor über einem Jahr und erst jetzt ist endlich auch der Maximalausbau für normale Desktop-PCs erhältlich, der bisher exklusiv nur für eine andere Plattform angeboten wurde. Doch lohnt sich das verspätete Erscheinen überhaupt noch?

Diese Frage muss man sich nach all den Neuerscheinungen durchaus ernsthaft stellen, denn über ein Jahr kann gerade in der IT-Branche eine verflixt lange Zeitspanne mit vielen zwischenzeitlichen Neuerscheinungen sein. Auch wenn es sich vor einem Jahr beim Tonga-Chip um eine hochinteressante Modifikation der Hawaii-GPUs handelte, wie wir sie heute noch als Grenada in den Radeon R9 390 / Radeon R9 390X finden, ist nichts mehr so, wie es im Herbst 2014 noch war.

Nicht nur Fiji in den verschiedenen Varianten der Radeon R9 Fury /Radeon R9 Fury X und Radeon R9 Nano hat mittlerweile für Aufsehen gesorgt, sondern auch aus dem grünen Lager sind viele neue und interessante Karten mit Maxwell-Chip gelaucht worden. Trotzdem trifft AMD ganz offensichtlich mit der Radeon R9 380X in eine Lücke, die in Nvidias Portfolio sowohl leistungstechnisch als auch preislich zwischen der GeForce GTX 960 und GTX 970 klafft. Das wiederum könnte diese Karte doch interessanter machen, als es auf den ersten Blick vielleicht scheinen mag.

Doch erst einmal zurück zur Radeon R9 380X selbst und natürlich auch ein wenig Therorie. Bot Antigua Pro - also der in der R9 380 hochgelabelte Tonga Pro - noch vier Shader Engines, von denen jede auf sieben Compute Units (CUs) zurückgreifen konnte, sind es bei der R9 380X und Antigua XT jetzt immerhin acht CUs. Wie schon bei den GCN-GPUs aus der Vorgängergeneration beherbergt jede CU 64 Shader- und vier Textureinheiten, in Summe macht das für die Radeon R9 380X also 2048 statt der 1792 Shader- und 128 statt der 112 Textureinheiten der R9 380.

Gegenüber Hawaii respektive Grenada sind auch bei Tonga / Antigua die Render-Backends zusammengestrichen worden: Die vier Shader-Engines sind nur mit je zwei Render-Backends statt der vier pro Shader-Engine bei R9 390(X)-Karten bestückt. Jedes einzelne Backend kann vier Vollfarbpixel pro Takt rendern, also insgesamt 32 pro Taktzyklus. Das ist am Ende nur halb so viel wie bei den Hawaii-/Grenada-GPUs.

Die Beschneidung des Speicher-Interfaces auf eine nur 256 Bit breite Anbindung und die daraus resultierende, um bis zu 27 Prozent geringere Speicherbandbreite im Vergleich zu den größeren Karten kompensiert man wie schon bei der Radeon R9 380, indem man Farbdaten des Framebuffers in einem verlustfreien, komprimierten Format lesen und schreiben kann.

Übernommen wurden auch weitere Features wie die parallele Verarbeitung von Instruktionen zwischen zwei SIMD-Lanes, neue und verbesserte Algorithmen zur Planung von Compute-Aufgaben sowie neue 16-Bit-Floating-Point- und -Integer-Instruktionen für Compute- sowie Media-Processing-Aufgaben. TrueAudio und der FreeSync-Support (Open-Source-Alternative zu Nvidias G-Sync) sind genau so mit an Bord wie der Unified Video Decoder (UVD) sowie die überarbeitete Video Coding Engine (VCE). 

Unser Testsample: Sapphire Radeon R9 380X Nitro

Da AMD für diese Karte R9-Reihe kein eigenes Referenzmodell produziert, sondern es den Herstellern überlässt, die optimale Interpretation in einem gewissen Spielraum selbst zu finden, testen wir ein von AMD zur Verfügung gestelltes Board-Partner-Modell aus dem Hause Sapphire.

Wir vergleichen in diesem Test insgesamt sechs Karten, deren technische Daten wir vorab noch einmal schnell tabellarisch zusammenfassen:


MSI
GTX 970
Gaming 4G
Gigabyte
GTX 960
Windforce
MSI
R9 380
Gaming 4G
Sapphire
R9 380X
Nitro
Powercolor
R9 390
PCS+
AMD
R9 Nano
Prozesstechnik:
28 nm
28 nm28 nm28 nm
28 nm
28 nm
Transistoren:
5,2 Mrd.
2,9 Mrd.
5 Mrd.
5 Mrd.
6,2 Mrd,
8,9 Mrd.
GPU-Takt:
1140 MHz+
1216 MHz+
1000 MHz
1040 MHz
1010 MHz
1000 MHz
Shader:
1664
1024
1792
2048
2560
4096
Textur-
Einheiten:
104
64
112
128
160
256
Textur-
Füllrate:
115,9 GT/s
77,8 GT/s
112 GT/s
133,1 GT/s
161,6 GT/s
256 GT/s
ROPs:
64
32
32
32
64
64
Pixel-
Füllrate:
71,3 GP/s
38,9 GP/s
32 GP/s
33,3 GP/s
64,6 GP/s
64 GP/s
Speicher-
Interface:
256 Bit
128 Bit
256 Bit
256 Bit512 Bit
4096 Bit
Speicher:
3,5 GByte
+ 0,5 GByte
GDDR5
2 GByte
GDDR5
4 GByte
GDDR5
4 GByte
GDDR5
8 GByte
GDDR5
4 GByte HBM
Speicher-Takt:
1753 MHz
1753 MHz
1400 MHz
1500 MHz
1500 MHz
500 MHz
Speicher-
Bandbreite:
224,4 GB/s*
(nur für 3,5 GByte)
112,2 GB/s
179,2 GB/s
192 GB/s
384 GB/s
512 GB/s
Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
35 Kommentare
    Dein Kommentar
  • echoez
    Gut. Jetzt bin ich auch etwas enttäuscht. Hätte AMD die 380X ohne OC Leistungssmäßig da plaziert, wo sie Preislich liegen soll (aktuell ja noch nicht,edit:aber jetzt), wärs ne gute Karte geworden. Also genau mittig zwischen 380 und 390.
    Nur wenig schneller als ne GTX960, und in dieser Klasse eine viel zu hohe Lestungsaufnahme. Für 210-220€ wärs ne gute Alternative, aber so nicht.
    0
  • klomax
    Bisschen ernüchternd, das Kärtchen. :(

    Aber trotzdem, Danke für den Test! :)
    0
  • mareike
    Hätte von Tonga mehr erwartet, vor allem mehr Effizienz. Aber egal, für mich gibts erst ab 16nm was neues.
    0
  • fffcmad
    Liegt bei der Speicherbandbreite gerade mal auf dem Niveau einer GTX480. Was soll das? Die GPU verhungert ja komplett. Fuer den Preis halbwegs Ok. Aber fuer wenig Geld deutlich mehr zu bekommen, wenn man zur 970 greift. Das macht die 380X unattraktiv
    0
  • FormatC
    Man sieht es an den bereits heute rapide gefallenen Preisen.
    0
  • maguumo
    Danke für den Test. Hätte mir etwas mehr von der Karte erwartet, aber bei den Preisen wo sie jetzt landet ist das ganz OK denke ich...
    0
  • moeppel
    Bleibt nur interessant herauszufinden, ob man noch mehr aus einer 380 holen kann mit einem 380X BIOS ;)
    0
  • ShieTar
    Anonymous sagte:
    Liegt bei der Speicherbandbreite gerade mal auf dem Niveau einer GTX480. Was soll das? Die GPU verhungert ja komplett. Fuer den Preis halbwegs Ok. Aber fuer wenig Geld deutlich mehr zu bekommen, wenn man zur 970 greift. Das macht die 380X unattraktiv


    Gerade mal auf dem Niveau der GTX480 ist eine Art das auszudrücken, aber immerhin 50% mehr als die ursprünglich ähnlich teure GTX960 mit 4GB triffts doch wohl besser. GDDR5 ist halt schon sehr alt, das ändert sich nichts mehr. Mittelklasse-Karten mit mehr Bandbreite wirds erst geben wenn sich HBM ordentlich etabliert hat.
    0
  • FormatC
    Sehe ich ähnlich. Momentan hängt es wirklich oft genug am Speicher.
    0
  • klomax
    240 € ist schon i. O. . - Dann purzelt die Non-X 4GB weiter nach unten, gibt es jetzt schon für 215 €. (ohne Versandkosten)
    0
  • FormatC
    So schauts aus. Domino-Effekt :)
    0
  • BluppOfTheBlobb
    Tonga auf Overdrive ist von der Energieeffiezient jenseits von allem Guten (R9 Nano) und Bösem (Nvidia Maxwell). Ein klares No Buy.
    Macht es zum Glück einfacher das Warten-auf-den-Shrink-warten-auf-den-Shrink Mantra zu beten. Hoffentlich kommt der bald, sonst brauche ich bald einen anderen Shrink ;-)
    0
  • Patrick Libuda
    Interessanter Test :-).

    Wenn man nach Stand jetzt geht, scheint es so, als ob im Moment die R9 390, trotz aller Schwächen, das beste Preis-Leistungs-Verhältnis hat (o.k. meiner bescheidenen Ansicht nach ;-)).

    Witcher 3 mit vollem Detail-Gehalt - ohne Anti-Aliasing bei 1920x1080 bei guten Bildraten (es ist irgendwie wie beim Auto - Vierventiltechnik ist schön, aber nichts schlägt Hubraum ;-)). Mehr als 50 oder 60 Hz brauche ich eh nicht, da mein Fernseher, den ich als Monitor missbrauche, bei besagter Auflösung eh nur maximal 60Hz kann. VSync an ist auch Pflicht...

    Ich muss dazu sagen, dass ich im mittlerweile nicht mehr bereit bin, Mondpreise für eine Grafikkarte auszugeben - Schallgrenze ca. 350 Euro plusminus X.

    Die GTX 970er wäre natürlich auch eine Alternative - trotz Speicherkastrat ;-) - es spricht nicht gerade für AMD, dass sich bei den Preisen für die GTX 970 seit ungefähr einem Jahr quasi nichts getan hat - Stand jetzt 350 bis knappe 400 Euro - heftig heftig.

    Ein leidiges Thema bei AMD scheint immer noch die Treiberqualität zu sein (siehe Euer Grafikkarten-Test mit Anno 2250). Normalerweise müsste man ja zumindest in Anbetracht des Alters der Hardware eine gewisse Produktreife unterstellen können, aber dem scheint ja nicht unbedingt so zu sein.

    Im Moment habe ich noch eine GTX 570 im Rechner (Komplettrechner, obwohl die Karte damals bereits ein Jahr alt war - jedoch auch eine GTX 670 würde sich bei Witcher 3 wohl nur marginal besser schlagen...) und von daher werde ich mich wohl so langsam mit dem Gedanken an ein Update anfreunden müssen...

    Bei einem Update auf die GTX 970 könnte man den gleichen Treiber einfach weiter verwenden (anscheinend zwei (!) Mal Neustart, damit Windows es auch merkt... - wenn ich mich recht erinnere...). Bei einem Update auf AMD müsste man wahrscheinlich nicht nur den Nvidia-Treiber deinstallieren, sondern noch zusätzlich mit so Sachen wie Driver Cleaner et al. Nvidia-Treiberreste vom Rechner tilgen - und dann beten, dass alles klappt. Von daher wäre Nvidia wohl die deutlich einfachere Lösung ;-) - zumindest wohl mit etwas weniger beten verbunden...

    Auf der einen Seite wird so langsam Winter, auf der anderen wäre noch etwas warten vielleicht doch klüger...
    0
  • klomax
    Vor Weihnachten steigen zudem die Preise wieder.

    Für FullHD ist die Karte aber wirklich gut geeignet. - GCN 1.2 und Co machen sie auch attraktiv.

    Die GTX 970 spielt eben in einer anderen Liga. - Ihr "Speicherfeature" ist allerdings immer noch sehr gewöhnungsbedürftig.
    0
  • Derfnam
    Das isn Mythos, Klomax. Die Preise steigen nicht vor Weihnachten.
    0
  • FormatC
    Das ist lediglich eine verzerrte Wahrnehmung, die indirekt proportional zum Geldbetrag auf dem Konto ansteigt :P
    0
  • klomax
    Arm ich bin.
    0
  • Patrick Libuda
    Herzlichen Dank für die Antworten,

    Habe auch die Tests bezüglich R9 Fury und Fury X mit sehr viel Interesse gelesen. Trotzdem schlackern mir die Ohren bei dem Gedanken, dass die Fury-Preise effektiv ca. 50 Prozent über denen der R9 390(X) liegen.

    Auf der einen Seite ist das Spielkind in mir an einem Upgrade sehr interessiert. Auf der anderen Seite steht jedoch das monetäre und spricht dann halt doch eine sehr eindeutige Sprache !!! (360-400+ Euro vs. 560-600 Euro).

    Andererseits sendet meine Grafikkarte momentan seltsame Signale und ich weiß nicht, wie ich sie deuten soll – pfeift sie auf dem letzten Loch oder nicht...

    Bei 3D-Anwendungen oder dunkleren Hintergründen wie z.B. unter Steam in den Menübalken in der Library habe ich massive Probleme mit weißem Pixelschnee – ironischerweise bleibt der dunkle Hintergrund in der Library schwarz und ohne irgendwelchen Pixelschnee.

    Ich habe eine Nvidia GTX 570 mit der aktuellen Treiberversion 359.00 unter Windows 8.1 64bit. Etwas Pixelschnee hatte ich schon vorher, aber nie auch nur annähernd im gegenwärtigen Maß !!!

    Von daher hoffe ich, dass ich einer Treiberlaune aufgessen bin...

    Ich habe meinen Rechner bereits gründlich ausgesaugt (Lüfter festhalten, um nicht irgendwelche Induktionsstöme zu riskieren...), um sicherzugehen. Das Ergebnis war jedoch leider das gleiche.

    (Selbst ein Betrieb bei offenem Rechner half nicht (im normalen Betrieb zeigt der Prozessor-Lüfter (Scythe Katana 3 – so ich mich korrekt erinnere – nach unten !!!).

    (Wenn ich eine R9 Fury X wählen würde, hätte ich trotzdem das Problem, dass ich einem der drei Gehäuse-Lüfter würde Platz machen müssen – und selbst dann hätte ich keine Garantie, dass der R9 Fury X – Lüfter in meinem Gehäuse auch passt – siehe mein Sythe Katana 3-Gehäuselüfter.)

    Zumindest kann ich bei mir eine gewisse ATI/AMD-Sympathie konstatieren.


    Update:
    Habe mittlerweile das Update auf die R9 390 (Sapphire minimal ab Werk übertaktet und mit Backplate) gemacht – byebye Pixelschnee (eventuell ist meine GTX 570 doch kaputt). Das Ding ist wirklich lang und passt so gerade eben.

    Ziemlich leise und bleibt auch nach längerem Spielen recht kühl (üblicherweise 1920x1080 ohne Anti-Aliasing bei max. 60Hz – mehr kann mein Fernseher eh nicht). Ich nutze noch die aktuelle Catalyst-Beta. Bisher habe ich keinen Grund zur Klage. Im Wesentlichen läuft alles so wie es soll. Bisher auch noch kein „Grafiktreiber resettet“ und ich hoffe, dass das so bleibt.

    Bei den jüngeren Codemasters-Sachen (z.B. Dirt Rally, Dirt 3, und Grid Autosport) ist mir aufgefallen, dass egal was man im Konfigurationsmenü einstellt (50 oder 60), das Spiel mit 24Hz startet – wenn man dort dann die gewünschte Bildwiederholrate wählt, funktioniert es jedoch so wie es soll und die gewählte Einstellung bleibt zumindest bis zum nächsten Neustart des betreffenden Spiels aktiv. Hier weiß ich jedoch nicht, ob dies ein Spiele- oder Treiber-Bug ist. Bei Companies of Heroes 1 z.B. hatte ich es auch vorher, dass es nur mit 24Hz gestartet ist, egal was man eingegeben hat.

    Insgesamt erscheint die 3D-Grafik bei der R9 390 einen Tick detaillierter und irgendwie eleganter und plastischer, als bei meiner GTX 570. Außerdem ist der Hardwaremousecursor sehr viel präziser (z.B. Z2 Steel Soldiers). Diese beiden Phänome habe ich allerdings auch schon bei meinen früheren ATI/AMD- (9700 AGP, 3850 AGP und 4650 AGP) und Nvidia-Karten (Geforce 3, 6600 GT AGP und GTX 570) beobachten können. (Mein alter AthlonXP-Rechner (zuletzt 2800 Barton) hielt über 10 Jahre und dank SB X-Fi Hardware-Soundmodus immer noch tapfer mit – sowohl Half Life 2 als auch Bioshock mit vollem (!) Detailgehalt (ohne Anti-Aliasing) spielbar bei 1280x960 – o.k. keine dreistelligen Bildraten aber ca. 40 ist auch o.k..)

    (Und endlich habe ich mit der R9 390 wieder eine Karte, bei der die Benchmark-Sequenz von World War II – Frontline Command (de facto Z3, aber ohne Einheiten bauen – vor allem die AI ist gut) mit voller Bildrate durchläuft (seit der Radeon 9700) – scheint wohl dem 512bit Speicherinterface geschuldet zu sein ;-). (Trotzdem meine ich, dass die Darstellung seinerzeit (auch bei Z2 Steel Soldiers) mit der Radeon 9700er noch etwas detaillierter war (Schrift vor allem, weniger abgehackt) - dafür fehlten halt ein paar 3D-Features im Vergleich zu späteren Karten (siehe z.B. die Wasserdarstellung in Codename: Panzers).)

    Wie sieht das eigentlich heutzutage aus mit Treibermogeleien – d.h. etwas Bildqualität opfern zugunsten der Bildrate? Ich erinnere mich z.B. noch gut an den 45.23er Nvidia-Treiber (für Geforce 3 und neuer), wo man insbesondere bei OpenGL (sehr gut zu sehen z.B. im GLExcess OpenGL-Benchmark) sehen konnte, dass der Detailgehalt der Darstellung (voal allem die Schrift) spürbar geringer war. Schön fand ich später dagegen den 85.25 (? - es war jedenfalls die Version mit den Bildern aus dem ersten Herr der Ringe Command & Conquer Ableger...). Da sah dann besagter Benchmark deutlich besser und detaillierter aus – schade, dass die R9 390 dort ein Problem mit Sichtweite und Chroma (schwarz statt silber) hat (bei alten Futuremark-Benchmarks fängt sie teils an, wütend zu fiepen...).

    Leider werden bei Need for Speed 2 – Hot Pursuit 2 (2002) die Reifentexturen nicht richtig dargestellt sondern nur grau transparent. Außerdem kann man bei Need for Speed 4 und 5 (Porsche) bei Direct3D keine Grafikauflösungen auswählen (es werden keine angezeigt), so dass der 3D-Bildschirm schwarz bleibt und nur Displays wie die Karte oder Rangliste angezeigt werden. Abhilfe schafft NGlide, auch wenn mir natives Direct3D lieber wäre – auch sehr praktisch für NFS2SE. Nun ja, „Beggars can’t be Choosers“. Most Wanted (2005) ist nicht so mein Fall, das ganze hat irgendwie etwas Manta-haftes. Insgesamt ziehe ich es vor, wenn man mir ein paar Autos und Strecken gibt, ohne diesen von Strecke zu Strecke fahren-Kit dazwischen. Vielleicht bin ich da doch etwas zu old-schoolig...
    0
  • FormatC
    Es ist schwierig zu antworten, wenn man das Gesamtsystem einschließlich Windows-Version nicht kennt. Die Uralt-Spiele, also alles ÄLTER aus DirectX 9, beötigen zudem meist Dateien, die es ab Windows Vista nicht mehr per default mitgibt. Da muss man fast immer manuell frickeln. Bei den Treibern würde ich auf Crimson setzen, nicht auf den älteren Catalyst. Aber wie gesagt, Mutmaßungen ohne Detailkenntnisse sind sinnlos :)

    Ich spiele die alten DX-Spiele übrigens in einer virtuellen Maschine mit XP und alten Treibern. Reicht völlig aus und läuft sogar unter Windows 10 richtig gut. Deine 570 ist hinüber. Pixelschnee ist erst der Anfang. :)
    0
  • fffcmad
    Jepp. Die GTX480/ 570+ wuerde ich ohne 3rd-Party Kuehler nicht nutzen. Die sterben sonst nach Ablauf der Garantie Du hattest also eher Schwein, wohl auch, weil es eine kleinere Karte war.

    Das mit dem HW-Cursor kann ich nicht bestaetigen, das muss einen anderen Grund haben. Auch die plastischere Darstellung halte ich fuer einen Placeboeffekt. Ich habe eher die Erfahrung, das AMDs 3DNow Probleme macht.

    Man kann es gut bei 3DMark 99Max sehen. Man hat bei 3DNow vielleicht mehr FPS pro Sekunde, aber wenn man genau hinschaut, ist die optische Darstellung weniger fluessig, als wenn SSE genutzt wird. Mit SSE hat man dort eine etwas niedrigere Framerate. Aber die optische Darstellung ist wesentlich weicher. Das faellt umso mehr auf, je mehr FPS man erreicht und je schneller der Monitor ist. 640x480 ging frueher sehr oft mit 160Hz, man kann es gut vergleichen und unterscheiden. Also es ist gut moeglich, das sich HW-Cursor von beieden Grafikkartenherstellern irgendwie unterscheiden, aber unwahrscheinlich. Denn das ist standardisiert.

    Bei alten Spielen kann man generell sagen: Finger weg von ATI. ATI hat hier -normalerweise- die niedrigere Framerate, mehr Bugs oder einige alten Spiele wollen ueberhaupt nicht. Nvidia hat eigentlich nur einen Nachteil zusammen mit ATI-Karten: Mit Einfuehrung der Geforce 5 und den Detonator-Treibern 5x wurden 8-Bit Texturen und 16Bit-Dithering entfernt. (Eine Geforce 4 mit bis zum letzten 4x Detonator kann das darstellen) Bei ATI war der Support dafuer noch bei der nachfolgenden Generation vorhanden, wurde dann aber auch aus den Treibern entfernt. Diese Features waren aber sehr wichtig fuer viele Spiele, denn 16Bit Dithering macht in alten Spielen einen großen Unterschied in der Grafikqualitaet (Sonst hat man Color Banding) und 8Bit-texturen sind auch in vielen Klassikern (FF7/ FF8/ Kings Quest 8 usw) genutzt.

    Spiele die beschissen laufen, und zwar nur mit ATI, sind Unreal oder UT99. Laufen zu schnell etc. (Der Effekt kommt etwa ab einem Pentium3 1,4GHz) Mit Nvidia ist alles fein. In UT2k3 - Unreal 3 usw hat man mit ATI-Karten durchweg eine niedrigere Framerate als mit Nvidia Karten. Obwohl man sagen muss, das Unreal 2k3 und 2k4 Trueform auf aelteren ATI-Karten unterstuetzt, solange CPU und Treiber mitspielen.

    Fuer alte Spiele deswegen immer Nvidia. Auch wenn nicht mehr alles geht, in Sachen Kompatibilitaet problemlos. Bei ATI gibt's eher Glitches und Blackscreens.
    0