Das Warten hat endlich ein Ende: AMD Radeon RX Vega64 im Test

Rise of the Tomb Raider

Vorbemerkung

Eigentlich wollten wir dieses Spiel diesmal endgültig aus der Benchmark-Suite entfernen, denn die Qualität der DirectX12-Implementierung ist nichts, was man sich und den Spielern wirklich wünscht. Trotzdem waren die Resultate, so merkwürdig und albern sie auch aussehen mögen, in ihrer Form und Absurdität einigermaßen reproduzierbar. Deswegen haben wir am Ende dann doch beschlossen, diese missratene Implementierung mit in dieses Review aufzunehmen.

Benchmarks in WQHD (2560 x 1440 Pixels)

Benchmarks in Ultra-HD (3840 x 2160 Pixels)

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
33 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Leider habt ihr keine 56 erhalten - Die 56 ist definitiv die bessere Karte.

    GCN wurde weit über seinen Sweet-Spot geprügelt um irgendwie auf 1080 Niveau zu landen.

    Bleibt letztlich die Frage der Verfügbarkeit, des Preises und des Interesses. Letztlich ein Jahr zur spät zur Party.

    Für 600€ (CaseKing) uninteressant, wenn man 1080 TIs in Deals für <700€ bekommt. Wenn es der Straßenpreis nicht regeln wird, werden Boardpartner auch noch (deutlich) drüber liegen.
    0
  • Plitz
    Mir fehlt bei der Leistungsaufnahme irgendwie der Bezug zu anderen Mitbewerbern. Die Zahlen lassen sich ja alle wirklich schön lesen, aber wie verhält es sich zu der Konkurrenz. Ich musste jetzt extra euren 1080 Roundup googlen, um die Ergebnisse einordnen zu können. Aber als ich den Vergleich dann vor den Augen hatte wurde mir auch relativ schnell klar, wieso man diesen direkten Vergleich lieber nicht gezeigt hat ;)
    0
  • ShieTar
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.
    0
  • amd64
    Brachiale Leistung (SP), aber säuft wie ein Loch und kriegt viel zu wenig FPS auf die Strasse.
    Also nur für FreeSyncer und evtl. noch als Nano Version interessant?

    Wo ist der Wundertreiber, wenn man einen braucht?
    :/
    0
  • moeppel
    Anonymous sagte:
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.



    Mit 'besser als erwartet' bezog ich mich auf die eigene Erwartungshaltung, die ich von Vega über die letzten Woche erhalten haben.

    Wenn man Vega und Fury (X) nebeneinander stellt, muss man sich natürlich fragen was über die letzten 2 Jahre und ein 50% Shrink passiert ist. Die offensichtliche Antwort wäre da wohl 'Nichts' - auch wenn das vermutlich unfair wäre.

    Wie man es aber schafft so einen Behemoth zu bauen mit der Annahme, dass er Abnehmer findet, ist mir ein Rästel. Ich persönlich hätte Vega 64 vermutlich eingestampft. Der Unterschied der Performance ist marginal und der Verbrauch exponentiell höher bei der 56. Die CUs/Shader scheinen keinen nennensweren Unterschied zu machen.

    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.

    Einziger wehrmutstropfen: Rasterizing und andere 'Features' sind nach wie vor deaktiviert. Sprich der 'Wundertreiber' steht noch aus. Die 64 wird man damit aber vermutlich nicht aus dem Dreck ziehen können. Sollte sich die 56 damit deutlich mehr in 1080 positionieren, wäre die Karte in der Tat eine brauchbare Option.

    Mal sehen was die AIBs letztlich aus den Hüten zaubern werden. Mit einem Jahr Verspätung bei P/L Parität ist der Markt vermutlich schon sehr ge-/übersättigt.

    EDIT: Das Thema wurde auch auf Reddit aufgegriffen; https://i.redd.it/73fh55ivopfz.png ;)
    0
  • Tesetilaro
    wir werden sehen was treiber etc. noch bringen, ich bin optimistisch, auch wenn nach meiner unwichtigen Meinung AMD nicht furch gute treiber glänzt...

    trotzdem, solange ihr hier nett bleibt, könnt Ihr das noch wochenlang hoch und runter diskutieren ;)
    0
  • Chemidemi
    Ich sehe es wie Moeppel, die Karte liegt da wo sie zu erwarten war, wenn man auf die letzten Wochen blickt. Es war eigentlich alles bekannt und Wunder waren, zumindest für mich, nicht zu erwarten. Leider!
    Die Vega 56 könnte mit Übertaktung mit der Vega 64 gleichziehen, also ungefair auf 1080FE Niveau. Allerdings dürfte eine übertaktete 1080 FE mit entsprechender Kühlung die beiden AMD Karten wohl hinter sich lassen bzw. gleichziehen. Und das bei weniger Leistungsaufnahme. :/
    Der Preis geht in Ordnung mit 499€, allerdings wird Nvidia die 1080 wohl anpassen. Dann bleibt nur noch das Argument mit den günstigeren Monitoren mit FreeSync. Hatte mir überlegt eine Vega zu kaufen mit passenden Moni und meine 770 zu ersetzen, aber da sieht die 1080 schon attraktiver aus für mich. :(
    0
  • Plitz
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.
    0
  • moeppel
    Anonymous sagte:
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.


    Da wird man noch einige Wochen/Monate warten müssen, ob im Zweifelsfall Hacker was reißen können.

    Die Vorstellung jedoch, dass man nun schon seine GPUs Jailbreaken muss, ist schon ein wenig absurd :D

    Mit Hardwarekastration durch unpatchbare BIOS Limits macht man sich aber keine Freunde. Das ist Sony Niveau von Kundenfeindlichkeit ;)

    Hoffentlich nehmen sich die Boardpartner kein Beispiel daran.
    0
  • alterSack66
    Der Verbrauch und der Preis passen irgendwie nicht zur Leistung.
    0
  • derGhostrider
    Verbrauch und Preis passen nicht zur Leistung, ebenso, wie die Marketingaussagen zu den grandiosen Verbesserungen.
    Wozu HBM, wenn NVidia ohne HBM derartig gut abschneiden kann? In den Benchmarks hätte ich zumindest bei 4k noch Vorteile für Vega erwartet.

    Es wird immernoch ein Wundertreiber erwartet:Wie lange sollen die Kunden denn warten? Vega ist ja nun auch nicht sooooo neu. AMD hatte schon lange genug Zeit, um Treiber zu programmieren, zu optimieren und fertig zu stellen. Die ersten Karten der Vega-Reihe sind nicht erst gestern fertig geworden.
    Ob nun etwas mehr Takt oder weniger, etwas mehr Speicher oder weniger - das wird für grundlegende Optimierungen an der Architektur irrelevant sein.
    Also wann soll da noch etwas passieren?

    Weiter verstehe ich auch nicht den Bezug im Artikel zu HBM2 und der Speicherbandbreite pro Pin. Dort wurde etwas gesagt wie, dass dies zur Erhöhung der Maximalbandbreite beigetragen hätte im Vergleich zu FuryX. - Ist die Bandbreite nicht sogar gesunken? Es sind ja nur noch zwei Speicherstapel im Einsatz... irgendwo hatte ich mal gelesen, dass durch Takt und Halbierung der Stapel die Bandbreite ebenfalls gelitten hätte.

    HBM2 ohne Sinn und zweck: Das hätten 4 Speicherstapel sein sollen - so bringt HBM keinen nennenswerten Vorteil. Nur noch ein PR-Argument, ein zahnloser Papiertiger.

    Schade, da hätte ich irgendwie erwartet, dass die Karte zwar in FPS nicht an der 1080 Ti vorbei kommt, aber vielleicht bei frametimes vorne liegt oder zumindest bei den hohen Auflösungen positiv überraschen kann. Tja. Soviel zu den Erwartungen.

    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?
    0
  • alterSack66
    Tja, der Wunderspeicher bringt wohl doch nicht so viel.
    0
  • ShieTar
    Anonymous sagte:
    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?

    Naja, allem Anschein nach man bekommt man ja auch die Vega64 ja auf 200W gedrückt wenn man nicht auf dem allerletzten MHz Takt besteht. Ich würde aber eher auf 2xVega56, vielleicht auch mit leicht reduziertem Takt, tippen, die bekommt man dann noch gut in den 375W unter die man mit 2x8-Pin Spec-conform liefern kann.

    Hilft aber auch nichts wenn sie damit die 1080 Ti überholen, und ein paar Wochen später kommt NVidia dann mit Volta und 5120 effizienten Shadern auf den Markt.
    1
  • mareike
    ......Lieber spät als nie..... völliger Unsinn. Besser nicht als zu spät triffts besser. So könnte man heute auf die Idee kommen einem Trabant 602 zu vermarkten. Aber wer will den ? Wer braucht den ? Klar mit dem richtigen Testszenario "Wer schafft Tempo 100" ist der genau so gut wie was aktuelles. Absoluter Stillstand bei AMDs GPU Abteilung, die Ressourcen sind halt bei Ryzen gelandet.
    0
  • foldinghomalone
    @ShieTar: Ich dachte, dass Crossfire zwar prinzipiell funktionieren soll, aber von seiten der Treiberentwicklung nicht supportet wird. Dann dürfe 2x56 auch nicht zu empfehlen sein.

    Ich find sie ja gar nicht sooo schlecht. Solange sie preisleistungsmäßig mit den direkten Konkurrenten mithalten kann ist es i.O. Schade nur für AMD, dass sie ein Jahr verloren haben ggü. NV. Und auch für alle, die auf Vega gewartet haben.
    Der Energieverbrauch dürfte für die meisten Zocker eh keine Rolle spielen. Nur bzgl. Kühlkonzept und da gilt es sowieso (genauso wie bei NV) auf Partnerkarten zu warten.
    0
  • Jolly91
    Errinnert mich an die HD7970 wo auch alle auf die Treiber hofften, ein halbes Jahr und ein dutzend Treiber später rannte die dann doch einer GTX 680 davon.
    0
  • Gromran
    Anonymous sagte:
    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.
    Der Flaschenhals ist AMD-typisch das deutliche schlechtere ROP/Shader-Verhältnis.
    0
  • big_k
    Dann will ich mal den "Bösen" spielen.
    Ich finde es ist seit Hawaii, vor fast 4 Jahren, die erste interessante AMD Karte, alles was danach kam war umgelabelt oder Einsteigerkarten oder mit 4GB verhundste Furys. Klar die Karte kam deutlich zu spät und die Leistungsaufnahme ist zu hoch und die Treiber nicht fertig aber wen, der AMD kennt, verwundert das jetzt ernsthaft?
    Wer noch ne alte AMD Karte und vielleicht ein freesync Monitor besitzt wird demnächst, wenn die Preise gefallen sind, bestimmt zugreifen.
    Ach und kein fanboy ich hab ne ti verbaut!
    0
  • Plitz
    Wieso kommt eigentlich jeder auf die Idee, dass nur die AMD Karten von den Miningpreisen betroffen sind?
    0
  • foldinghomalone
    Tut doch keiner, oder worauf beziehst du dich?
    0