Das Warten hat endlich ein Ende: AMD Radeon RX Vega64 im Test

Takt, Temperaturen und Geräuschemission

Temperaturverlauf und Taktrate

Die Lüfterregelung erfolgt recht konservativ, so dass die Maximaltemperatur von 85°C relativ schnell erreicht ist. Dann aber hat die Karte bereits ca. 6% ihrer Performance aus dem kalten Zustand eingebüßt, was fast ausschließlich über eine automatische Verringerung der Taktrate um ca. 9% erfolgt. Wir haben dafür jeweils in 5-Grad-Schritten eine mittlere Taktfrequenz errechnet, die sich aus all den Höhen und Tiefen des jeweiligen Runs ergab. Das reichte von 1533 MHz im kühlen Zustand bis hinab zu 1401 MHz im ungünstigsten und heißesten Fall.

Temperaturverlauf und Leistungsaufnahme

Jetzt wird es richtig interessant. Wir messen bei temperaturbedingten 1401 MHz im Durchschnitt ca. 285 Watt, bei 1533 MHz kalt rund 310 Watt. Für 9% mehr Takt benötigen wir demnach auch reichlich 9% mehr zugeführte Leistung und erhalten im Gegenzug ca. 6% mehr Gaming-Performance. Der Deal ist also erst einmal akzeptabel, zeigt aber auch, dass die Effizienzkurve bereits stark abfällt. Sehr viel mehr Spielraum bleibt also nicht.

Was man aber auch feststellen kann ist, dass die Leakage-Verluste offensichtlich keine große Rolle mehr spielen. Zeiten, in denen man bei gleichem Takt locker um die 40 Watt und mehr sparen konnte, wenn die Temperatur nur gering genug bleibt, sollten damit auch der Vergangenheit angehören. Immerhin etwas.

Temperaturverlauf GPU vs. HBM2 Speichermodule

Wir können, soweit die ausgelesenen Werte stimmen, von maximal 84 (85°C Peak) für die GPU und maximal 90°C (94°C Watt Peak im Torture-Test) für die HBM2-Module ausgehen. Letzteres scheint relativ hoch, wird aber auch als Obergrenze für den aktuellen GDDRX5-Speicher angesehen. Wir werden diese Werte natürlich auch bei weiteren Tests immer im Auge behalten, denn wir können die Genauigkeit der Sensorinterpretation aktuell nicht 100-prozentig bestätigen.

Beim Stresstest erfolgt die Erwärmung so schnell, dass die Kurven für den offenen und geschlossenen Aufbau enger beieinanderliegen.

Temperaturverläufe auf der Platine ("Wärmefluss")

Was wir sofort feststellen können: die Platine unterhalb des Sockels ist ca. 5°C kühler als die Werte, die wir innerhalb der GPU ermitteln konnten! Doch woran liegt das? Die Erklärung stand bereits auf Seite Zwei, denn wir konnten eine sehr dicke Package-Platine finden, die sich noch zwischen dem Interposer und dem PCB befindet. Außerdem liegt der Interposer ganz offensichtlich nicht vollflächig auf dem Package auf ("underfill issue"), sodass die Luft dazwischen fast schon wie eine Isolationsschicht wirkt.

Beim Stresstest liegt die Temperatur noch einmal etwas niedriger, was wohl auch auf die erhöhte Lüfteraktivität und die Regulierung durch den abgesenkten Takt zurückzuführen ist (siehe Leistungsaufnahme).

Geräuschemission ("Lautstärke")

Die gemessenen 48,2 dB(A) sind zwar der Maximalwert im Balanced-Mode, aber wir haben es um Turbo Mode auch schon mal bequem über die 50-dB(A)-Marke geschafft. Was bei der Vega Frontier Edition noch Anlass zum Lob war, ist nunmehr statt eines stillen Abendwindes bereits ein ordentlicher Orkan, mit dem man sich nonchalant die Ohren durchpusten lassen kann und der einfach nur recht hohen Leistungsaufnahme geschuldet ist. Eine GeForce GTX 1080 Ti FE mit 295 Watt maximalem Power Target ist allerdings auch nicht signifikant leiser.

Die hier vorgestellte Variante der Kühlung weicht deutlich von dem ab, was uns bei der Frontier Edition noch gefallen konnte. Zu aggressiv, zu heiß und am Ende logischerweise auch zu laut. Knapp auf Kante war thermisch und akustisch noch nie eine wirklich harmonische Ehe.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
33 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Leider habt ihr keine 56 erhalten - Die 56 ist definitiv die bessere Karte.

    GCN wurde weit über seinen Sweet-Spot geprügelt um irgendwie auf 1080 Niveau zu landen.

    Bleibt letztlich die Frage der Verfügbarkeit, des Preises und des Interesses. Letztlich ein Jahr zur spät zur Party.

    Für 600€ (CaseKing) uninteressant, wenn man 1080 TIs in Deals für <700€ bekommt. Wenn es der Straßenpreis nicht regeln wird, werden Boardpartner auch noch (deutlich) drüber liegen.
    0
  • Plitz
    Mir fehlt bei der Leistungsaufnahme irgendwie der Bezug zu anderen Mitbewerbern. Die Zahlen lassen sich ja alle wirklich schön lesen, aber wie verhält es sich zu der Konkurrenz. Ich musste jetzt extra euren 1080 Roundup googlen, um die Ergebnisse einordnen zu können. Aber als ich den Vergleich dann vor den Augen hatte wurde mir auch relativ schnell klar, wieso man diesen direkten Vergleich lieber nicht gezeigt hat ;)
    0
  • ShieTar
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.
    0
  • amd64
    Brachiale Leistung (SP), aber säuft wie ein Loch und kriegt viel zu wenig FPS auf die Strasse.
    Also nur für FreeSyncer und evtl. noch als Nano Version interessant?

    Wo ist der Wundertreiber, wenn man einen braucht?
    :/
    0
  • moeppel
    Anonymous sagte:
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.



    Mit 'besser als erwartet' bezog ich mich auf die eigene Erwartungshaltung, die ich von Vega über die letzten Woche erhalten haben.

    Wenn man Vega und Fury (X) nebeneinander stellt, muss man sich natürlich fragen was über die letzten 2 Jahre und ein 50% Shrink passiert ist. Die offensichtliche Antwort wäre da wohl 'Nichts' - auch wenn das vermutlich unfair wäre.

    Wie man es aber schafft so einen Behemoth zu bauen mit der Annahme, dass er Abnehmer findet, ist mir ein Rästel. Ich persönlich hätte Vega 64 vermutlich eingestampft. Der Unterschied der Performance ist marginal und der Verbrauch exponentiell höher bei der 56. Die CUs/Shader scheinen keinen nennensweren Unterschied zu machen.

    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.

    Einziger wehrmutstropfen: Rasterizing und andere 'Features' sind nach wie vor deaktiviert. Sprich der 'Wundertreiber' steht noch aus. Die 64 wird man damit aber vermutlich nicht aus dem Dreck ziehen können. Sollte sich die 56 damit deutlich mehr in 1080 positionieren, wäre die Karte in der Tat eine brauchbare Option.

    Mal sehen was die AIBs letztlich aus den Hüten zaubern werden. Mit einem Jahr Verspätung bei P/L Parität ist der Markt vermutlich schon sehr ge-/übersättigt.

    EDIT: Das Thema wurde auch auf Reddit aufgegriffen; https://i.redd.it/73fh55ivopfz.png ;)
    0
  • Tesetilaro
    wir werden sehen was treiber etc. noch bringen, ich bin optimistisch, auch wenn nach meiner unwichtigen Meinung AMD nicht furch gute treiber glänzt...

    trotzdem, solange ihr hier nett bleibt, könnt Ihr das noch wochenlang hoch und runter diskutieren ;)
    0
  • Chemidemi
    Ich sehe es wie Moeppel, die Karte liegt da wo sie zu erwarten war, wenn man auf die letzten Wochen blickt. Es war eigentlich alles bekannt und Wunder waren, zumindest für mich, nicht zu erwarten. Leider!
    Die Vega 56 könnte mit Übertaktung mit der Vega 64 gleichziehen, also ungefair auf 1080FE Niveau. Allerdings dürfte eine übertaktete 1080 FE mit entsprechender Kühlung die beiden AMD Karten wohl hinter sich lassen bzw. gleichziehen. Und das bei weniger Leistungsaufnahme. :/
    Der Preis geht in Ordnung mit 499€, allerdings wird Nvidia die 1080 wohl anpassen. Dann bleibt nur noch das Argument mit den günstigeren Monitoren mit FreeSync. Hatte mir überlegt eine Vega zu kaufen mit passenden Moni und meine 770 zu ersetzen, aber da sieht die 1080 schon attraktiver aus für mich. :(
    0
  • Plitz
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.
    0
  • moeppel
    Anonymous sagte:
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.


    Da wird man noch einige Wochen/Monate warten müssen, ob im Zweifelsfall Hacker was reißen können.

    Die Vorstellung jedoch, dass man nun schon seine GPUs Jailbreaken muss, ist schon ein wenig absurd :D

    Mit Hardwarekastration durch unpatchbare BIOS Limits macht man sich aber keine Freunde. Das ist Sony Niveau von Kundenfeindlichkeit ;)

    Hoffentlich nehmen sich die Boardpartner kein Beispiel daran.
    0
  • alterSack66
    Der Verbrauch und der Preis passen irgendwie nicht zur Leistung.
    0
  • derGhostrider
    Verbrauch und Preis passen nicht zur Leistung, ebenso, wie die Marketingaussagen zu den grandiosen Verbesserungen.
    Wozu HBM, wenn NVidia ohne HBM derartig gut abschneiden kann? In den Benchmarks hätte ich zumindest bei 4k noch Vorteile für Vega erwartet.

    Es wird immernoch ein Wundertreiber erwartet:Wie lange sollen die Kunden denn warten? Vega ist ja nun auch nicht sooooo neu. AMD hatte schon lange genug Zeit, um Treiber zu programmieren, zu optimieren und fertig zu stellen. Die ersten Karten der Vega-Reihe sind nicht erst gestern fertig geworden.
    Ob nun etwas mehr Takt oder weniger, etwas mehr Speicher oder weniger - das wird für grundlegende Optimierungen an der Architektur irrelevant sein.
    Also wann soll da noch etwas passieren?

    Weiter verstehe ich auch nicht den Bezug im Artikel zu HBM2 und der Speicherbandbreite pro Pin. Dort wurde etwas gesagt wie, dass dies zur Erhöhung der Maximalbandbreite beigetragen hätte im Vergleich zu FuryX. - Ist die Bandbreite nicht sogar gesunken? Es sind ja nur noch zwei Speicherstapel im Einsatz... irgendwo hatte ich mal gelesen, dass durch Takt und Halbierung der Stapel die Bandbreite ebenfalls gelitten hätte.

    HBM2 ohne Sinn und zweck: Das hätten 4 Speicherstapel sein sollen - so bringt HBM keinen nennenswerten Vorteil. Nur noch ein PR-Argument, ein zahnloser Papiertiger.

    Schade, da hätte ich irgendwie erwartet, dass die Karte zwar in FPS nicht an der 1080 Ti vorbei kommt, aber vielleicht bei frametimes vorne liegt oder zumindest bei den hohen Auflösungen positiv überraschen kann. Tja. Soviel zu den Erwartungen.

    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?
    0
  • alterSack66
    Tja, der Wunderspeicher bringt wohl doch nicht so viel.
    0
  • ShieTar
    Anonymous sagte:
    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?

    Naja, allem Anschein nach man bekommt man ja auch die Vega64 ja auf 200W gedrückt wenn man nicht auf dem allerletzten MHz Takt besteht. Ich würde aber eher auf 2xVega56, vielleicht auch mit leicht reduziertem Takt, tippen, die bekommt man dann noch gut in den 375W unter die man mit 2x8-Pin Spec-conform liefern kann.

    Hilft aber auch nichts wenn sie damit die 1080 Ti überholen, und ein paar Wochen später kommt NVidia dann mit Volta und 5120 effizienten Shadern auf den Markt.
    1
  • mareike
    ......Lieber spät als nie..... völliger Unsinn. Besser nicht als zu spät triffts besser. So könnte man heute auf die Idee kommen einem Trabant 602 zu vermarkten. Aber wer will den ? Wer braucht den ? Klar mit dem richtigen Testszenario "Wer schafft Tempo 100" ist der genau so gut wie was aktuelles. Absoluter Stillstand bei AMDs GPU Abteilung, die Ressourcen sind halt bei Ryzen gelandet.
    0
  • foldinghomalone
    @ShieTar: Ich dachte, dass Crossfire zwar prinzipiell funktionieren soll, aber von seiten der Treiberentwicklung nicht supportet wird. Dann dürfe 2x56 auch nicht zu empfehlen sein.

    Ich find sie ja gar nicht sooo schlecht. Solange sie preisleistungsmäßig mit den direkten Konkurrenten mithalten kann ist es i.O. Schade nur für AMD, dass sie ein Jahr verloren haben ggü. NV. Und auch für alle, die auf Vega gewartet haben.
    Der Energieverbrauch dürfte für die meisten Zocker eh keine Rolle spielen. Nur bzgl. Kühlkonzept und da gilt es sowieso (genauso wie bei NV) auf Partnerkarten zu warten.
    0
  • Jolly91
    Errinnert mich an die HD7970 wo auch alle auf die Treiber hofften, ein halbes Jahr und ein dutzend Treiber später rannte die dann doch einer GTX 680 davon.
    0
  • Gromran
    Anonymous sagte:
    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.
    Der Flaschenhals ist AMD-typisch das deutliche schlechtere ROP/Shader-Verhältnis.
    0
  • big_k
    Dann will ich mal den "Bösen" spielen.
    Ich finde es ist seit Hawaii, vor fast 4 Jahren, die erste interessante AMD Karte, alles was danach kam war umgelabelt oder Einsteigerkarten oder mit 4GB verhundste Furys. Klar die Karte kam deutlich zu spät und die Leistungsaufnahme ist zu hoch und die Treiber nicht fertig aber wen, der AMD kennt, verwundert das jetzt ernsthaft?
    Wer noch ne alte AMD Karte und vielleicht ein freesync Monitor besitzt wird demnächst, wenn die Preise gefallen sind, bestimmt zugreifen.
    Ach und kein fanboy ich hab ne ti verbaut!
    0
  • Plitz
    Wieso kommt eigentlich jeder auf die Idee, dass nur die AMD Karten von den Miningpreisen betroffen sind?
    0
  • foldinghomalone
    Tut doch keiner, oder worauf beziehst du dich?
    0