Das Warten hat endlich ein Ende: AMD Radeon RX Vega64 im Test

Details zu Architektur und HBM2-Speicher

Auch auf die Gefahr hin, dass wir uns wiederholen, wollen wir vorab noch einmal auf die wichtigsten Neuerungen bei Vega eingehen. Mit der Vega64 bietet AMD nämlich nach der Vega Frontier Edition nunmehr eine neue GPU-Generation an, in die über 200 Änderungen und Verbesserungen bei der Umgestaltung der Architektur geflossen sein sollen. Auch wenn es am Ende wohl eher auf eine Art neue GCN-Generation hinausläuft: AMD betonte erneut, dass es sich um eine komplett neu geschaffene Lösung handelt.

HBM2 als skalierbare Speicherarchitektur

Als ersten Anhaltspunkt für Vegas Architekturänderung führt man seitens AMD den Speicher und die gesamte, dazugehörige Infrastruktur ins Feld. Grund genug für diesen Fokus ist der stetig wachsende Speicherbedarf. Sowohl AMD und Nvidia arbeiten beide separat an Möglichkeiten, um den Host-Prozessor-Overhead reduzieren, sowie den Durchsatz zu maximieren und auf diese Weise Engpässe beim Zugriff auf die GPU zu minimieren – insbesondere diejenigen, die angesichts der umfangreichen Datenmengen immer wieder auftreten können.

Es kommt somit darauf an, noch mehr Speicherkapazitäten noch näher an die GPU zu bringen und dabei die Kosten nicht explodieren zu lassen. Wie es scheint, hat AMD Vega mit einer deutlich flexibleren Speicherhierarchie einen großen Schritt näher an dieses wichtige Ziel gebracht. Mit HBM2 nutzt Vega dafür eine interessante, neue Komponente und man nennt diese Ansammlung von On-Package-Speicher, den man früher ziemlich unspektakulär auch schon als Frame-Buffer bezeichnete, nunmehr glanzvoll "High Bandwidth Cache".

Bereits bei HBM (und Fiji) hatte AMD die Vision, den leistungsfähigsten Speicher so nah wie nur möglich an die GPU zu bringen. Das schließt auch den Arbeits- und Datenspeicher des gesamten Systems ein. Und auch wenn dies deutlich langsamere Technologien in diese Infrastruktur miteinschließt, sollte man HBM2 als konsequente Fortschreibung des eingeschlagenen Weges sehen. Denn eine bis zu achtfache Erhöhung der Kapazität eines jeden Stapels im direkten Vergleich zur ersten Generation ist durchaus ein beachtlicher Fortschritt, zumal auch die Verdopplung der Bandbreite pro Pin den maximal möglichen Durchsatz des Ganzen deutlich vergrößern hilft.

Das könnte die größten Auswirkungen auf die Gaming-Performance haben, sofern es sich auf das eigentliche Speichersubsystem bezieht. AMD gibt zudem dem neuen "High Bandwidth Cache"-Controller (HBCC), der mehr als der bisherige Speicher-Controller leisten muss, immerhin virtuell adressierbare 512 Terabyte für extrem große Datenmengen mit auf den Weg. Nur nutzen muss man es dann natürlich auch. Vega ist Dank HBCC jedoch in der Lage, mittels verschiedener programmierbarer Techniken Speicherseiten noch feiner abgestuft zu bewegen. So kann eine erhaltene Datenanforderung über den DMA-Transfer asynchron realisiert werden, während die GPU bereits zu einem anderen Thread gewechselt ist, um dort unterbrechungsfrei weiterarbeiten zu können.

Damit erhält der Controller die Daten faktisch "on-demand", er kann sie aber auch vorausschauend zurückliefern. Dazu kommt, dass im HBM abgelegte Informationen im Systemspeicher wie ein zusätzlicher Cache einfach repliziert werden können oder aber der HBCC - was noch deutlich wichtiger scheint - mit einer einzigen Instanz auskommt, um Platz sparen und den Overhead reduzieren zu können.

Neue programmierbare Geometrie-Pipeline

Erinnern wir uns kurz zurück: Die erste Hawaii-GPU auf der Radeon R9 290 X brachte seinerzeit einige durchaus bemerkenswerten Verbesserungen im Vergleich zur Tahiti-GPU auf der Radeon HD 7970 mit. Eine davon betraf ein verbessertes Frontend mit nunmehr vier statt zwei Geometrie-Einheiten, von denen jede einzelne wiederum jeweils einen Geometry-Assembler, einen Vertex-Assembler und eine Tessellation-Einheit besaß. 

Die darauffolgende Fiji-GPU als Radeon R9 Fury X setzte dann zwar erneut auf diese bereits von Hawaii bekannte Konfiguration, brachte aber dafür einige andere Neuerungen - beispielsweise eine deutlich gesteigerte Tessellation-Performance - mit. Aktuell nutzt die Ellesmere-GPU (Radeon RX 480) eine neue Handvoll Techniken, um aus der gleichen Konstellation mit den vier Geometrieeinheiten durch diverse Filteralgorithmen bzw. das Verwerfen unnötiger Polygone einen Leistungsvorteil herauszuarbeiten.

AMD versprach uns bereits letztes Jahr, dass Vega nunmehr in der Lage sein soll, in der Spitze immerhin bis 11 statt der maximal vier Polygone per Taktzyklus abarbeiten zu können, was dem bis zu 2,75-fachen entspricht. Dies ist die Folge dessen, was AMD als "New Primitive Shader Stage" in die Geometrie-Pipeline eingefügt hat. Anstelle der in der Hardware fest verankerten, dadurch jedoch unflexiblen Funktionen nutzt man jetzt ein flexibel ausgelegtes Shader-Array für die Verarbeitung der anfallenden Polygone.

Vergleichen kann man dies am ehesten mit der Funktionalität eines Compute-Shaders für die Verarbeitung der Geometrieaufgaben - leicht und programmierbar sowie mit der Fähigkeit ausgestattet, nicht benötigte Polygone mit einer hohen Rate auch verwerfen zu können. Natürlich enthält diese Shader-Funktionalität auch vieles von dem, was auch DirectX mit seinen Vertex-, Hüllkurven-, Domain- und Geometrie-Shader-Stufen anbietet, aber man möchte flexibler sein, in welcher Reihenfolge und Priorität die eigentliche Abarbeitung erfolgt.

Das Frontend profitiert auch von einem verbesserten "Workgroup Distributor", dem es gelingen soll, das Load-Balancing rund um die nunmehr programmierbare Hardware möglichst optimal zu gewährleiten.

Die Vega-NCU (Next-Generation Compute Unit)

Mit seinen mittlerweile umfangreich am Markt vertretenen Pascal-basierten GPUs bedient Nvidia derzeit jedes Segment. Der größte und teuerste GP100-Prozessor bietet eine FP32-Spitzenleistung von bis zu 10,6 TFLOPS (bei maximalem Boost-Takt). Ein 1:2-Verhältnis der FP64-Kerne ergibt somit eine Spitzenleistung bei doppelter Genauigkeit von bis zu 5,3 TFLOPS. Die Unterstützung von FP16 (Half-Precision) beim Berechnen und Speichern ermöglicht dann bis zu 21,2 TFLOPS.

Die für den normalen Heimanwendermarkt konzipierten GP102- und GP104-GPUs bieten zwar immer noch die für Ihre Shader-Anzahl äquivalente FP32-Performance, aber sowohl die FP64- als auch die FP16-Performance werden künstlich beschnitten, sodass diese deutlich günstigeren Karten nicht sonderlich gut für bestimmte wissenschaftliche Berechnungen geeignet sind.

Im Gegensatz dazu ist AMD mit Vega und insbesondere der Frontier Edition bestrebt, auch außerhalb der vorgestellten MI-Karten die volle Rechenleistung an den Endkunden weiterzugeben und somit gegenüber den Mitbewerberkarten einen gewissen Mehrwert für normale Endanwender zu schaffen. Zumindest als Marketing-Ansatz ergibt dies sogar einen Sinn, denn man ist sich sicher, damit eine komplett neue Zielgruppe zu erreichen.

Der CU-Block mit seinen 64 zu IEEE 754-2008 kompatiblen Shadern bleibt als solcher bestehen - nur, dass AMD ihn jetzt NCU (Next-Generation Compute Unit) nennt, der auch die Unterstützung für neue Datentypen beinhaltet. Logischerweise ergeben dann diese 64 Shader samt Ihrer Maximalleistung von zwei Gleitkomma-Operationen pro Zyklus ein Maximum von 128 32-Bit-Operationen pro Takt.

Nutzt man mit F16 gepackte Berechnungen, ergeben sich daraus bereits bis zu 256 16-Bit-Operationen pro Takt.  AMD schlussfolgert daraus, dass es unter optimalen Voraussetzungen sogar bis zu 512 8-Bit-Operationen pro Taktzyklus sein könnten. Auch bei FP64 (Double Precision) scheint AMD kein Problem zu haben, die volle, unbeschnittene Leistung auf die Allgemeinheit loszulassen.

Der Anstoß für diese Flexibilität dürfte wohl aus der Konsolenwelt gekommen sein. Immerhin wissen wir ja, dass Sonys PlayStation 4 Pro bis zu 8,4 TFLOPS bei der FP16-Performance erreichen kann, also das Zweifache ihrer Leistung bei 32-Bit-Operationen. Oder vielleicht sind auch AMDs Bestrebungen, im Bereich des Machine Learning und Training mit Produkten wie der MI25 Fuß zu fassen, der eigentliche Auslöser.

Unter Umständen ist es am Ende sogar beides, um auch in Bereichen außerhalb von Nvidias aktueller Marktpräsenz zu wildern. In beiden Fällen können neue Konsolen, ganze Rechenzentren und natürlich auch PC-Gamer sowie semi-professionelle Anwender im gleichen Maße profitieren. Neben dem Umstand, dass die NCUs auch für höhere Taktraten optimiert worden sind, setzt gleichzeitig auch auf größere Anweisungspuffer (Instruction Buffer), um die Recheneinheiten über die gesamte Zeit möglichst gut auslasten zu können.

Next-Generation Pixel Engine und ein Fragezeichen

Kommen wir nun zu dem, was AMD als "Draw Stream Binning Rasterizer" bezeichnet und das als Ergänzung des traditionellen ROP in der Lage sein soll, die Performance zu steigern, sowie trotzdem gleichzeitig auch noch Energie zu sparen.

So soll es ein spezieller Cache auf dem Chip ermöglichen, dass der Rasterizer die Daten für sich überschneidende Polygone nur einmal bearbeiten muss und all jene Pixel weglässt, die in der fertigen Szene sowieso nicht sichtbar wären.

Der zweite Punkt ist der, dass AMD seine Cache-Hierarchie generell und grundlegend so geändert hat, dass die Back-Ends für das Rendering nun direkt am L2-Cache angebunden sind.

In den Architekturen vor Vega besaß AMD weder für nicht-kohärente Pixel noch die Texturen einen passenden Speicherzugriff, der es den einzelnen Pipelinestufen ermöglicht hätte, diese über einen gemeinsam genutzten Punkt zu synchronisieren. So wurde beispielsweise eine Textur, die als Resultat einer Szene für die spätere Verwendung gerendert wurde, wieder den ganzen Weg zurück bis hin zum Grafikspeicher außerhalb des Grafikchips geschickt, bevor sie dann erneut aufgerufen werden konnte. Dies alles umgeht AMD nun mit dem kohärenten Zugriff, welcher - so sagt es jedenfalls AMD - immer dann eine enorme Performance-Steigerung bieten soll, wenn beispielsweise Deffered Shading zum Einsatz kommt.

Aber - ohne jetzt bereits ausführlich spoilern zu wollen - so recht hat diese versprochene Rakete auch mit dem Einsatz des neuesten Treibers noch nicht zünden können. BIOS-Update, Treiber oder doch nichts - alles ist im Verlaufe der Zeit sicher noch möglich. Und so wird es wohl darauf hinauslaufen, was schon bei Fiji und Hawaii der Fall war - guter Wein muss erst einmal reifen (vor allem roter). Aber eine Sensation? Warten wir auf die Benchmarks der nächsten Seiten.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
33 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • moeppel
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Leider habt ihr keine 56 erhalten - Die 56 ist definitiv die bessere Karte.

    GCN wurde weit über seinen Sweet-Spot geprügelt um irgendwie auf 1080 Niveau zu landen.

    Bleibt letztlich die Frage der Verfügbarkeit, des Preises und des Interesses. Letztlich ein Jahr zur spät zur Party.

    Für 600€ (CaseKing) uninteressant, wenn man 1080 TIs in Deals für <700€ bekommt. Wenn es der Straßenpreis nicht regeln wird, werden Boardpartner auch noch (deutlich) drüber liegen.
    0
  • Plitz
    Mir fehlt bei der Leistungsaufnahme irgendwie der Bezug zu anderen Mitbewerbern. Die Zahlen lassen sich ja alle wirklich schön lesen, aber wie verhält es sich zu der Konkurrenz. Ich musste jetzt extra euren 1080 Roundup googlen, um die Ergebnisse einordnen zu können. Aber als ich den Vergleich dann vor den Augen hatte wurde mir auch relativ schnell klar, wieso man diesen direkten Vergleich lieber nicht gezeigt hat ;)
    0
  • ShieTar
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.
    0
  • amd64
    Brachiale Leistung (SP), aber säuft wie ein Loch und kriegt viel zu wenig FPS auf die Strasse.
    Also nur für FreeSyncer und evtl. noch als Nano Version interessant?

    Wo ist der Wundertreiber, wenn man einen braucht?
    :/
    0
  • moeppel
    Anonymous sagte:
    Anonymous sagte:
    Die reinen FPS Zahlen sind dann dennoch besser als erwartet. Alles herum jedoch mehr als verbesserungswürdig.

    Ich würde ja behaupten, eher deutlich schlechter als erwartet. Die Vega 64 unterscheidet sich ja im Grunde durch nichts als den Takt von der Fury X, scheint im Schnitt aus 50% Takterhöhung aber nur 20%-30% mehr FPS in den Spielen machen zu können.

    Mit dem Resultat das AMD inzwischen die 4096 Shader braucht, nur um etwa auf Augenhöhe mit der 2560-Shader-Karte von NVidia zu kommen. Da war das Verhältnis zwischen der 290X und der GTX 780 noch deutlich besser. Man bekommt fast das Gefühl das AMD zu klein ist um CPUs und GPUs gleichzeitig zu entwickeln, und das die Architektur der Grafikprozessoren seit 4 Jahren kaum verbessert wurde, während sich das Team erfolgreich auf die ZEN-Entwicklung konzentriert hat.



    Mit 'besser als erwartet' bezog ich mich auf die eigene Erwartungshaltung, die ich von Vega über die letzten Woche erhalten haben.

    Wenn man Vega und Fury (X) nebeneinander stellt, muss man sich natürlich fragen was über die letzten 2 Jahre und ein 50% Shrink passiert ist. Die offensichtliche Antwort wäre da wohl 'Nichts' - auch wenn das vermutlich unfair wäre.

    Wie man es aber schafft so einen Behemoth zu bauen mit der Annahme, dass er Abnehmer findet, ist mir ein Rästel. Ich persönlich hätte Vega 64 vermutlich eingestampft. Der Unterschied der Performance ist marginal und der Verbrauch exponentiell höher bei der 56. Die CUs/Shader scheinen keinen nennensweren Unterschied zu machen.

    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.

    Einziger wehrmutstropfen: Rasterizing und andere 'Features' sind nach wie vor deaktiviert. Sprich der 'Wundertreiber' steht noch aus. Die 64 wird man damit aber vermutlich nicht aus dem Dreck ziehen können. Sollte sich die 56 damit deutlich mehr in 1080 positionieren, wäre die Karte in der Tat eine brauchbare Option.

    Mal sehen was die AIBs letztlich aus den Hüten zaubern werden. Mit einem Jahr Verspätung bei P/L Parität ist der Markt vermutlich schon sehr ge-/übersättigt.

    EDIT: Das Thema wurde auch auf Reddit aufgegriffen; https://i.redd.it/73fh55ivopfz.png ;)
    0
  • Tesetilaro
    wir werden sehen was treiber etc. noch bringen, ich bin optimistisch, auch wenn nach meiner unwichtigen Meinung AMD nicht furch gute treiber glänzt...

    trotzdem, solange ihr hier nett bleibt, könnt Ihr das noch wochenlang hoch und runter diskutieren ;)
    0
  • Chemidemi
    Ich sehe es wie Moeppel, die Karte liegt da wo sie zu erwarten war, wenn man auf die letzten Wochen blickt. Es war eigentlich alles bekannt und Wunder waren, zumindest für mich, nicht zu erwarten. Leider!
    Die Vega 56 könnte mit Übertaktung mit der Vega 64 gleichziehen, also ungefair auf 1080FE Niveau. Allerdings dürfte eine übertaktete 1080 FE mit entsprechender Kühlung die beiden AMD Karten wohl hinter sich lassen bzw. gleichziehen. Und das bei weniger Leistungsaufnahme. :/
    Der Preis geht in Ordnung mit 499€, allerdings wird Nvidia die 1080 wohl anpassen. Dann bleibt nur noch das Argument mit den günstigeren Monitoren mit FreeSync. Hatte mir überlegt eine Vega zu kaufen mit passenden Moni und meine 770 zu ersetzen, aber da sieht die 1080 schon attraktiver aus für mich. :(
    0
  • Plitz
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.
    0
  • moeppel
    Anonymous sagte:
    Vega 56 ist im Bios hart auf 300W beschränkt und es gibt derzeit keinen Weg dieses Limit zu umgehen, auch nicht mit Bios-Mod. Also leider ist diese Hoffnung schon verflogen.


    Da wird man noch einige Wochen/Monate warten müssen, ob im Zweifelsfall Hacker was reißen können.

    Die Vorstellung jedoch, dass man nun schon seine GPUs Jailbreaken muss, ist schon ein wenig absurd :D

    Mit Hardwarekastration durch unpatchbare BIOS Limits macht man sich aber keine Freunde. Das ist Sony Niveau von Kundenfeindlichkeit ;)

    Hoffentlich nehmen sich die Boardpartner kein Beispiel daran.
    0
  • alterSack66
    Der Verbrauch und der Preis passen irgendwie nicht zur Leistung.
    0
  • derGhostrider
    Verbrauch und Preis passen nicht zur Leistung, ebenso, wie die Marketingaussagen zu den grandiosen Verbesserungen.
    Wozu HBM, wenn NVidia ohne HBM derartig gut abschneiden kann? In den Benchmarks hätte ich zumindest bei 4k noch Vorteile für Vega erwartet.

    Es wird immernoch ein Wundertreiber erwartet:Wie lange sollen die Kunden denn warten? Vega ist ja nun auch nicht sooooo neu. AMD hatte schon lange genug Zeit, um Treiber zu programmieren, zu optimieren und fertig zu stellen. Die ersten Karten der Vega-Reihe sind nicht erst gestern fertig geworden.
    Ob nun etwas mehr Takt oder weniger, etwas mehr Speicher oder weniger - das wird für grundlegende Optimierungen an der Architektur irrelevant sein.
    Also wann soll da noch etwas passieren?

    Weiter verstehe ich auch nicht den Bezug im Artikel zu HBM2 und der Speicherbandbreite pro Pin. Dort wurde etwas gesagt wie, dass dies zur Erhöhung der Maximalbandbreite beigetragen hätte im Vergleich zu FuryX. - Ist die Bandbreite nicht sogar gesunken? Es sind ja nur noch zwei Speicherstapel im Einsatz... irgendwo hatte ich mal gelesen, dass durch Takt und Halbierung der Stapel die Bandbreite ebenfalls gelitten hätte.

    HBM2 ohne Sinn und zweck: Das hätten 4 Speicherstapel sein sollen - so bringt HBM keinen nennenswerten Vorteil. Nur noch ein PR-Argument, ein zahnloser Papiertiger.

    Schade, da hätte ich irgendwie erwartet, dass die Karte zwar in FPS nicht an der 1080 Ti vorbei kommt, aber vielleicht bei frametimes vorne liegt oder zumindest bei den hohen Auflösungen positiv überraschen kann. Tja. Soviel zu den Erwartungen.

    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?
    0
  • alterSack66
    Tja, der Wunderspeicher bringt wohl doch nicht so viel.
    0
  • ShieTar
    Anonymous sagte:
    Andererseits gab es ja auch schon Gerüchte, dass als Couterpart zur 1080 Ti eine Dual-GPU-Karte kommen sollte. Mit was für einer Verlustleistung? 400 bis 500 Watt?

    Naja, allem Anschein nach man bekommt man ja auch die Vega64 ja auf 200W gedrückt wenn man nicht auf dem allerletzten MHz Takt besteht. Ich würde aber eher auf 2xVega56, vielleicht auch mit leicht reduziertem Takt, tippen, die bekommt man dann noch gut in den 375W unter die man mit 2x8-Pin Spec-conform liefern kann.

    Hilft aber auch nichts wenn sie damit die 1080 Ti überholen, und ein paar Wochen später kommt NVidia dann mit Volta und 5120 effizienten Shadern auf den Markt.
    1
  • mareike
    ......Lieber spät als nie..... völliger Unsinn. Besser nicht als zu spät triffts besser. So könnte man heute auf die Idee kommen einem Trabant 602 zu vermarkten. Aber wer will den ? Wer braucht den ? Klar mit dem richtigen Testszenario "Wer schafft Tempo 100" ist der genau so gut wie was aktuelles. Absoluter Stillstand bei AMDs GPU Abteilung, die Ressourcen sind halt bei Ryzen gelandet.
    0
  • foldinghomalone
    @ShieTar: Ich dachte, dass Crossfire zwar prinzipiell funktionieren soll, aber von seiten der Treiberentwicklung nicht supportet wird. Dann dürfe 2x56 auch nicht zu empfehlen sein.

    Ich find sie ja gar nicht sooo schlecht. Solange sie preisleistungsmäßig mit den direkten Konkurrenten mithalten kann ist es i.O. Schade nur für AMD, dass sie ein Jahr verloren haben ggü. NV. Und auch für alle, die auf Vega gewartet haben.
    Der Energieverbrauch dürfte für die meisten Zocker eh keine Rolle spielen. Nur bzgl. Kühlkonzept und da gilt es sowieso (genauso wie bei NV) auf Partnerkarten zu warten.
    0
  • Jolly91
    Errinnert mich an die HD7970 wo auch alle auf die Treiber hofften, ein halbes Jahr und ein dutzend Treiber später rannte die dann doch einer GTX 680 davon.
    0
  • Gromran
    Anonymous sagte:
    Vermutlich hat Vega wieder irgendwo architekturiell einen immensen Flaschenhals.
    Der Flaschenhals ist AMD-typisch das deutliche schlechtere ROP/Shader-Verhältnis.
    0
  • big_k
    Dann will ich mal den "Bösen" spielen.
    Ich finde es ist seit Hawaii, vor fast 4 Jahren, die erste interessante AMD Karte, alles was danach kam war umgelabelt oder Einsteigerkarten oder mit 4GB verhundste Furys. Klar die Karte kam deutlich zu spät und die Leistungsaufnahme ist zu hoch und die Treiber nicht fertig aber wen, der AMD kennt, verwundert das jetzt ernsthaft?
    Wer noch ne alte AMD Karte und vielleicht ein freesync Monitor besitzt wird demnächst, wenn die Preise gefallen sind, bestimmt zugreifen.
    Ach und kein fanboy ich hab ne ti verbaut!
    0
  • Plitz
    Wieso kommt eigentlich jeder auf die Idee, dass nur die AMD Karten von den Miningpreisen betroffen sind?
    0
  • foldinghomalone
    Tut doch keiner, oder worauf beziehst du dich?
    0