Nachgemessen: Ist AMDs Hotfix für die Radeon RX 480 noch aktiv?

Nach einigen Leserzuschriften und Forenhinweisen haben wir nachgemessen, ob AMDs Hotfix für die Auslastung des Mainboard-Slots ("Kompatibilitätsmodus") auch im Crimson-Treiber 16.9.1 noch funktioniert oder ob das Feature heimlich entfernt wurde.

Nein, AMD hatte es bei und mit dem Launch der Radeon RX 480 im Referenzdesign wirklich nicht leicht. Neben der anfänglich schlechten Verfügbarkeit und den daraus folgenden hohen Straßenpreisen war es vor allem die Stromstärkenproblematik, die der Karte zu schaffen machte. Denn die etwas unglückliche Aufteilung der Spannungswandlerzüge auf die jeweiligen Versorgungschienen resultierte in einer Normverletzungen der von der PCI Express SIG festgelegten Maximalstromstärke.

Weitere interessante Tests und Artikel zum Thema Grafikkarten
>>>   Pascal-Roundup: GeForce GTX 1070 und GeForce GTX 1080 im Vergleich
>>>   Pascal-Roundup #2: Nvidias GeForce GTX 1060 im Vergleich
>>>   Nvidia GeForce GTX 1080 Founders Edition (Launch-Artikel)
>>>   Nvidia GeForce GTX 1070 Founders Edition (Launch-Artikel)
>>>   Effizienzanalyse & Leistungsaufnahme: GeForce GTX 1070/1080 vs. GTX 980 Ti
>>>   AMD Radeon RX 480 (Launch-Artikel)
>>>   AMD Radeon RX 480 im Detail: Leistungsaufnahme, Board-Layout & Normen
>>>   AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich
>>>   Maxwell-Roundup: GeForce GTX 970 und GeForce GTX 980 im Vergleich

Über diesen Umstand hatten wir ja sowohl im Launch-Artikel AMD Radeon RX 480 im Test: Kann Polaris gegen Pascal kontern? als auch im detaillierten Follow-Up AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen ausführlich berichtet.

AMD hatte in sehr kurzer Zeit mit dem sogenannten "Kompatibitätsmodus" eine Treiber-Lösung parat, die wir im Artikel AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich genau unter die Lupe nahmen. Genau dieser Modus und die über das I2C-Protokoll vorgenommen Verschiebung der Balance zwischen den Spannungswandlerzügen war nun wiederum Gegenstand des uns erreichten Feedbacks.

Doch welchen Grund sollte AMD haben, diesen Modus zu entfernen - zumal man ihn eh erst aktivieren muss? Doch bevor wieder übereifrige Zeitgenossen versuchen, die eine oder andere Sau durchs Dorf zu treiben, haben wir noch einmal genau nachgemessen und alle drei relevanten Treiber detailliert miteinander verglichen.

Das betrifft den Launch-Treiber Crimson 16.6.2, den vorletzen Crimson-Treiber 16.8.2 und den aktuellen Hotfix-Treiber 16.9.1, der uns als Verursacher gemeldet worden war. Die Lösung war so einfach wie überraschend - doch immer schön der Reihe nach.

Zur Erinnerung: Wie wir generell messen und welche Methodik sowie welches Equipment wir dabei benutzen, kann man jederzeit im Artikel Grundlagen GPUs: Leistungsaufnahme, Netzteilkonflikte & andere Mythen nachlesen.

Stromstärken und Leistungsaufnahme der einzelnen Schienen

Wir vergleichen nun die drei Treiber unter identischen Bedingungen mit dem gleichen Benchmark, der schon beim Launch zum Einsatz kam. Da die Norm - wie im obigen Link ausführlich begründet - in erster Linie die fließenden Ströme umfasst (denn nur die sind wirklich relevant), stellen wir dieses Ergebnisse natürlich voran.

Wir sehen als Erstes, dass sich beim aktuellen Crimson 16.9.1 definitiv nichts verschlechtert hat! Ein Foren-Eintrag in Overclockers.net gibt dann auch bereits die mögliche Antwort, was User zu solchen Aussagen gebracht haben mag. Doch dazu gleich noch mehr, denn genau in den Ursachen steckt auch der eigentliche Grund, warum wir uns zu diesem Review veranlasst sahen. Zunächst widmen wir uns aber noch kurz den Zahlen:

Crimson 16.6.2Crimson 16.6.2Crimson 16.8.2Crimson 16.8.2Crimson 16.9.1Crimson 16.9.1

    

Die Stromstärke liegt mit 5,8 Ampere bei beiden Treibern, die den Kompatibilitätsmodus nutzen, nur minimal (exakt 0,3 Ampere) über dem, was die SIG-Norm mit maximal 5,5 Ampere vorschreibt. So gesehen ist also alles bestens und die Werte haben sich nicht geändert.

Für diejenigen, die mit Stromstärken nichts anfangen können, haben wir natürlich das Ganze auch noch einmal in Watt, weisen aber gleichzeitig auch nochmals darauf hin, dass es eben keine 75 Watt auf der 12-Volt-Schiene sind, wenn die Spannung bei genau 12 Volt liegt, sondern nur 66 Watt, auch wenn dieser Irrtum leider weit verbreitet und die Norm mittlerweile auch etwas überholt ist.

Crimson 16.6.2Crimson 16.6.2Crimson 16.8.2Crimson 16.8.2Crimson 16.9.1Crimson 16.9.1

    

Ursachenforschung: BIOS-Spielereien und Treiber-Settings

Fangen wir mal mit Letzterem an. Es ist uns mehrmals nämlich selbst aufgefallen, dass ein Treiber-Update manche Grundeinstellungen gnadenlos mit den Default-Werten überschreibt. Da dies sporadisch erfolgt und offensichtlich auch kein System dahinter steckt, gibt es eigentlich nur einen Rat für Besitzer der Referenzkarte, die den Modus nutzen möchten: Nach jedem Update ist zu überprüfen, ob der Kompatibilitätsmodus noch aktiviert ist.

Die andere Ursache ist ein wenig komplexer und im Spieltrieb der Anwender zu suchen. Mittlerweile gibt es nämlich Tools und Möglichkeiten, mit denen man unter Verwendung des aktuellen Treibers eigene BIOS-Modifikationen vornehmen bzw. heruntergeladene und modifizierte Firmware auch ohne gültige Signatur flashen kann.

Achtung!
Das Flashen solcher Modifikationen auf die Referenzkarte verhindert, dass sie vom Treiber noch als solche erkannt wird. Da der Kompatibilitäts-Modus eine rein Software-basierte Lösung innerhalb des Treibers ist, funktioniert er in diesen Fällen nicht mehr.
Darüber hinaus könnte Firmware von bestimmten Board-Partner-Karten, die auf ein anderes Phasen-Design/Balancing setzen, die Referenzkarte in allen Modi sogar schädigen bzw. zumindest zu einem instabilen Betrieb führen.

Wir raten aus diesem Gründen allen weniger versierten Anwendern ab, BIOS-Mods unbekannter Herkunft und mit nicht klar ausgewiesenen Änderungen zu verwenden. Wem die Performance der Referenzkarte nicht reicht oder wer sie sparsamer machen möchte, sollte dann in jedem Falle auf eine Software-Lösung setzen.

Doch auch bei solchen Tools kann es zu Problemen kommen, wie wir selbst feststellen konnten. Crimson nutzt für die Trickserei mit dem Kompatibilitäts-Modus nämlich das I2C-Protokoll, um mit dem PWM-Controller der Spannungsversorgung zu kommunizieren.

Überschreibt dann ein Übertaktungs-Tool die von Crimson gesetzten Werte wieder, ist zumindest die Funktion dieses Modus' wieder ausgehebelt. Man sollte also in jedem Fall vorher genau überlegen, was man wirklich zu tun im Begriff ist.

Und was ist mit dem Idle? Nichts, leider.

AMD hatte uns direkt nach dem Launch versprochen, sich auch um die sehr hohe Leistungsaufnahme im Idle zu kümmern. Da ja mittlerweile nun doch schon einige Monate ins Land gegangen sind, haben wir einfach noch einmal überprüft, ob sich hier etwas zum Positiven gewendet hat.

Dies ist jedenfalls bis jetzt nicht der Fall, was wir sehr schade finden. Denn diese unzeitgemäß hohen Werte von bis zu 17 Watt im Leerlauf hatten wir auch vor Jahren schon.

Fazit

Wer über den nicht funktionierenden Kompatibilitätsmodus jammert, ist also selbst schuld - sei es durch einen unbedachten BIOS-Mod oder Drittanbietersoftware zum Software-basierten Überschreiben von Vorgaben der Firmware. AMD kann in diesem Fall definitiv nichts dafür.

Man sollte einen solchen Fall also mit der nötigen Gelassenheit und dem richtigen Equipment angehen, bevor die Wogen der emotionalen Entrüstung wieder hochschlagen. Zumindest kann man daraus lernen, nicht jeder Modding-Blase blind zu folgen, wenn man die Folgen nicht abschätzen kann.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
23 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • capparezza
    Na, da kann wohl jemand seinen Aluhut wieder einpacken...
    0
  • Plitz
    Schöner Test. Die Autopsie Collage ist der Hammer!
    1
  • samserious
    Nebenbei wäre selbst im Fall der Fälle nur die Referenzkarte betroffen gewesen. Wie auch immer, schön mal etwas Aufklärung zu lesen.
    0
  • FormatC
    Anonymous sagte:
    Nebenbei wäre selbst im Fall der Fälle nur die Referenzkarte betroffen gewesen. Wie auch immer, schön mal etwas Aufklärung zu lesen.

    Dass es NUR die Referenz trifft, steht doch drin. allerdings ist das unsignierte BIOS-Gematsche auch nicht ohne. Wenn ich das BIOS einer 8-Pin-Karte nehme, wo alle Wandlerzüge am PCIe kleben und nur der RAM am Mainboard hängt, kann das Balancing arg ins Trudeln kommen, wenn man eine Split-Karte wie die Referenz damit beglückt. Dann gibts Glühwürmchen.

    Zitat:
    Die Autopsie Collage ist der Hammer!
    Es soll aber nicht implizieren, dass die Karte gestorben ist :P
    0
  • Ressorator
    Netter Artikel.

    Lohnt es sich eigentlich mit Boardpartner-Karten der RX480 ein CF System zu basteln?
    0
  • FormatC
    Wenn, dann würde ich aber eine Freesync-Monitor als Grundvoraussetzung sehen, damit es weniger microruckelt.
    1
  • Ressorator
    @ FormatC

    Danke. Das dachte ich mir auch. Gibt ja schon Geräte beim "BlödMarkt" für etwa 150 Euro.
    Also in meinem Fall dann 150 * 2 = 300

    Ich höre auch öfter wieder Leute schreiben, dass es auch negatives Skalieren gäbe im CF Betrieb. Kann mir das einer mal genauer verklickern, was das genau ist?
    0
  • MyRunner
    Negatives Skalieren meint sicher im CF Verbund langsamer als eine Singlekarte.
    0
  • Ressorator
    Liegt dieses Phänomen dann am Spiel, an der Treibersoftware oder gar an der Hardware?
    0
  • MyRunner
    Eher an der Implementierung vom Spiel im Zusammenspiel mit Treiber und evtl. vorhandenen SLI/CF Profilen fuer das Spiel. Die Hardware kann da nix fuer.

    Aber wenn Du schreibst: 2x150€, dann ist doch da sicher eine 460er Karte gemeint? Da ist es besser, die 300€ in eine 470er Karte zu investieren. Laeuft sicherer und schneller.
    1
  • Ressorator
    Nein, die 300 Euro waren waren die Kosten für 2 Monitore. Ich wollte zwei 480'er im CF laufen lassen mit zwei 24 Zoll Full HD FreeSync-Monitoren die sagen wir mal 60 bis 75 Bilder pro Sekunde abkönnen. 75 wäre schon hübsch. Und AMD Karten spielen wohl DVD's immer noch besser ab als NVIDIA Karten. Meine derzeitige GTX 980 tut sich da nämlich schwer.
    0
  • FormatC
    Naja, also zwei 24" sind sicher auch nicht der Weisheit letzter Schluss. Man hat da immer den Rahmen in der Mitte. Für 300 Euro gibts sicher auch schon 27" Monitore, da hat man mehr davon. ich habe mir mittlerweile einen 40" UHD hingestellt - Excel fetzt und Spielen geht auch. Allerdings nur mit einem 1080er SLI, eine Karte ist zu lahm.
    0
  • Ressorator
    Mir reichen zwei 24'er. Meine Augen sind leider nicht mehr die Besten. Der linke zum spielen und der rechte zum Videos reinzwiebeln damit das 80 Sekunden-Intervallklicken in Neocron nicht so langweilig wird. Gelegentlich will ich auch Videos aus anderen Games aufzeichnen und ich hoffe dass zwei Karten das recht streichzart hinbekommen. Ich denke da wird wieder viel Trial & Error an der Tagesordnung sein um das beste Setup dafür zu finden. Aber was sein muss das muss eben sein. Und die Rahmen von den Monitoren stören mich nicht wirklich. Wenn ich lange genug spiele, scheinen die wie von Zauberhand zu verschwinden.
    0
  • samserious
    Anonymous sagte:

    Dass es NUR die Referenz trifft, steht doch drin.


    Etwas anderes wollte ich auch nicht unterstellen. Nur kam die ganze "Debatte" kaum darauf zu sprechen. Wichtig ist ja immer nur, wie böse alles wäre..
    0
  • FormatC
    Der Nachtest ist reine Prävention, da hier diverse Meldungen aufgepickt wurden. Ich finde auch das Watt-Tool, das auf AMDs Treiber aufsetzt, nicht ganz problemfrei. Hier werden nämlich AMDs eigene Vorgaben galant überbügelt. Kann gut sein, aber nur dann, wenn man weiß, was man da wirklich macht und vor allem auch, wie man es nachmessen und prüfen kann.

    Warum zu Hölle AMD jedoch die Signaturen aufgegeben hat, weiß ich auch nicht. Jetzt kann jeder Werte ins BIOS reinpressen, die absurder nicht sein könnten.
    0
  • zeedy
    Ist die hohe Leistungsaufnahme im Idle doch nicht einfach ein Treiberbug? Sonst wüsste ich nicht warum AMD es ignoriert. 16W im Idle sind für eine kleine Mittelklasse GPU einfach nur schlecht.
    0
  • Ressorator
    @ zeedy

    Die 6 Watt die so eine Karte im Idle mehr verbraucht als eine 1060 kann man vernachlässigen.
    0
  • Plitz
    Man kann vieles ignorieren, aber am Ende addiert sich sowas eben. Und wenn der Lüfter hinten raus nur mit 50 Umdrehungen mehr drehen muss um den PC im Idle kalt zu halten ... kann rein akustisch schon etwas ausmachen. Natürlich sind es nur 6 Watt ... aber es sind eben auch 6 Watt.
    0
  • FormatC
    Die Nividia-Boardpartnerkarten der 1070/1080 verballern plötzlich auch 6 Watt mehr, was am zu hohen Basistakt liegt. Den müssen sie aber anheben, weil NV die Zahl der Boost-Steps begrenzt hat und man sonst das hohe Werks-OC vergessen kann.

    Das gleiche Problem hat AMD hierbei offensichtlich auch. Die 300 MHz sind einfach schon zu viel. Allerdings benötigt man die, um die Karte stabil zu betreiben und um auf den Endtakt zu kommen. Eigentlich ein weiterer Beleg dafür, dass die RX480 eigentlich mal auf ca. 1,1 GHz ausgelegt war.
    0
  • Ressorator
    Wieviel Watt würde die RX 480 eigentlich mehr ziehen wenn man zwei oder gar 3 Monitore dran hätte?

    Würde bei einem CF System aus zwei RX 480 Modellen dann die Karte an welcher die Monitore dran wären mehr Watt brauchen als die zweite Karte oder hätte die zweite Karte dann auch mehr Verbrauch?

    Kann diese Turbo-Funktion bei den AMD Karten deaktiviert oder zumindest so eingestellt werden damit man nur einen Takt für Idle und einen für Last hätte? Meine alte GTX 980 von EVGA erhöht immer die Spannung wenn ich versuche den Turbo zu begrenzen. Was an sich schon ein interessantes Phänomen ist.
    0