Heute hat AMD eine gute Gelegenheit zu beweisen, dass der FX-8350 als Spieleprozessor mehr fürs Geld bietet als die Konkurrenz, zumal er auch noch mit einem deutlich niedrigeren Straßenpreis antritt. Es mag zwar auf den ersten Blick so aussehen, als sei Intel im Vorteil, weil wir das aktuelle Ivy-Bridge-Flaggschiff für diesen Test verwenden – allerdings tritt auch AMD mit seinem derzeitigen Spitzenmodell an. Man darf aber eben den Preisunterschied zwischen den beiden CPUs nicht vergessen, und so muss Intel den Aufpreis von rund 110 Euro irgendwie rechtfertigen.
Doch schauen wir uns zuerst einmal an, wie unsere Kandidaten bei Leistungsaufnahme und Effizienz abschneiden:

Mit Werkseinstellungen fällt die Leistungsaufnahme des FX-8350 zwar höher als beim Intel-System aus, liegt aber noch im verschmerzbaren Rahmen. Der nackte Chart liefert uns aber nur einen Teil der Informationen, denn unter Volllast lief unser AMD-Chip trotz Werkseinstellungen nie mit den eigentlich normalen 4 GHz. Stand mit Prime95 eine Aufgabe an, die alle acht Kerne gleichermaßen belastete, konnten wir stattdessen beobachten, dass die CPU ihren Multiplikator und ihre Kernspannung absenkte, um ihr thermisches Limit bzw. die erlaubte maximale Leistungsaufnahme nicht zu überschreiten. Durch dieses Throttling wird die Leistungsaufnahme der CPU künstlich im Zaum gehalten. Dass die Werte beim übertakteten Vishera-basierten FX-Prozessor so viel höher ausfallen liegt also schlicht daran, dass wir Multiplikator und Kernspannung fest vorgegeben haben.
Gleichzeitig nutzen viele Spiele die acht Threads eines FX-8350 gar nicht voll aus, weshalb der Throttling-Mechanismus in der Praxis oft gar nicht erst ausgelöst wird. Interessant ist übrigens auch, dass der FX-8350 mit Werkseinstellungen oft die 1,35V überschreitet, die wir beim Übertakten von Hand eingaben. Das erklärt auch, warum sich die Leistungsaufnahme zwischen dem Standard-FX und dem übertakteten System bei den Tests mit GPU-Volllast so wenig unterscheidet.

Wie bereits gesagt wird der Throttling-Mechanismus des FX-8350 in Spielen niemals ausgelöst, da die meisten Titel die CPU nicht voll auslasten können. Tatsächlich gewinnen einige Titel durch die Turbo-Core-Technologie an Performance, welche die AMD-CPU auf bis zu 4,2 GHz hochtaktet. AMDs größtes Problem, wenn man das Performance-Diagramm betrachtet, ist also, dass das Intel-System mit Abstand die höheren durchschnittlichen Bildraten erzielt.

Wenn wir die durchschnittliche Leistungsaufnahme und die durchschnittliche Performance aller vier Konfigurationen als Durchschnitt für unser Effizienzdiagramm zugrunde legen, können wir erkennen, dass der FX-8350 pro Watt nur etwa zwei Drittel der Performance von Intels Core i7-3770K liefert.
- Eyefinity stellt die Gretchenfrage: Mehr CPU oder GPU?
- Testsysteme und Benchmarks
- Benchmarks: 3DMark, Aliens Vs. Predator und Metro 2033
- Metro 2033, sekundengenaue Betrachtung
- Benchmarks: Battlefield 3, F1 2012 und Skyrim
- Battlefield 3, Frame für Frame
- Skyrim, Frame für Frame
- Leistungsaufnahme und Effizienz
- Kann AMDs FX mit der eigenen Radeon HD 7970 Schritt halten?
Der Anfang war etwas ... interessant...
Vor allem kamen Sätze vor wie
Allerdings sieht das Diagramm über welches hier geredet wird (Metro 2033, Very High) bei 4800x900 für mich eindeutig so aus, als würde die GPU limitieren (würde die CPU limitieren hätte wir Verläufe wie bei Skyrim). Und wenn die GPU schon limitiert dann noch zu sagen, dass AMDs FX-Prozessor leicht besser ist, halte ich für äußerst gewagt...
Aber im Allgemeinen fand ich den Artikel sehr gut! Auch die Arten des PC-Kaufes (Upgrade vs. Neukauf) so sauber zu trennen zeugt endlich mal wieder davon, dass ihr gut "wissenschaftlich" arbeiten könnt!
Auch von mir: weiter so!
" Und wenn die GPU schon limitiert dann noch zu sagen, dass AMDs FX-Prozessor leicht besser ist, halte ich für äußerst gewagt..."
Ich kann deine Bedenken verstehen, aber ich glaube die Tester meinten damit folgendes:
Da in diesem Beispiel die GPU limitiert ist es egal welcher dieser beiden Prozessoren verbaut ist. Da die AMD-CPU günstiger ist, ist sie für dieses Spiel in dieser Auflösung die bessere Wahl.
Am Ende des Artikels wird diese "Zwischenfazit" mit Blick auf die Gesamtperformance und der Leistungsaufnahme ja eh wieder relativiert.
Wenn man diesen Sachverhalt untersuchen moechte, muss man eine CPU mit gleichbleibender Taktrate und konstanten Einstellungen und ein und dem selben Benchmark mit stetig steigender Grafik-Power betreiben, um herrauszufinden, ob diese CPU z.B. bei 2, 3 oder 4 Grafikkarten den Flaschenhals erzeugt, oder eben nicht, wegen meiner dann auch mit stetig steigender Aufloesung; die Grafik-Power muss aber so potetnt sein, damit ausgeschlossen werden kann, dass die CPU dabei der Flaschenhals ist, und nicht die Grafikkarte(-n), andernfalls sind die Schlussfolgerungen nicht korekt.
Dieser Test hier ist ein interessanter Vergleich, wie sich sowohl Intels, als auch AMDs potente CPU bei hohen Aufkloesungen und unterschiedlichen Benchmarks ^mit unterschiedlichen Einstellungen verhalten, interessant, aber eben nicht der Aufgabenstellung entsprechend;
Wenn man diesen Sachverhalt untersuchen moechte, muss man eine CPU mit gleichbleibender Taktrate und konstanten Einstellungen und ein und dem selben Benchmark mit stetig steigender Grafik-Power betreiben, um herrauszufinden, ob diese CPU z.B. bei 2, 3 oder 4 Grafikkarten den Flaschenhals erzeugt, oder eben nicht, wegen meiner dann auch mit stetig steigender Aufloesung; die Grafik-Power muss aber so potetnt sein, damit ausgeschlossen werden kann, dass die CPU dabei der Flaschenhals ist, und nicht die Grafikkarte(-n), andernfalls sind die Schlussfolgerungen nicht korekt.
Dieser Test hier ist ein interessanter Vergleich, wie sich sowohl Intels, als auch AMDs potente CPU bei hohen Aufkloesungen und unterschiedlichen Benchmarks ^mit unterschiedlichen Einstellungen verhalten, interessant, aber eben nicht der Aufgabenstellung entsprechend;
Ich bin gespannt, welche Idee ihr da für euren nächsten Test habt. Ich vermute mal, es geht um den HT/Speichertakt, welcher die AMD-Prozessoren masslos limitiert. Sehe ich grad am 750k mit 1500NB Takt. Den auf 2000MHz übertaktet und schon steigt die Leistung enorm.
In "Leistungsaufnahme und Effizienz"
Ich hätte mir auch noch einen i5-3570K in Stock sowie auf 4,4 GHz gewünscht um den Effekt von HT in Spielen zu zeigen.
Und meinetwegen auch einen FX6300 in Stock sowie 4,4GHz um zu zeigen was da der Unterschied ist.
Glaube ich nicht .. macht ja im Gesamtsystem wie am Ende bemerkt wurde nicht viel aus ob man nun 50€ mehr oder weniger bezahlt .. wenn dafür das system 10% langsamer wird lohnt sichs nicht. Weil halt 50€ bei 1500-1600€ Gesamtkosten einfach Peanuts sind.
Das mag bei einem 450€ System nen Unterschied machen.. aber im High end lohnt es einfach nicht übermäßig an der CPU zu sparen (mal die unverhältnismäßig teuren 900+€ CPUs aussen vor)
Je nach Anwendungszenario irgendwas zwischen 5 und 30%. Im Mittel also so 15-20%.
Glaube ich nicht .. macht ja im Gesamtsystem wie am Ende bemerkt wurde nicht viel aus ob man nun 50€ mehr oder weniger bezahlt .. wenn dafür das system 10% langsamer wird lohnt sichs nicht. Weil halt 50€ bei 1500-1600€ Gesamtkosten einfach Peanuts sind.
Das mag bei einem 450€ System nen Unterschied machen.. aber im High end lohnt es einfach nicht übermäßig an der CPU zu sparen (mal die unverhältnismäßig teuren 900+€ CPUs aussen vor)
Das ist doch eine Milchmädchenrechnung ...
Wenn jemand beispielsweise 600-700€ hat und gerne hardwarehungrige Spiele spielt, ist er besser damit beraten ~125€ bei CPU und Board zu sparen und das Geld in eine bessere Grafikkarte zu stecken.
Btw 1500-1600€ geben wohl die allerwenigsten für ihren PC aus ...
Je nach Anwendungszenario irgendwas zwischen 5 und 30%. Im Mittel also so 15-20%.
Den FX 6100 kann man auf ähnliche Werte übertakten wie den FX 8350. Der FX 8350 hat aber 4 statt 3 Module. Im Optimalfall, wenn alle kerne 100% ausgelastet werden, ist er also 25% schneller. Das ist aber nie der Fall. Außerdem bekommt der FX 8350 eher Temperaturprobleme und drosselt sich. Man kann froh sein wenn man 20% Mehrleistung bekommt.
In Spielen oder den vielen Programmen die nicht von 8 Kernen profitieren sind es wie du sagst etwa 5% Mehrleistung im Standardtakt.
Also egal was du machst, wiegt es nicht annähernd den 70-80%igen Aufpreis auf.
Ich würd sagen 30% schneller: 3 vs. 4. Module. Das sind 30% mehr.
Sieht man auch in den Benchmarks, wo er multi-threaded alle 4 Module voll ausspielen kann.
Z.B. in Pov-Ray, da ist er eben genau diese 30% schneller.
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/4
Edit: In Spielen ist die Mehrleistung aber in der Tat unwesentlich und in der Regel nur bei 5% oder sogar noch weniger.
Und wenns in der Praxis 30% sind wie im test sind es wenn beide max übertaktet sind nur noch so 20-25%. Dafür dass der FX 6100 aber fast 80€ günstiger ist, ist er trotzdem ein echtes Schnäppchen und hätte was das Preisleistungsverhältnis mehr Chancen gegen Intel als der überzüchtete FX 8350.
Aber so halt nicht so wirklich.
Grundsätzlich haste ja recht .. habe vor kurzem auch ein CPU upgrade durchgeführt .. musste ernsthaft rechnen ob ich den Q9550 in meine bestehende Plattform stecke oder nen 6100 mit neuem Board und Ram nehme .. wäre aber ca 100€ teurer gewesen bei etwa gleicher Leistung.. (ausserdem BS neu installen etc.)
Aber wie gesagt je teurer die Gesamtplattform desto knapper wird das .. ich würde mir heute kein System mit Grafikkarten im Wert von über 600€ auf Basis von ner AMD CPU aufbauen.. macht einfach rein wirtschaftlich keinen Sinn.
Warum sollte er nicht?