Es ist schon bemerkenswert, wie schnell die Radeon HD 4870 1GB auf ihren jetzigen Preis von gut 130 Euro gefallen ist. Inzwischen liegt auch die Radeon HD 4890 mit ihren runden 165 Euro auch nicht allzu weit dahinter, zumal die preiswertesten Modelle schon für unter 150 Euro über die virtuelle Ladentheke wandern. Die Konsequenz: Damit sich eine Radeon HD 5850 mit ihrem derzeitigen Straßenpreis von 220 Euro (und einem offiziellen Preisschild 259 US-Dollar) lohnt, müsste sie also schon deutlich schneller sein als ihre beiden älteren Geschwister.
Auch Nvidia ist mit seinen High-End Modellen im gleichen Preissegment vertreten. Eine GeForce GTX 275 ist zu einem Preis von 170 bis 190 Euro ebenfalls sehr attraktiv, und auch Nvidias Single-GPU-Spitzenmodell GTX 285 ist mit einem Preisspektrum, das bei 260 Euro beginnt, nicht wenig verlockend.
Damit ist die Konkurrenz dann auch umrissen, der sich ATIs Radeon HD 5850 stellen will und soll. Als kleine Schwester der Radeon HD 5870, die wir vergangenen Mittwoch vorstellten, übernimmt sie um Prinzip deren Architektur. Anstatt also alle Details hier noch einmal vorzutragen, verweisen wir auf den Launch-Artikel zu ATIs Radeon-5800-Serie und konzentrieren uns in diesem Beitrag auf die Unterschiede.
Die Lynnfield-Frage
Das bedeutet natürlich nicht, dass wir uns in diesem Artikel nicht auch ein paar neuen Aspekten widmen. Einige unserer Leser kritisierten beispielsweise, dass wir für unseren Test der Radeon HD 5870 einen auf 4 GHz übertakteten 800-Euro-Prozessor einsetzten. Diese Entscheidung hatte natürlich einen tieferen Sinn, denn neuere GPUs sind derart leistungsfähig, dass wir ihnen eine möglichst schnelle Plattform bieten wollten, um damit den Prozessor als Flaschenhals auszuschließen. Für Nutzer mit einem Core i7 oder Core i5 im Sockel LGA1156, einer Core-2-CPU auf einem P45-Board oder mit AMD-790GX-Systemen ergibt sich daraus aber eine zumindest theoretische Frage: Was passiert, wenn der GPU statt 16 PCIe-Lanes im Einzelbetrieb nur 8 PCIe-Lanes im CrossFire-Betrieb zur Verfügung stehen?
Um diese Frage zu beantworten, übertakteten wir unseren Core i7-870 in einem ASUS P7P55D Premium auf 4 GHz. Wir vermuten, dass CPUs der Lynnfield-Reihe aus Kostengründen wohl eher mit einer Radeon HD 5850 als mit der größeren und teureren Schwester HD 5870 kombiniert werden. Also steckten wir zwei 5850-Karten in unser Intel-System und maßen nach. Um einschätzen zu können, wie groß dabei der Einfluss der Prozessorgeschwindigkeit war, folgte anschließend ein weiterer Durchgang, bei dem der Core i7-870 mit Standardtakt lief.
Lohnt sich CrossFire?
Als ATI die Radeon HD 4770 vorstellte, konnten wir uns die Gelegenheit nicht entgehen lassen, die Karte im Doppelpack gegen je eine Radeon HD 4890 und eine GeForce GTX 275 antreten zu lassen. Mit einem derzeitigen Marktpreis von etwa 220 Euro ist die HD 5850 aber nicht gerade billig und allein schon mehr als doppelt so teuer wie zwei HD 4770 – für zwei Karten darf man schon 440 Euro einplanen. Auch wenn die Preise mit steigender Verfügbarkeit noch fallen werden, ist die einzige Karte, die sich in diesen Sphären tummelt, Nvidias GeForce GTX 295. Je nach Hersteller und Variante kostet sie zwischen 370 und 460 Euro. Dort mögen die Preise zwar ebenfalls noch fallen, aber wohl erst, wenn die HD 5870, die ihr starke Konkurrenz macht, in größeren Stückzahlen zu finden sein wird.
Heute konzentrieren wir uns darauf herauszufinden, wie sich eine einzelne HD 5850 gegen Nvidias GeForce GTX 285 schlägt, eine Karte, der AMD bislang nur mit einer Dual-GPU-Lösung Paroli bieten konnte. Genauso spannend ist natürlich die Frage, ob ein zwei HD 5850er es mit der ähnlich teuren GeForce GTX 295 aufnehmen können.
- Einleitung
- Die Radeon HD 5850 in Wort und Bild
- Test-System und Benchmarks
- Benchmark-Ergebnisse: 3DMark Vantage
- BenchmarkErgebnisse: S.T.A.L.K.E.R.: Clear Sky
- Benchmark Results: Crysis
- Benchmark-Ergebnisse: Far Cry 2
- Benchmark-Ergebnisse: Left 4 Dead
- BenchmarkErgebnisse: World In Conflict
- Benchmark-Ergebnisse: H.A.W.X.
- Benchmark-Ergebnisse: Resident Evil 5
- Benchmark-Ergebnisse: Grand Theft Auto IV
- Leistungsaufnahme und Lautstärkeentwicklung
- Die Lynnfield-Variable
- Fazit

Allerdings fügt bitte noch ein Wort in dem Satz auf Seite 11 ein
Da fehlt glaube ich was ^^
Liebe Grüße aus der Schweiz
Ups, danke!
Ich möchte lösen: "V-O-R-S-P-R-U-N-G"
Ist jetzt korrigiert!
Kleiner Fehler auf Seite 5, dort steht unter der ersten Tabelle: 'Noch beeindruckender ist, dass das ATI-Duo auch schneller ist, als zwei GeForce GTX 295 im SLI-Verbund!' 285, gelle
Schade finde ich das Fehlen des Crossfireduos 2 x 4770, welches sicher für diejenigen User, die bereits eine 4770 besitzen und sie auf einem Xfireboard betreiben, interessante Aufschlüsse bieten würde.
Ist ebenfalls korrigiert.
Ich leite deinen Vorschlag gern an Chris weiter!
Bevor ich ATI kritisiere, eine Anmerkung: Am Ende wird wahrscheinlich das Preis-Leistungsverhältnis für ATI sprechen und meine Kaufentscheidung für ATI beeinflussen.
AAAABER:
Was die Ergebnisse angeht, so fühle ich mich wieder bestätigt, dass der Hersteller bei der Entwicklung der neuen ATI-Generation weniger die Konkurrenz im Visier hatte als das Ziel eine bessere GPU zu bauen als die HD4000-Generation.
Der Grund in meinen Augen: eine mehr als 12-Monatige Architektur des Gegners kann / darf nicht das Ziel des Vergleichs sein, sondern die kommende GT300-Generation. Das wäre ein Kampf um die GPU-Krone. Der Vergleich zu älteren Generationen ist sehr wohl aussagekräftig, aber im Hinblick auf die in 3-4 Monaten erscheinende GT300er dennoch nicht maßgeblich.
Sicher ist die ATI-Palette für preisbewusste Käufer die richtige Wahl. Wenn bei Nvidia aber nicht viel schief läuft, wird die HD5000 den Platz an der Sonne sofort räumen müssen, wenn die Konkurrenz kommt. Ich glaube nicht, dass das Spielen der zweiten Geige für ATI langfristig zufrieden stellend sein darf.
Bei Anandtech.com gibts dazu einen sehr lesenswerten Bericht.
Wenn NVIDIA eine deutlich schnellere Karte auf den Markt bringt, wird sie auch deutlich teurer werden. Ob die sich dann absetzen lassen ist eine andere Frage.
Jetzt aber mal ne Frage ... wie funzt das, nen Spiel über drei Bildschirme laufen zu lassen? Ich habe 2x 22" auf meinem Schreibtisch und ich weiß auf-Teufel-komm-raus nicht wie ich nen Spiel auf beiden Monitoren (theoretisch) Spielen kann ... im Game kann ich weder die Auflösung so hoch drehen, noch im CCC irgendwas einstellen. Auch nicht bei Spielen, die das definitiv unterstützen (z.B. X³)
Im Internet finde ich zu dem Thema nichts Verwertbares.
Bitte ne PN an mich,
tausend Dank,
Sense.
Anandtech hatte auch solch einen Vergleich und riet bei Highend-Gaming mit SLI/CF vom P55 da zuviel Performance verloren geht wegen dem integrierten Controller.
Demnächst (29. Oktober) soll ja der Lucid-Hydra erscheinen, hoffe dann gibt es hier auch wieder Tests, da der Chip ja 2x PCIe x16 bereitstellt, allerdings nur mit 1x16 an den integrierten PCIe-Controller angebunden ist, zusätzlich sollen ja Mikroruckler komplett wegfallen und die Karten immer optimal ausgelastet werden.
ein Crossfire-Gespann aus zwei HD5870 bis Auflösungen inklusive
1920x1200px noch deutlich limitiert. Einen stärkeren Prozessor gibt es
nicht und man muss schon auf einem 4000 EUR teurem UltraHD-Bildschirm
spielen, damit sich 2x HD5870 lohnen und ohne 4Ghz Quadcore ist auch nicht.
Das für den Preis. Da lohnt sich das Warten auf nVidia kaum noch.
Worauf warten? Noch mehr Leistung? Selbst Crysis läuft auf FullHD
mit allen Pi, Pa, und Po völlig flüssig. Mal abgesehen, dass selbst
einen i7 bei 4Ghz schon jetzt an seine Grenzen gerät.
Die Plattformen und die mangelnde Ausnutzung durch Software bremsen solche Glanzleistungen an Chips massiv aus.
sehe also keinen sinn zu warten wenn man jetzt was neues braucht.
aber auch ich komm mit meiner 4850 noch ganz locker hin, da ich auf so gags wie 8aa + 16 af gern verzichten kann.
erfahren habe. Die werden definitiv schneller, größer, hungriger
und unweigerlich teurer. Dabei ist selbst die HD5870 eigentlich
schon zu viel des guten und wird teilweise von einen 4Ghz
Quadcore ausgebremst.
Ich bin aber sehr gespannt auf Nvidias neue Kartengeneration. Eine neue Karte ziehe ich noch nicht in Betracht. Für 1680 * 1050 Reicht meine GTX 260 mit Qualitätseinstellunegn dicke. Gut, Crysis ist ne Ausnahme.
Persönlich werde ich bei der nächsten Grafikkarte auch nicht das Lager wechseln. Ich werde bei Nvidia bleiben.
Im übrigen glaube ich dass die Performance der Karten sicher auch noch steigen wird wenn die Treiber die GPU`s erst richtig ausreizen.
Gruss aus Tirol..
Gustl
Ein Intel Core i7 wird selbst auf 4Ghz keine HD5870X2,
oder GTX380 ausreizen können. Schnellere CPUs sind
auch kaum in Sicht und dann wohl nur 6Cores mit
etwas weniger Takt. Die Grafikkarten rasen den CPUs
echt davon. Vor allem die kommende GT380, die voll
und ganz auf GPU-Computing ausgelegt ist, wird wohl
eine mit Nehalem vollgestopfte Workstation in den
Schatten stellen.
der Hoffnung dass die kürzer werden, da ich aus priv.Gründen dass Geheuse nicht wechseln willl!!