Anmelden mit
Registrieren | Anmelden

Fazit

Test: ATi Radeon HD 4870 X2
Von

Die wichtigste Schlussfolgerung ist, dass es der Radeon HD 4870 X2 schon gelingt, ihr Ziel zu erreichen, das da lautet, sich als die leistungsstärkste Karte durchzusetzen. Man glaubt es kaum, aber sowas ist schon lange nicht mehr vorgekommen – sieht man einmal von der Radeon HD 3870 X2 ab, die dieses Ziel Anfang des Jahres schon erreicht hatte, aber nur um Haaresbreite. Doch hier ist der Vorsprung der Radeon HD 4870 X2 gegenüber der GeForce GTX 280 unbestreitbar, da er durchschnittlich 25% erreicht (mit einem Spitzenwert von 51% bei 2560x1600 + Filter) und durchgängig bei allen Spielen außer Flight Simulator X zutreffend bleibt.

Man muss sagen, dass beim Design der Radeon HD 4870 X2 die mit der Radeon HD 3870 X2 aufgetretenen Fehler berücksichtigt wurden. So ist die Speichermenge vervierfacht worden (so dass 1 GB nutzbarer Speicher zur Verfügung steht), ihre Frequenz wurde nicht herabgesetzt, und die PCI-Express-Kontrolle, die als Brücke zwischen den GPUs und mit dem Chipset diente, geht auf die Norm 2.0 über und verfügt somit über eine doppelte Durchlassbreite. Was die direkte Kommunikation zwischen den GPUs unnötig machen würde, die durch die sideports dennoch möglich ist. Dafür schwächelt die Karte immer noch bei den Treibern. Im Test hatten sie sich noch als unstabil erwiesen, und einige Anwendungen konnten die Bi-GPU immer noch nicht ausnutzen. Außerdem erreicht die Karte einen absoluten Rekordwert beim Stromverbrauch während des Betriebs (der wohl schwerlich zu schlagen sein wird) und erweist sich schließlich als hoffnungslos lärmend.

Dann bleibt noch festzustellen, wer ihre Zielgruppe ist. Im Hinblick auf die Leistungen unter den aktuellen Spielen könnte man geneigt sein, sie auf Besitzer von 30’’-Bildschirmen einzugrenzen, da der Unterschied zur GeForce GTX 280 wirklich nur bei dieser Auflösung ganz klar hervortritt (im Vergleich zur Radeon HD 4870 kann sie dann durchschnittlich maximal 66% zulegen). Das trifft bei 1920x1200 weniger zu, und auch wenn die Entscheidung für die 4870 X2 im Hinblick auf die speicherintensiven zukünftigen Spiele noch gerechtfertigt ist, kann eine andere Lösung darin bestehen, diese Spiele und eine Preissenkung abzuwarten. Für 450 € (und damit doppelt so teuer wie die Radeon HD 4870, aber mit 512-MB) bleibt ihr Preis im Vergleich zur GeForce GTX 280 (ca. 380 €) mehr als gerechtfertigt.

NVIDIA ist also mit etwas Verspätung geschlagen und wird in den nächsten Wochen im Angesicht des eklatanten Energieverbrauchs ihres GT200 und dem Preis dieses Chips nicht zurückschlagen können. Eine Antwort auf der Grundlage der gleichen Bi-GPU-Lösung kommt für NVIDIA daher überhaupt nicht in Frage. Zunächst einmal.

AMD Radeon HD 4870 X2
Die Karte ist momentan die schnellste ihrer Zeit. Die Performance liegt im Schnitt 25% höher als bei einer GeForce GTX 280, in der höchsten Auflösung sogar 51%. Leider sind Stromverbrauch, Geräuschentwicklung und der Preis recht hoch.
  • Pro
  • Contra
    • schnellste 3D-Grafikkarte
    • besseres Preisleistungsverhältnis als GeForce GTX 280
    • Support für DirectX 10.1
    • hoher Energieverbrauch und Geräuschpegel
    • Treiber nicht so stabil wie bei Single-GPU-Karte
    • Kein PhysX / CUDA

Alle 42 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • avaka , 1. September 2008 19:07
    Eine tolle Karte an der AMD wirkilch sinnvoll das verbessert hat, was an der 3870 X2 fehlte. Der Stromverbrauch und die Geräuschentwicklung sind angesichts der Grafikleistung verständlich, wenn auch natürlich ärgerlich.
    Ich glaube aber, dass ein 4870 1GB Crossfiregespann sinnvoller ist, da die Kühlfläche schlichtweg größer ist und der Geräuschpegal erträglicher sein dürfte.
    Was auffällt ist, dass die Auflösungen immer höher geschraubt werden müssen um die Karten überhaupt noch Ausreizen zu können.
    Wo bleiben denn die Spiele, die solche brachiale Peformance in Optik umsetzen ohne das man sich gleich einen Apple Cinema kaufen muss?

    Ein Test von THG, der im übrigen mal wieder zu den Besseren gehört. Vor allem der Sprachstil ist besser und die Fehler weniger geworden. Für den Ausfall der Messgeräte kann keiner was aber bitte nachreichen.
    Die angestellten Spekulationen bezüglich des Stromverbrauchs könnten eventuell verfrüht zu Gefechten im Forum führen^^
  • Anonymous , 1. September 2008 19:20
    Netter Test und interresant zu lesen.
    Wobei wenn ich den geschätzten Stromverbrauch von 400Watt lese, echt gestutzt habe. Da frag ich mich wo das langsam hinführen soll.

    Manche mögen mich nun vielleicht als Nvidia Fan bezeichnen, doch ich finde das nicht wirklich eine große Leistung von AMD/Ati.
    Ja die Karte ist zur Zeit die schnellste, aber man muss ja auch sehen wodurch das erreicht wurde.
    Wenn ich mir die Tests so anschaue find ich es teilweise echt traurig wie schlecht eine dual GPU Karte umgesetzt wird. So das eine Single GPU karte doch so nah dran bleiben kann.
    Klar hat Nvidia auch das Problem aber vielleicht sollten beide Firmen an dieser Baustelle mal arbeiten das eine Dual-GPU Karte auch die "Dual-Leistung" irgend wann man erreicht.
    Insgesammt ists ne schnelle Karte keine Frage, doch man muss berücksichtigen, dass es eine Dual-GPU Karte ist und ich nicht wissen möchte wie es aussehen würd wenn es eine GTX280 als Dual GPU Karte geben würde.
    Zudem denke ich hat Nvidia im Moment noch einen Vorsprung vor AMD, was man alleine schon am Erscheinungsdatum der Karten sieht.
    Zudem finde ich manche Zusatzfunktionen der Nvidia Karten echt interresant, wie zB der PhysX Teil.

    Aber alleine wenn man sich den Preis der Karten anschaut, ist es meiner Meinung nach eh nicht wirklich "wirtschaftlich" bei der heutigen Kurzlebigkeit von Grafikkarten. Außer man hat wirklich das Geld sehr locker sitzen ;) 

    Ich persönlich werde wohl zur neuen GTX 260 greifen mitte des Monats und meine "alte" GTS 8800 640MB in den Ruhestand schicken.
  • avaka , 1. September 2008 19:28
    So langlebig wie heute waren Grafikkarten seit sie für Spiele relevant sind noch nie!
    Die 8800GTX als Beispiel schreitet mit großen Schritten auf ihren 2ten Geburtstag zu und wer einen 22 Zöller oder drunter besitzt hat beim besten Willen keinen Grund sie zu tauschen.
  • Chikko , 1. September 2008 19:40
    Klasse leiszung wenn AtI Nvidia nur schlägt indem 2 GPUs verbaut werden ...
  • Anonymous , 1. September 2008 20:07
    lauter NVidia Fanboys....es wird wegen der Chiparchitektur keine Dualchipkarte von Nvidia mit dem G200 geben...d.h. bis Nvidea eine neue Graka entwickelt und rausbringt hat ATI die schnellste Karte...unt mit der 4850/4870 im unter 200 Euro bereich die Preis/Leistungskönige...

  • Frantik , 1. September 2008 20:09
    Und an der Stelle von:

    ChikkoKlasse leiszung wenn AtI Nvidia nur schlägt indem 2 GPUs verbaut werden ...


    Setze ich jetzt mal ein und sage: Nvidia hat ne GPU mit ~1,4 Mrd Transistoren und ATI 2 GPUS á 770 Mio - na fällt was auf ? Was hast du falsch gedacht, was die sich bei ATi aber womöglich gedacht haben ? Rrrrrrüchtüsch!

    Immer dieses Geningel von wegen zwei GPUs gegen eine.

    BTT:

    Der Test ist spitze - was die Abstürze angeht, davon konnte man auf anderen Seiten nichts lesen. Auch kam der Test ein wenig spät.
    Jedoch, den ersten Kommentaren anschließend muss ich sagen, dass der Test selbst sehr schön zu lesen war und die Ergebnisse in etwa mit anderen Seiten übereinstimmen. Haben "ja" - kaufen "nein" einfach zu teuer. Denke ich halte es wie alle anderen und warte auf die 4780 1GB Variante!
  • Cameron , 1. September 2008 21:20
    Was wollen diese Fanboys hier immer? Neutral betrachtet erzielt die HD4870 X2 absolut solide Leistungswerte und weist die GTX280 definitiv in die Schranken. In Zeiten wo sich Breitbildauflösungen ab 1680x1050 (... und aufwärts) langsam aber sicher etablieren, muss man bei dieser Karte keine Kompromisse machen; auch nicht bei hoher Kantenglättung sowie anisotropen Filtern.

    AMD/ATi hat im Grafiksegment nun definitiv wieder die Vormachtstellung inne, das muss man fair zugeben. Für nVidia spricht absolut, dass sie mit einer Single-Chip-Karte (GTX280) --- zwar hauptsächlich durch enorm hoher Transisotenzahl --- an die X2 herankommen. Wie meine Vorredner schon bemerkt haben, wird es keine Dual-Chip-Karte auf dem G200 geben.
  • ascer , 1. September 2008 22:15
    CameronFür nVidia spricht absolut, dass sie mit einer Single-Chip-Karte (GTX280) --- zwar hauptsächlich durch enorm hoher Transisotenzahl --- an die X2 herankommen. Wie meine Vorredner schon bemerkt haben, wird es keine Dual-Chip-Karte auf dem G200 geben.


    Das finde ich nun überhaupt nicht (und nein, ich bin kein ATI-Fanboy, ich besitze selber eine 8800GT momentan, ich kaufe immer nach Preis/Leistung).

    Denn die GTX280 ist ausschließlich durch ihre hohe Transistorenzahl so flott, sie ist aber noch 65nm, deutlich größerer Die und kostet nVidia in der Herstellung deutlich mehr und es gibt auch viel weniger Ausbeute als bei ATI's Chips, was mit Sicherheit auch darauf schließen lässt, das diewenigen GTX280 die durch die Kontrolle kommen ziemlich am Limit arbeiten, was auf Dauer sicher nicht so praktisch ist.

    Ich würde einfach mal behaupten das nVidia sich diesmal auf ihren Loorbeeren ausgeruht hat. Genauso wie Intel damals als dann "auf einmal" der Athlon 64 kam.

    ATI hat mit der 2000er Reihe einfach scheisse gebaut und die 3000er konnte im Prinzip auch nur im Low & vielleicht ein bisschen im MidRange mithalten, aber das wars auch. nVidia war da einfach lange lange Zeit mit der 8000er Serie deutlich besser bedient und ihre Defizite im LowEnd haben sie mit der 9500GT jetzt wieder MEHR als Wett gemacht, genauso wie etwas teurer mit der 9600GT, das würde ich sagen, qualifiziert nVidia momentan viel mehr als die 2 HighEnd-Chips, die wie damals ATI's 2900 HighEnd-Chips nicht gegen die Konkurrenz bestehen, irre viel Strom ziehen, sehr viel in der Herstellung kosten und letztendlich sich das ganze auch in Preis und Qualität der Chips selber wiederspiegelt.

    Momentan hat ATI einfach nen guten Griff gemacht, das einzige wo sie jetzt noch momentan Konkurrenz haben ist im LowEnd, da die 9500GT und 9600GT für LowEnd ziemlich flott sind und im Gegensatz zu den Monsterchips SEHR kosteneffizient produziert werden können. Die 9500GT habe ich selber z.B. auch schon verbaut, was auch etwas schwierig ist für ATI ist, das es durch die gute 8000er-Serie (und die 9000er ist ja quasi nur ne weiterentwickelte 8000er-Serie, mehr oder weniger) extrem viele OEM-Partner gibt die auf 9500 oder 9600GT vertrauen und sind imho die meisten Rechner oder zumindest der Bereich wo am meisten Rechner gekauft werden.

    Ich denke allerdings, wenn ATI jetzt nicht trödelt könnte sie mit sowas wie 4450 oder 4650 ganz gut dagegenhalten, da auch sehr kosteneffizient produziert werden kann, besonders wegen 55nm UND sie jetzt das Prestige der 4000er-Serie haben, so dass sich demnächst möglicherweise einige Konzerne dafür entscheiden...

    Gespannt bin ich nur, wie es jetzt weitergeht, ob nVidia relativ rasch dagegensetzen kann oder ob ATI der erste wird, der eine Generation hinterherlegt.


    Ich hoffe für beide Unternehmen eigentlich nur 2 Sachen:
    1. das sie noch bis in die Ewigkeiten Konkurrenten bleiben und nicht einer gewinnt, denn ein Monopol wäre das Leid aller.

    UND

    2. das sie vielleicht mal endlich gelernt haben, das es viel mehr bringt eine ausgereifte Grafikkartenserie bzw. Grafikkarte rauszubringen als weniger brauchbare ( ich denke da nur mal an HD2000 sowie 9800GTX und GTX280 ). ATI z.B. hat zwar sicher mit der HD3000 nicht gegen nVidia anstinken können, aber zumindest dürften sie, da die Karten an sich schon ziemlich gut waren (Qualitätsmäßig und Preis/Leistung) einige Monetos gemacht haben, wohingegen aber die HD2000 eine reine Pleite war. Vielleicht lernen sie ja endlich daraus, ich halte die GTX280 für nichts anderes als ein Transistorenhochgezüchtetes-Monsterchipteil, das so viele Transistoren bekommen hat, da man anders keine vernünftige Leistungssteigerung (in der "kurzen" Zeit) bekommen hätte und somit nicht mit ATI mithalten könnte.

    Ich persönlich hätte es nicht schlimm gefunden wenn sie die Leistungskrone diesmal nicht hätten (haben sie jetzt ja eh nich) und dafür aber wie ATI mit der HD3000 zumindest im unteren HighEnd und Mid sowie LowRange was vernünftiges anbieten. Also z.B. auch mal 55nm, DX10.1, vernünftige PhysX-Treiber und vielleicht auch nen Deal damit sie ZUSÄTZLICH Havok als Physikenginge anbieten können.

    Solche Sachen hätte ich persönlich deutlich besser gefunden, als so ein überzüchtetes Ressourcenverschwendes und letztendlich doch nicht schnellstes Werk wie die GTX280.
  • Diesel_im_Blut , 1. September 2008 22:22
    Ein schöner Test! Das muss mal vorab gesagt werden.

    ATI hat hier wirklich eine schöne Karte im Programm, die sehr flott ist. Ist die schnellste Karte die es momentan gibt. Das muss auch ein Nvidia Fanboy eingestehen. Ich gönne AMD/ATI den Erfolg und hoffe das sie bei CPU´s auch wieder an den dortigen Hauptkonkurrent rankommen.

    Aber leisten, werde ich mir momentan weder die GTX280 noch irgendeine 4870. In meinem System werkelt ein 8800GT@ Standard. Zocke auf meinem Röhrenmonitor bis maximal 1600x1200 und kann auch gut mit 1280x1024 oder weniger zocken, wenn es irgendwann mal klemmt.

    Scheinbar sind wir jetzt an einem Scheideweg, wo es in Richtung noch höherer Auflösungen geht. Vor 2 Jahren waren 1600x1200 noch viel, heute schafft das bei relativ Aktuellen Titeln sogar jede Mainstream Karte (9600GT oder 3870).
  • Xtrasmart , 1. September 2008 22:26
    Ich besitze bereits eine 280GTX OCX 666 Mhz und werde demnächst, sobald verfügbar, mit einer 4870, 1GB Version meinen 2. Rechner nachrüsten. Ich sehe das völlig pragmatisch: Nochmal 400 € ausgeben ist mir schlicht zu teuer. Das P/L Verhältnis ist bei ATI gegenwärtig unschlagbar besser als bei Nvidia. Jetzt eine Karte für "zukünftige" Spiele zu kaufen, deren Entwicklung noch gar nicht absehbar ist (Rasterizer vs. Raytracing z.B.) ist ungefähr so sinnvoll, wie im Jahr 2008 ein Wasserstoffauto zu erwerben. Der ein oder andere Held der Arbeit wird allerdings sicherlich die entsprechenden Grakas, resp. SLI/Crossfire für heroische 3D Mark Versuche benötigen. Mir persönlich ist das aber zu dämlich!
  • f1delity , 1. September 2008 22:36
    Nette Leistung, netter Test, naja erstmal bin ich mit 28'' noch gut bedient, aber der nächste wird 30'' und wenns dann keine Microruckler mehr gibt CF/SLI oder Dualkarte, aber schön das ATI endlich wieder auf der Überholspur ist.
  • ascer , 1. September 2008 23:38
    also ich persönlich sehe das mit den Mikrorucklern sehr entspannt!

    Normalerweise ist das ja so, das, damit es auffält die Karte unter 30 teilweise weit unter 30fps gehen muss, dann läuft das Game eh nicht mehr wirklich flüssig und auch 35fps, wo es laut computerbase tests zu 95% keine Mikroruckler mehr geben soll ist nicht wirklich viel, ab 40fps soll's ja gar keine mehr geben und dann find ich das auch nicht denn schlimm...

    Denn ob nun grad ne Rauchgranate oder was auch immer die Leistung von Durchschnitt 35 sag ich einfach mal auf 25fps runterzieht, ist es vollkommen egal, ob es nun eine Dual- oder Single-Karte ist, denn laggen wird es so oder so.

    Klar sind es 2 verschiedene Arten von "laggen", aber es bleibt laggen und ob die Karte nun wegen zu wenig Leistung laggt oder obs dann ne Dual ist die dann Mikroruckler hat wenn es Leistungsmäßig nicht mehr ganz ausreicht -> es kommt auf's selbe hinaus.

    Insofern zählt wie immer würde ich sagen, einzig und allein die Geschwindigkeit, was die Mikroruckler angeht...

    Hab ich halt ne 8800GT oder höher, dann kann ich halt Crysis vernünftig spielen auch mit 2xAA und hab ich halt z.B. ne 7950GX2 oder ne 8800GTS 320, dann kann ich halt mit 2xAA nich mehr flüssig spielen, ob dann nun bei der 8800GTS 320 halt schlicht die Leistung fehlt oder bei der GX2 aufgrund niedriger Leistung die Mikroruckler nerven -> es bleibt im Prinzip das gleiche.

    Von daher gilt einfach wie immer, hat die Karte, ob Dual oder nicht, genug Leistung, laggts nich und man kann vernünftig spielen und ansonsten halt nicht. Insofern, finde ich zumindest, ist das Thema Mikroruckler sowieso uninteressant.

    Für alle sonstigen Games wirds in der Regel locker ausreichen und wenn halt sowas wie z.B. "Crysis 2" rauskommt brauch man eh ne HighEnd-Karte der neusten Generation (mindestens^^), egal ob man nun Dual oder Single im HighEnd der vorherigen Generation hat...
  • chrisfreakxxx , 2. September 2008 01:24
    Guter Test, schade, dass der Realverbrauch nur geschätzt werden konnte.
    Zum Preis der Karte: die SAPPHIRE Radeon HD4870X2 gibt es bereits ab ca. 390 EUR; die LEADTEK WinFast GTX280 ab ca. 330 EUR.
  • borizb , 2. September 2008 01:59
    Also ich hab ne 8800GT und spiel auf nem 19". Und ehrlich gesagt wär auf meinem Schreibtisch ein 22"er das höchste der Gefühle, und selbst dafür müsste das noch gut langen, also eine um ein Viertel höhere Auflösung. Ich denke, dass sich kaum einer der Anwesenden einfach so 400€ GPU + 400 26" aus den Rippen schneiden kann (mal das erforderliche PC System außen vor gelassen). Für das Geld kann man nen netten gebrauchten Wagen (BMW E34 oder Seat Cordoba von 1999) kaufen oder 5 PS3 oder 7 Xbox oder 9 Wiis. Oder eine Mischung daraus. Ich frage mich, wer so alt ist, dass er so viel Geld verdient (30+) und dann noch so viel Zeit zum spielen hat. Ich glaub wenn ich verheiratet wär würd meine Frau mich ziemlich fies stiefeln wenn ich das Ding nach Hause trag.
    G92 gepaart mit nem E2200@3,5GHz. Zieht keine 200 Watt aus der Dose und spielt jedes aktuelle Game in Max Details bei 1280x1024 flüssig. Perfekt.
  • testman , 2. September 2008 08:27
    immer dieses nvidea - fanboy-gerede von wegen 2 GPU's bashen...
    beim Core2Duo oder Core2Quad wird doch auch der gesamte
    Prozessor als Leistungseinheit gesehen und sich nicht aufgeregt,
    wenn dieser Core2Quad nur aufgrund seiner 4 Kerne schneller ist als
    ein Core2Duo.

    Man muss schon die Grafikkarte als Einheit betrachten, also alles
    was in einen PCI-e -Slot passt ist nunmal eine Grafikkarte,
    egal was drauf verbaut wurde. Alles andere ist dummes Gerede.

    ... und nein, ich bin kein ATI-Fanboy - hatte selber
    von GF2MX400 über 4600ti über 6800gt alles von Nvidia...
    aber man muss nunmal nach Preis/Leistung gehen und nicht nach
    Scheuklappen-Perspektive!
  • Pootch , 2. September 2008 09:16
    ich hab eine BFG 280 OC und diese ist unter last schon sehr laut.
    will garnicht wissen wie das erst bei der ati mit 2 chips
    grundsätzlich halt ich selbst wenig von den 2xGPU karten.

    in punkto treiber support ist nvidia auch noch besser. der vergleich hingt einfach, man kann doch nicht eine karte mit 2 GPUs mit single gpu karten vergleichen, nicht umsonst ist die nvidia 9800 GTX2 noch so stark.
    keine ahnung is halt geschmacksache. aber bei dem stromverbrauch und der lautstärke war für mich die ati karte keine option. auch wenn diese nur 50€ teurer gewesen wäre.
  • rocketchef , 2. September 2008 10:15
    AvakaDer Stromverbrauch und die Geräuschentwicklung sind angesichts der Grafikleistung verständlich, wenn auch natürlich ärgerlich. Ich glaube aber, dass ein 4870 1GB Crossfiregespann sinnvoller ist...


    THG ist nicht der erste der für die karte einen test darbietet. Zu deinen Behauptungen sei einmal gesagt, dass dank des schlechten energiemanagements der 4870 zwei von denen zwar leiser, aber auch wärmer werden und damit auch zweimal das besagte energiemanagement im eimer ist. Eine 4870 X2 gönnt sich im idle ca. 10W mehr als eine einzelne und ist unter last hingegen sogar ca. 17W sparsamer.
    Quelle:

    Ich selber warte auf die in diesem monat zu erwartende 4850 X2, die 4870 ist mir, gegenüber der 4850, leistungsmässig zu ineffizient dank des, mehrmals angesprochenen, fehlerhaften energiemanagements.
  • snooze , 2. September 2008 16:05
    Seite 3 - Design und Geheimwaffe, Spezifikationen:
    Es sollte für die HD 4870 X2 wohl eher 2.4 TFlops heißen. (Tabelle)
  • derGhostrider , 2. September 2008 17:46
    Fällt es eigentlich nur mir auf, daß die GTX280 in den Tests fast überall schlecht abschneidet? Also vor allem im Vergleich zum 9800er? Also nun mal ganz von der HD4870X2 abgesehen...

    Die Karte müsste dermaßen viel Potential in der Hinterhand halten, daß sie um mindestens (grob geschätzt) 30% zulegen können müsste. Sind da die Treiber schuld oder woran liegt es? nVidia wird wohl kaum 1,4Mrd Transistoren zum Spaß verballert haben ohne Leistung daraus schöpfen zu können. Zumal sie vorher ein Design hatten, was pro-Transistor wesentlich effizienter zu sein scheint. (Jede 8800GTS holt mehr Leistung pro Transistor hervor. Warum sollte nVidia das vergessen haben?)

    Also irgendetwas stimmt da noch nicht. Ganz objektiv und losgelöst von der Konkurrenz betrachtet.

    -----------------

    @testman: Es gibt einen wesentlichen Unterschied: GPUs arbeiten intern bereits massiv parallel.
    Siehe dazu auch den weiteren Text...

    -----------------

    @ascer:
    Es ist nicht mit dem Bau einer Graka und guten Treibern getan. Es gibt IMMER nicht parallelisierbare teile des Codes. Irgendwann bringt eine weitere Erhöhung der Ausführungseinheiten oder gar der Zahl der kompletten GPUs absolut nichts. Ganz zu schweigen von dem irren Aufwand die Daten zu synchronisieren.
    Auch bei multi-core CPUs gibt es da Grenzen. Deswegen werden wir wohl nie CPUs mit 128 x86er Kernen zu gesicht bekommen!
    Dazu gibt es schöne Quellen von Intel zur Skalierung von "many core"-Systemen:
    http://softwarecommunity.intel.com/articles/eng/3809.htm

    Tabelle 1-2 zeigt, daß bei einer Verdopplung von 64 zu 128 CPUs die Leistung selbst in einem hochgradig idealisierten und real nicht anzutreffendem Fall von 90% Parallelisierbarkeit geradeeinmal um den Faktor 0,5 zulegt. (von ~9 auf ~9,5), wobei zusätzliche Verluste für das Management (thread creation overhead, synchronization, and communication) nicht berücksichtigt wurden.

    Um es zusammenzufassen: Es wird immer Berechnungen geben, die nicht parallelisierbar sind und damit auch auf 100 gleichzeitig eingebauten Grafikkarten, die alle PERFEKT gebaut wären und über PERFEKTE Treiber verfügen nicht schneller laufen würden als auf einer einzelnen Karte.

    --

    In den Tests sieht man ja auch relativ deutlich, daß der verdoppelte Speicher teilweise mehr zu bringen scheint als der zusätzliche Rechenkern. Nicht immer, aber doch relativ häufig. Zudem irritiert mich im Fazit, daß die 4870X2 mit sovielen Einschränkungen zum Sieger gekürt wird.
    "Die liegt ganz klar vorne! ... also wenn man von den niedrigen Auflösungen absieht... und von Flugsimulator... und den Tests, bei denen sie auch geschlagen wurde... aber DANN ist die Karte super!"

    Ja, das Ergebnis ist leider(!) so durchwachsen, wie es bei SLI/CF schon immer der Fall war. Da, wo die Optimierungen für zusätzlichen Parallelismus greifen, schießt die Karte nach vorn. In den Tests, in denen dies nichts bringt, fällt sie stark zurück.

    Ein Wechselbad der Gefühle würde ich nicht dermaßen loben.
    Die GTX280 bleibt bisher auch recht deutlich hinter den Erwartungen zurück. Warum soll man die eine oder andere Karte schönreden?

    Es wird sich doch kaum jemand eine Grafikkarte für einen Benchmark kaufen, sondern doch ehr für eine breite Palette an Anwendungen und Spielen.

    Für eine solche Verwendung ist die normale 4870 doch irgendwie wesentlich besser geeignet, da die Ergebnisse konsistenter sind.
  • Anonymous , 3. September 2008 00:40
    HD 4870 X2 : 2.4 GFlops ?
Alle Kommentare anzeigen