Anmelden mit
Registrieren | Anmelden

Crossfire vs. SLI: Radeon HD38x0 vs GeForce 8800 GT

Crossfire vs. SLI: Radeon HD38x0 vs GeForce 8800 GT
Von

HD3850 HD3870 8800GT Crossfire SLI

Die Rechnung erscheint einfach: Ein Duo aus Radeon HD3870 oder Geforce 8800 GT kostet genauso viel wie eine einzelne Geforce 8800 GTX oder Ultra. Die meisten Motherboards verkraften die doppelte 3D-Leistung und vernünftige Netzteile sollten ab 450 Watt stark genug für ein derartiges Gespann sein. Doch da stellt sich die Frage: Was ist sonst noch zu beachten, funktioniert Crossfire oder SLI immer und ist die Leistung mit einer Highend-Karte überhaupt vergleichbar?

Crossfire oder SLI nennt sich die Kopplung von zwei Grafikkarten, die sich im Idealfall die Rechenarbeit beim Bildaufbau von 3D-Spielen teilen. Theoretisch sollte sich die Bildanzahl bei den Animationen verdoppeln, zieht man Verwaltung des Datenaustauschs und CPU-Belastung ab, dürften 80 Prozent Gewinn sicher sein. In der Praxis profitieren nicht alle Spiele von der erhöhten Grafikleistung. Die CPU muss ausreichend Power haben, die Auflösungen und Games sollten nicht von der CPU limitiert werden und das Spiel muss grafisch aufwendig sein. Je mehr die Grafikkarte zu arbeiten bekommt, desto höher kann der Leistungsgewinn werden.

In der Realität sieht es dann so aus, zwei von zehn Spielen werden langsamer, weil die zusätzliche Grafikkarte CPU-Leistung absaugt oder der Grafiktreiber für dieses Spiel nicht optimiert wurde. Zwei weitere Spiele laufen nur in höheren Auflösungen ab 1680 Pixel und mit aktivierter Kantenglättung (AA) besser. Würde man die Kantenglättung deaktivieren, merkt man die Leistungssteigerung kaum noch. Drei von zehn Spielen zeigen eine leichte Steigerung von 20 bis 40 Prozent. Die restlichen Spiele sind die Ausnahme, sie können die Framerate in vielen Auflösungen fast verdoppeln oder sind zwischen 40 und 80 Prozent schneller.

Wichtig ist der Chipsatz des Mainboards, er entscheidet, auf welcher Seite der Macht man steht: ATI und Intel unterstützen Crossfire mit ATI-Grafikkarten, Nvidia ist für SLI mit Nvidia-Grafikkarten zuständig. Untereinander sind die Duo-Systeme gesperrt, Einzelgrafikkarten laufen auf allen Chipsätzen problemlos. Wer jetzt ein Mainboard mit P35 oder X38 (Intel-Chipsatz) kauft, was fast eine logische Wahl bei einer Intel-CPU ist, kann nur Crossfire mit zwei ATI-Grafikkarten betreiben. Wer seinen 8800 GT oder eine andere Geforce-Grafikkarte mit einem zweiten 3D-Board verbinden will, braucht einen Nvidia-Chipsatz.

Koppeln sollte man Grafikkarten mit identischem Grafikchip (GPU) und gleichem Grafikspeicher. Wenn unterschiedliche Grafikchips verbunden werden, gibt es keine Garantie, ob die Karten miteinander kommunizieren. Bei Nvidia kann sich der Grafiktreiber weigern, bei ATI kann es am Grafikkarten-Bios liegen, welches Software Crossfire eventuell sperrt. Der Grafikspeicher verdoppelt sich nicht, zwei Geforce 8800 GTS mit 320 MByte sind keine 640 MByte, es bleiben jeweils 320 MByte, die für Kantenglättung und Auflösungen zur Verfügung stehen. Bei unterschiedlicher Speicherbestückung oder unterschiedlichem Grafikchip wird sich das System am schwächsten 3D-Board orientieren. Bei gemischten Doppelpaketen steckt man die schnellere Karte (Masterkarte) in den ersten PCI-Express-Slot.

Damit zwei Grafikkarten Daten austauschen, werden sie über eine Steckbrücke miteinander verbunden. Bei schwächeren Grafikkarten ist diese Steckverbindung nicht immer nötig, der Datenaustausch wird über den PCI-Express-Bus vorgenommen. Viele schnellere Modelle setzen hingegen eine Steckverbindung voraus, ältere ATI-Karten brauchen sogar eine Crossfire-Master-Karte mir Spezialkabel. Bei Nvidia ist eine Steckbrücke nötig, bei ATI sind es fast immer zwei. SLI oder Crossfire wird über den Grafiktreiber aktiviert, bei Nvidia muss für mehr 3D-Speed oft noch der Rendermodus geändert werden, was vom Spiel abhängt. Bei ATI kann die Umstellung von Catalyst AI Standard auf Advanced eine Verbesserung der Leistung oder Kompatibilität bringen.

Das Mainboard braucht zwei PCI-Express-Steckplätze, am besten mit 16x. Der 975-, P35- und 680i- Chipsatz werden mit 2x16 beworben, die meisten Mainboards haben allerdings nur einen vollwertigen 16x-Slot und einen mit 4x verdrahtet, erst der X38 soll zwei richtige 16x-Slots besitzen. In den langen Benchmark-Sitzungen gab es allerdings keine messbaren Nachteile bei der Kombination von 16x und 16x mit 4x-Verdrahtung. Wird in Battlefield 2142, Oblivion und Call of Duty 4 der SLI- oder Crossfire-Modus aktiviert, kann man die 3D-Beschleunigung fast verdoppeln.

Die Frage, ob zwei Einzelkarten besser als eine schnelle Highend-Karte sind, hängt von der Treiberoptimierung ab. Crysis läuft mit einer Einzelkarte schon recht langsam, hat man jetzt zwei Grafikkarten gekauft, die nicht optimiert sind, ist der Ärger doppelt groß. Während SLI eine Steigerung von 20 bis 40 Prozent bringt, hat Crossfire mit dem Catalyst 7.11 erhebliche Probleme, die nur ATI mit einem weiteren Treiber-Update lösen kann. Spätestens hier stellt sich dann jeder die Frage, wäre das Geld nicht besser in eine schnelle Single-Lösung angelegt gewesen.

In vielen Fällen steigert SLI oder Crossfire die 3D-Leistung bei Spielen, die schon mit Einzelkarte schnell laufen. Hier rechnet sich das Doppelpack nur bei hohen Auflösungen, ob 1280 Pixel mit 120 oder 170 fps laufen, wird kaum jemanden interessieren, flüssig ist flüssig. Dagegen ist es ein deutlicher Unterschied, ob man 1920 Pixel mit 39 oder 64 fps spielt.

Im Test befinden sich: Der Radeon HD3850 256 als Einzelkarte und Crossfire, der Radeon HD3870 512 als Einzel- und Doppelkarte, der Geforce 8800 GT als Einzelkarte und SLI-Verbund, ein Geforce 8800 GTX und ein Geforce 8800 Ultra. Die Testauflösungen sind an 19-, 22- und 24-Zoll angepasst, zusätzlich gibt es neue Benchmarks, alles wird unter Vista und wenn möglich im DX10-Modus getestet.

45 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Insane , 3. Dezember 2007 14:32
    Die HD3870 ist ein volltwertiger Konkuerrent für die 8800GT ,da es schon Karten für 181€ gibt...vielleicht solltet ihr vorher etwas recharschieren.

    mfg Marius
  • Veidi , 3. Dezember 2007 15:03
    Mich wundert das schon.
    Ständig werden irgendwelche bescheuerten Tests gemacht, ob denn nun die ATI irgendwie an die nVidia Leistungen rankommt.
    Alle Tests sind eindeutig -> NEIN.

    Klar sind die Karten billig, oder sollte ich lieber günstig sagen.
    Klar gibt es für jede Kategorie auch eine Käuferschicht.

    Aber im Moment sind die ATI Leistungen so belanglos, dass mir das keinen einzigen Bericht wert wäre.

    Und dann immer dieses Fazit, wo man sich einen rausreisst, irgendwas positives an den ATI Karten zu finden.

    Meine Meinung.
  • betablocker , 3. Dezember 2007 15:13
    @insane: ich weiss nicht, ob du dir die benchmarks wirklich angeschaut hast, ich würde die hd3870 jedenfalls nicht als konkurrenz für die 8800gt bezeichnen. zumal die 8800gt preislich auf etwa demselben niveau ist.
  • Nicht ich , 3. Dezember 2007 15:57
    preislich ist die 8600gts eher eine fairer konkurent gegen über eine hd3850, besonders wenn diese nur mit 256 MB Speicher läuft, da beide für rund 150 zu haben sind. Außerdem ist ein so früher Crossfire-Test nicht gerade sinvoll, da bekanntlich ATI immer erst die Hardware und dann Wochen (Monate) später die passenden Treiber rausbringt. das habt ihr letzte Woche ja selbst in einem Test bestätigt, dass bei der HD 2900XT so bis zu 10% mehr Leistung raussprangen. Die 8800 GT hingegen ist schon 3 oder 4 Monate draußen und der Treiber, wie bei nVidia üblich, schon wesentlich ausgereifter.

    So würde ein Vergleich alleine vom Preis besser passen:
    HD3870 vs. 8800GT
    HD3850 vs. 8600GTS
    HD2600XT vs. 8600GT
    HD2600pro vs 8500-Series
    HD2400series vs. 8400-Series.

    Wobei bei allen Tests die Leistungsaufnahem bei den ATIs besser ist.




  • Sabre , 3. Dezember 2007 15:58
    Spielen die Mainboards bei diesem Vergleich eine untergeordnete Rolle?

    D975XBX2 (CrossFire: x8, x8-Modus)
    680i (SLI: x16, x16-Modus)
  • Nicht ich , 3. Dezember 2007 16:06
    @betablocker: Naja das würde ich so nicht sage, eine HD3750 bekomme ich ab eine 8800GT ist um 10% oder mehr teurer als eine HD3750. Ich weiß manche mögen denken, dass ich meinem vorigen Post damit wiederspreche, ich habe da ja auch nur gelistet, was am ehesten zusammen passt.
  • Toylicht , 3. Dezember 2007 16:13
    Sehr seltsam das ganze.
    Auf vielen anderen Seiten hat Ati die Nase vorn !

    Mir kam bei diesem Test mal wieder was Komisch vor.

    Warum werden die Nvidia Karten auf einem High-End
    680i SLI board(2x16)Lanes gestopft und Die ATI Karten auf ein Intel 975X Board???

    Wenn zwei PCI x16 Grafikkarten auf dem Intel 975X installiert werden, arbeiten beide PCIe x16 Slots mit einer Geschwindigkeit von x8. Der dritte PCIe x16 Slot arbeitet mit einer Geschwindigkeit von x4.

    Mag ja net viel an Leistung ausmachen "möchten viele behaupten" aber bitte macht doch die Tests unter den gleichen Bedingungen !

    ach übringens TOP SEITE das hier.
    Weiter so !!!

    mfg Toy

  • Numrollen , 3. Dezember 2007 16:18
    Jo Tests im gleichen Preisrahmen wäre weit aus sinnvoller. Die neuen ATI bieten DX10.1 und Shader 4.1 schon und für HD besser geeignet. Die 8800GT hauen eindeutig mehr Leistung raus was aber schon lange bekannt ist. Hitze soll ja bei einigen 8800GT Karten ein Problem sein und da kosten einige schonmal 250-270€.
    Warum wird auf einigen Seiten Benchmarks gezeigt in denen die CF/SLI Karten richtig abgehen? Warum ist überall auser hier die ATIs in niedriger Auflösung weit hinten aber fallen bei hohen Auflösungen nicht so stark ab so das ab 1600x die ATIs vor den GTs sind?
  • Numrollen , 3. Dezember 2007 16:19
    Jo Tests im gleichen Preisrahmen wäre weit aus sinnvoller. Die neuen ATI bieten DX10.1 und Shader 4.1 schon und für HD besser geeignet. Die 8800GT hauen eindeutig mehr Leistung raus was aber schon lange bekannt ist. Hitze soll ja bei einigen 8800GT Karten ein Problem sein und da kosten einige schonmal 250-270€.
    Warum wird auf einigen Seiten Benchmarks gezeigt in denen die CF/SLI Karten richtig abgehen? Warum ist überall auser hier die ATIs in niedriger Auflösung weit hinten aber fallen bei hohen Auflösungen nicht so stark ab so das ab 1600x die ATIs vor den GTs sind?
  • gR3iF , 3. Dezember 2007 16:23
    Die 3870 gibt es ab 181,-
    Die 3850 gibt es ab 138,-

    2 3850 sind also 276,- Crossfire Board dazu haben alle die Intel Boards haben. Zumal Nvidia Boards demnächst nicht mehr alle aktuellen Intel Cpus fressen.

    Eine 88gtx gibt es ab 419,- Das ist also irgendwie nicht dair die zu vergleichen.

    Die 88gt geht aktuell bei 230,- Los.
    Das sind alles non oc Varianten.
    Also da ist man mit 2 3850 nur 30 über einer single 88gt.

    Die 3850 sind jetzt aber in Spielen die von Crf was haben schneller als eine Single 88gt. Insofern wunderbar jetzt billig eine 3850 kaufen und dann wenns ruckelt eine zweite.
  • arTekk , 3. Dezember 2007 16:32
    Die Mainboardwahl für die ATI Karten finde ich auch unverständlich. Ein gutes X38 Board hätte sich förmlich angeboten...
  • PautZzz , 3. Dezember 2007 17:29
    @Insane: die Quelle deiner Weisheit wäre nicht schlecht

    @Veidi: "..bescheuerten Tests.." - wer zwingt dich diese zu lesen?

    meiner Meinung nach hängt der Vergleich von THG, weil die
    die 3870 in einer anderen Preisklasse spielen wird
    (Vorrausetzung: es sind genug Grafikkarten im Handel
    [gilt für AMD genauso wie für NVIDIA])
    --> deswegen muss die 3870 gar nicht an die Leistung der NVIDIA rankommen

    "..im Moment sind die ATI Leistungen so belanglos.."
    also mit der neuen ATI-Generation hat ATI ein besseres Preis/Leistungsverhältnis als der Konkurrent
    Link: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/28/#abschnitt_preis_leistung_verhaeltnis

    "..irgendwas positives.."
    wie wärs z.B. mit voller Unterstützung von VC1
    etc.

    übrigens kostet laut geizhals.at ne 8800gt mind. ~266,- und eine 3850 OC mit 512MB gibts für ~181,-
  • PautZzz , 3. Dezember 2007 17:31
    @Insane: die Quelle deiner Weisheit wäre nicht schlecht

    @Veidi: "..bescheuerten Tests.." - wer zwingt dich diese zu lesen?

    meiner Meinung nach hängt der Vergleich von THG, weil die
    die 3870 in einer anderen Preisklasse spielen wird
    (Vorrausetzung: es sind genug Grafikkarten im Handel
    [gilt für AMD genauso wie für NVIDIA])
    --> deswegen muss die 3870 gar nicht an die Leistung der NVIDIA rankommen

    "..im Moment sind die ATI Leistungen so belanglos.."
    also mit der neuen ATI-Generation hat ATI ein besseres Preis/Leistungsverhältnis als der Konkurrent
    Link: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/28/#abschnitt_preis_leistung_verhaeltnis

    "..irgendwas positives.."
    wie wärs z.B. mit voller Unterstützung von VC1
    etc.

    übrigens kostet laut geizhals.at ne 8800gt mind. ~266,- und eine 3850 OC mit 512MB gibts für ~181,-
  • TheGuezzWho , 3. Dezember 2007 17:39
    Unreal Engine 3 benchmarks zeigen das ATI und Nvidia gleich stehen... Es werden viele spiele mit diesen engine kommen. Cod4? keine chance. BF2142 zu ersetzen war ein fehler, BF2 wird noch immer gezockt und leute wollen wissen was CF und SLI bringen.
  • NegroManus , 3. Dezember 2007 18:16
    ist heute "fett"-schreib tag oder einfach ein fehler?!

    naja... zwei grafikkarten sind auf jeden fall eines: stromhungrig, wärmeabgebend, platzeinnehmend.

    wer braucht da schon EINE schnelle, leise, kühle, 'kleine' 8800gtx.
    keiner. richtig. wir sind ja auch alle für den klimawandel. endlich bräunen an weihnachten.
    *finde die ironie*
  • T3dBundy , 3. Dezember 2007 19:58
    mag zwar sein das nvidia karten in praktischen benchmarks mehr frames bringen , aber nvidia hat auch bei der entwicklung von crysis und bei vielen anderen games hier im test mitgewirkt . der offizielle 3dmark 06 record wurde soweit ich weiss mit 2 ati 2900xt`s gebrochen :D . ich habe zwar nicht so viel ahnung , trotzdem denke ich das nvidia nicht so viel besser sein kann als ati . in hl2 ist ati ebenfalls in der lage sich mit nvidia karten zu meßen , nur meine meinung .
  • 3D Mann , 3. Dezember 2007 22:57
    @Insane und @gr3iF
    Für den Preisvergleich nehme ich immer die Preise der Testkarten. Wäre unfair Karte XYZ testen und Preis von ABC nehmen, desahlb der Hinweis, ab 185 Euro schlägt das Preisleistungsverhältnis um.

    @Sabre und @Toylicht und @arTekk
    Die Umstellung auf X38 kommt in 2 Wochen, ich warte noch auf den GTS 512. Bis dahin werden Einzelkarten+CF auf dem 975 getestet, sonst sind die Werte mit anderen Tests nicht mehr vergleichbar.

    Nur weil der X38 jetzt verfügbar ist, deshalb ist der 975/P35 nicht schlechter geworden. Der HD2900 XT hat in Battlefield 2142 und Oblivion 80-90% CF-Power. Da HD3850/70 nicht viel schneller sind, warum sollte sich das Verhältnis ändern.

    Beim X38 wird CPU und DDR3 höher getaktet und es gibt PCIe 2.0, womit aktuelle Tests gleich viel besser aussehen und zu alten Wert überhaupt nicht mehr vergleichbar sind. Eine Umstellung würde mehr Vorteile für Nvidia-Einzelkarten bringen. Vergleicht man SLI und CF, hat CF in Call of Duty 4 oder Half Life 2 E2 mehr Prozent Steigerung, weil 88GT schon am Anschlag läuft. Mit mehr CPU und Bus-Power wäre der 88GT noch schneller, aber das CF-Verhältnis würde sich nicht viel ändern, der PCIe-Bus limitiert noch nicht, auch nicht mit 4x oder 8x.
    Im Vergleich zum X38 ist der 680i veraltet, was ja dann auch wieder keine gleiche Testbedingungen sind - egal wie man es dreht und wendet, der Umstieg auf DDR3 und PCIe 2.0 ist der größere Unterschied und sicher nicht 16x, 8x oder 4x, was die Benchmarks auch beweisen.

    @PautZzz
    Der Preis wird von den Testkarten bestimmt, das mit VC1 steht im 38x0 Launch-Review.

    @TheGuezzWho
    Wenn euch BF2142 lieber ist, meldet euch bitte.

    @Bundy
    ja, weil der 3DMark auf ATI/CF/SLI optimiert wurde. Egal ob ATI oder Nvidia optimieren, Hauptsache die Spiele laufen schneller, dafür bekommen sie ja ihr Geld. Matrox und S3 haben da nicht mitgemacht und sind auch weg im Spielebereich und warum tauchen sie nicht beim 3DMark auf, weil sie da auch nicht optmiert haben ? hehe.
  • 68Marcus69 , 3. Dezember 2007 23:00
    Die Single - Karten sowie die CrossFire sind alle auf dem D975XBX2, nur die SLI läuft af dem 680i.
    Soweit ich mich erinnere liegt der Unterschied eines einzelnen 8x zu 16x PCIe bei ca. 1 - 6%, daher sehe ich die MB - Wahl als nicht zu unterschiedlich an.
    Zwar geht es hier um CrossFire vs. SLI, aber dennoch denke ich kann man seine Lehren aus diesem Test ziehen, grade wenn man die Leistungsaufnahme in 3D mit einbezieht.
    Irgendwie scheinen die CossFire - Varianten zwar recht gut aber eben nicht in dem Maße wie die 8800GT´s in SLI ausgereitzt zu werden.
    Weiter siehtes so aus als wenn stärkere GK auch mehr von der doppelanbindung profitieren.
  • Urgestein , 4. Dezember 2007 01:35
    der test bestätigt auf alle fälle wieder, das sli geldverschwendung ist.

    an die redaktion: danke, dass ihr dieses mal sinnvolle und zeitgemäße grafikeinstellungen genommen habt ;)  so ist das ganze doch schon viel übersichtlicher...

    und insane sollte vorher vielleicht erst nochmal deutsch lernen :D 
  • 3D Mann , 4. Dezember 2007 03:06
    Wieso Geldverschwendung? 2x8800GT sind in einigen Bereichen schneller als 1xUltra. Ist ja auch ein Superzufall, schnelle Spiele werden noch schneller, weil gut optimiert und Spiele, bei denen die Leistung fehlt (Crysis), sind nur mäßig optmimiert. Mal ehrlich, wäre es anders, könnte Nvidia den GTX und Ultra vom Markt nehmen. Und solange Nvidia die Treiber und Spiele mit optimiert, warum sollten die ihre eigenen Highend-Karten abschießen. SLI vermarkten sie trotzdem, immer mit dem Argument 30" und 1600p.
    Viel mehr würde mich interessieren, was ist aus den Physik-Effekten geworden, ist wie die Brennstoffzelle ...kommt jetzt, bald, ja - nächstes Jahr...
Alle Kommentare anzeigen