Anmelden mit
Registrieren | Anmelden

3D-Grafiktest: PCI-Express 2.0 und Crossfire

3D-Grafiktest: PCI-Express 2.0 und Crossfire
Von

PCI-Express-2.0 PCI-Express-x16-x8-x4 CrossfireGeht man davon aus, mit welchen Fragen sich der harte Kern der Enthusiasten beschäftigt, so stehen am häufigsten Fragen zum Thema PCI-Express-2.0-Schnittstelle im Visier. Kostproben gefällig? Reicht ein P35-Chipsatz von Intel noch aus oder soll man gleich auf den aktuellen X38 setzen? Wieviel Leistung kann man durch ein Upgrade erreichen und nutzen die heutigen Grafikkarten den PCI-Express-Bus überhaupt schon vollständig aus?

Manchmal gab es Kritik an unseren Crossfire-Tests, laut den Stimmen einiger Leser wäre es nicht mehr zeitgemäß, ein modernes ATI-Doppel-Pack HD38x0 auf einem Intel 975er-Motherboard mit kastrierter Anbindung zu testen. Die Umstellungen in unserem Testlabor sind jetzt passiert, so dass alle kommenden ATI-Crossfire-Tests mit dem X38-Chipsatz durchgeführt werden. Was die Umstellung bewirkt, zeigen spezialisierte Tests, die sich nur auf die Crossfire-Auflösungen konzentrieren, die letztendlich auch eine Leistungssteigerung bringen. Nimmt man den Idealfall, gibt es 20 Prozent mehr 3D-Power.

Im Test befinden sich alle aktuellen Grafikkarten mit PCI-Express-2.0-Schnittstelle, wie der Geforce 88GT, 88GTS 512 von Nvidia und der Radeon HD3850 sowie HD3870 von ATI. Als Gegentest ist zusätzlich der HD2900 XT mit dabei, er ist immer noch der schnellste ATI-Chip, kommt aber mit PCI-Express-1.1-Schnittstelle aus und was ideal ist, um die Leistungswerte zwischen den neuen Karten und dem X38-Chipsatz zu vergleichen.

Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum Artikel erstellen.

Beispiel: Notebook, Festplatte, Speicher

Alle 17 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • xxl-et , 12. Januar 2008 11:10
    Bravo Tomshardware! Auf Kritik großteils reagiert und detailiert umgesetzt.
    Ein hervorragender Test, der endlich essentielle Fragen des Mainboardkaufs beantwortet und meiner Meinung nach viel wichtiger für den Käufer eines neuen Systems sein sollte, als einzelne FPS-Unterschiede im typischen Nvidia vs ATI Vergleich. Einen solchen Test habe ich bisher vergeblich in den Weiten des I-Nets gesucht.
    Für jemanden, der nun ein CF oder SLI System kauft, um es in ein bis zwei Jahren mit neuer CPU und zweiter Grafikkarte nachzurüsten eine ganz klare Ansage: Jetzt schon in ein gutes MB investieren!
  • derGhostrider , 12. Januar 2008 14:31
    Ist die Aussage nicht ehr, daß es zur Zeit noch keine nennenswerte Verbesserung bringt?
    Der entscheidende Unterschied ist ja nicht PCI-Express 2.0 sondern der Umstieg von 8x auf 16x.
    Also: Ein Board mit zwei vollständig verdrahteten 16x-Slots für die, die CF planen.

    Davon abgesehen würde ich immer dazu raten ein "gutes" MB zu kaufen. Man sollte nur nicht ganz vergessen, daß auch P35 Mainboards nicht gerade schlecht sind. Dazu verbrauchen sie aber auch deutlich weniger Strom als ein X38 oder gar X48 und kosten (teilweise) nur die hälfte.

    Muß wohl doch jeder selbst entscheiden, ob er für wenige Prozent Mehrleistung den Preis zahlen will. Aber wer schon sein Geld derartig raushaut, daß er sich CF oder SLI leistet, der wird jawohl nicht ausgerechnet am Board sparen, oder?
  • DKK|Sebi , 12. Januar 2008 20:19
    Netter Test!!
    Nur kann jemand ne Prognose abgeben, habe ein P35 Board und wollte mir ne GeForce 9xxx holen...
    was denkt ihr läss sich der Leistungsverlust verkraften, wird es auf ähnlich kleine Unterschiede hinauslaufen... oder dann lieber wenn die neuen draußen sind ne gute 88er...
    Habe im Moment eine HD2400Pro als Übergangslösung und die ist zum zocken echt bescheiden....

    wäre über eine kompetente Antwort erfreut ;) 
  • apocalypsecow , 13. Januar 2008 11:40
    Also die GeForce 9xxx steht ja noch aus und wird preislich wohl doch in einer anderen Region liegen, sonst hätte Nvidia nicht noch die neuen 8800 gelaunched. Da man eh kein SLI mit den Intel-Chipsätzen machen kann, bleibt also die Frage des Geldes. Die Frage ob man 2-5% weniger Durchsatz hat ist hier wohl eher obsolete.
    Es liegt auch massiv an der Auflösung, die man zu nutzen gedenkt. Ich persönlich spiele nun wirklich nicht bei 1900x1200 oder so was. Ich glaube, dass man mit 1280x1204 gut auskommt (respektive den 16:9 Formaten). Somit reicht eine 8800GTS/512 oder OC 3870 (oder als CF) völlig aus. Was ist mit dem Betriebssystem? XP/SP3 oder doch Vista? Ich denke, dass die Wahl noch nie so schwierig war, da Auswahl immer massiver wird. Preislich sind nur noch die Mainboards wirklich teuer (in Leistung gemessen).
  • derGhostrider , 13. Januar 2008 12:07
    Hallo!

    Wurde nicht bereits im Artikel gesagt, daß man schlicht und ergreifen abwarten muß, bis sich PCI-express 2.0 lohnt?
    Dieser Ansicht schließe ich mich nämlich erstmal an. In diesem Test ist deutlich zu sehen, daß 4x PCIe zu langsam ist, da 8x deutlich schneller ist. Zwischen 8x und 16x ist der Unterschied mit 7% - 8% Prozent schon ehr gering. Vermutlich reicht also die Bandbreite von 8x vollkommen aus, jedoch wurden die Datenpakete mit 16x etwas schneller zugestellt.
    Erst bei Crossfire wurde 8x PCIe 1.0a mit 16x PCIe 2.0 verglichen.
    Wer die Grundlagen der Prozentrechnung verstanden hat (im Gegensatz zum schreiber des Artikels), der hätte nämlich wissen sollen, daß zwei Karten auf PCIe 1.0a 16x den gleichen PROZENTUALEN Geschwindigkeitsvorteil gegen Karten auf 8x hätten haben sollen, wie es bei einzelnen Karten der Fall ist.
    Verwunderlich ist dann nur das Ergebnis der HD2900XT. Anscheinend wurde beim neuen Chipsatz die Effizienz des PCIe-Controllers erhöht. Unabhängig von PCIe 1.0a oder PCIe 2.0. Daher gibt es zu den vorher festgestellten 7-8% nochmal 4% oben drauf als Bonus.
    DIESE 4% sind der Vorteil, den man durch PCIe 2.0 im direkten Vergleich mit den 16x PCIe 1.0a Slots HEUTE erreicht.

    Wenn man Grafikkarten hat, die PCIe 2.0 nutzen können und so wenig RAM haben, daß sie auf den Hauptspeicher zugreifen müssen, dann wird der prozentuale Gewinn zwar größer, aber die Leistung der Karte ist dann insgesamt natürlich schlechter. Das trifft nur bei den ganz kleinen Karten zu mit 64MB RAM und "TurboCache" oder wie es der jeweilige Hersteller nennt. Die sind eh langsam und können ihren zu kleinen Speicher durch Auslagerung der Daten ins RAM etwas vergrößern.

    Und für die zukünftigen Karten?
    Nunja, die 4% Vorteil sind so oder so vorhanden. Eventuell werden neue Grafikkarten den Bus etwas optimierter nutzen. Solange jedoch die benötigte Transferrrate nicht um den Faktor 3 oder 4 steigt, wird auch PCIe 1.0a 16x ausreichen.
    Ausreichen ist jedoch relativ. Wenn zwischen den guten Grafikkarten kaum 5% Unterschied zu messen sind, dann sind zusätzliche 4% quasi so, als ob man das schnellere Modell der Grafikkarte gekauft hätte.

    @Apocalypsenow:
    Also wenn ich eine 8800GTS/512 oder gar die OC-Variante hätte, dann würde ich auf meinem MOnitor garantiert in 1920*1200 spielen. Selbst meine x800Pro bekommt das bei einigen Spielen gut hin. Natürlich nicht bei den neuesten Krachern, aber dafür ist die Karte auch schon sehr alt. Wie man in den Benchmarks sieht, kommt die 88GTS ganz gut mit dne hohen Auflösungen klar. Man braucht ja keine 100FPS, damit es flüssig spielbar bleibt. TFTs erneuern das Bild i.d.R. nur 60mal pro Sekunde. Jeder zusätzlich berechnete Frame ist verloren und bringt keinen Mehrwert.
    (Wobei es nicht schlecht ist, wenn die Karte "im Schnitt" mehr als 60 schaffen würde, damit in extrem anspruchsvollen Situationen nicht doch plötzlich ein Ruckler kommt... andererseits sieht man im Kino bei 24FPS auch (meistens) nichts ruckeln)
  • apocalypsecow , 13. Januar 2008 19:58
    @derGhostrider: Das ist aber blöd, weil in meinem Bekanntenkreis einschließlich mir keiner einen Monitor besitzt, der die Auflösung kann. Nur einer hatte sich einen 22"er geholt, dieser wird wahscheinlich die o.g. Auflösung unterstützen. Ich gehe davon aus, dass die meisten Leute keinen Monitor besitzen, der eben diese 19xxx12xx schafft.

    Ich kann dich aber beruhigen, dass es nur Sinn macht sich aktuelle Hardware zu holen, wenn man aktuelle Titel spielen möchte. Für Counterstrike 1.6 braucht man in der Tat keine 8800GTS/512.

    P.S.: Hat die Bildwiederholrate Deines Bildschirms nichts mit dem der Renderhardware zu tun. Dann würde ja ein Spiel auf einem TFT langsamer laufen, als auf einem CRT. Du hast aber sicher recht, dass man keine 100FPS benötigt.

    Aber dennoch würde ich lieber in 1280x1024 spielen mit viel Kantenklättung und Co, anstatt in der maximalen Auflösung mit wenig Qualität. So war meine Aussage gedacht.
  • derGhostrider , 13. Januar 2008 20:36
    Apocalypse:
    22" TFTs mit 1920*1200 sind sehr ungewöhnlich. Der billigste ist der Lenovo L220x für ca 600Euro.
    Vermutlich wird der 22" diese krumme Auflösung haben: 1680 x 1050. Die gibt's an jeder Ecke hinterhergeschmissen.

    Nungut, wenn Du keinen Monitor für die Auflösung hast, dann wirst Du natürlich auch nicht diese Auflösung spielen. Das ist klar. Ich habe aber gerade festgestellt, daß ich Deinen ersten Beitrag etwas falsch gelesen haben muß...

    Allerdings ist mein Geschmack z.B. ganz anders. Ich spiele VIEL lieber mit hoher Auflösung und ohne Eye-Candy als mit AA und AF auf Maximum und dafür auf einer niedrigeren Auflösung. Dann empfinde ich das Bild als zu breiig.
    Das ist aber ehr Geschmackssache... So mag ich einen Grafikeffekt (gern bei Autorennen eingebaut) "Motion Blurr" überhaupt nicht. Das ist für mich auch nicht realistischer oder so. Mit meinem Motorrad bin ich regelmäßig 280 gefahren, da verschwimmt gar nix - außer man hat das Visir auf. ;) 

    *g* Gut ist natürlich, wenn man beides haben kann. Also hohe Auflösung UND eye-candy. ;)  Aber das klappt nur bei älteren Spielen oder den teuersten Grafikkarten.
  • Groovy , 13. Januar 2008 21:45
    Schade leider wurde in diesem Test wieder mal der veraltete Catalyst 7.11 verwendet in dem bekanntlicher Weise Probleme mit dem RV670 Chip von ATI gibt.

    Bereits Seit mitte Dezember ist der 7.12 verfügbar, der neben den üblichen verbesserungen und Bugfixes, für die 38X0-Serie und CF optimiert wurde. Da ich gerade dieses Gespann 2x3870) auf einem P35 board (Gigabyte P35-DS4) mein eigen nenne fand ich es schade das der Test mit veralteten treibern gefahren wurde.
    Außerdem habe ich sythetsche Benchmarks wie 3D- oder Auquamark vermisst

    Ansonsten aber ein solider Test der einige Fragen geklärt hat die mir auf der Brust lagen.
  • 3D Mann , 14. Januar 2008 04:42
    @derGhostrider
    Völlig richtig, 7% bleiben 7%, ist korrigiert, danke für den Hinweis.

    Interessant ist das Gesamtergebnis, selbst bei Crossfire bleiben es 7%, obwohl nicht alle Spiele durch 2 Karten beschleunigt werden. Die 12 bis 15% in den optimierten 13 Auflösungen werden durch die restlichen nicht-Crossfire-Auflösungen/Spiele wieder auf 7% gedrückt.

    Der 7.12 war zum "Testzeitpunkt" nicht verfügbar, er ist 2 Tage danach erschienen. Deshalb habe ich die Crossfire-Vergleiche mit den optimierten Auflösungen/Spielen vorgenommen, wodurch die Ergebnisse weniger von Treiberoptmierungen abhängig sind.
  • derGhostrider , 14. Januar 2008 12:48
    @3D Mann:

    Auf Seite 2 steht immernoch:
    "Die x16-Anbindung wird als 100 Prozent gewertet. ATI und Nvidia verlieren 7 bis 8 Prozent, wenn der PCI-Express-Slot nur x8 unterstützt, bei Crossfire müsste der Verlust doppelt so hoch liegen."

    Also entweder sollte das nun abgeändert werden in "bei Crossfire müsste der absolute Verlust doppelt so hoch liegen." oder aber "dieses Ergebnis ist auch für Crossfire zu erwarten." ;) 

    Liegt's an mir, oder wurde nicht explizit darauf eingegangen, wie sich die Geschwindigkeit zwischen einem Board mi PCIe 1.0a und PCIe 2.0 verändert?
    Wie man sieht, ist ja selbst die Zusammenstellung der "alten", nur PCIe 1.0a Karte auf dem X38 Board weiter gestiegen, als es zu erwarten war.

    Wäre nett, wenn da nochmal kurz hätte getestet werden können, was bei sonst gleicher Hardware passiert, wenn nur das Board getauscht wird. (auch bei einer Grafikkarte).

    ich vermute nämlich immernoch, daß selbst PCIe 1.0a Karten auf dem X38 Mainboard ca 4% schneller sind als auf dem alten Mainboard, obwohl sie PCIe 2.0 eigentlich gar nicht nutzen können!
  • 3D Mann , 14. Januar 2008 13:49
    @derGhostrider
    2ter Hinweis ist auch korrigiert.
    Die einzige nicht-2.0-Karte ist der 2900XT, andere Vergleichwerte (Nvidia) habe ich nicht, kann ich auch nicht nachtesten, weil die Testplattform so nicht mehr existiert. Es kommen neue Benchmarks und VGA Charts, die nur noch auf der neuen Testplattform basieren.

    Unterschiede von PCIe 1.0 1.1 2.0 wären vielleicht etwas für Mainboardtests, eine sichere Aussage über die 4% Steigerung kann man mit nur einem Asus-Testboard (3D-Grafiktests) wahrscheinlich nicht machen. Mehr als ein Mainboard und verschiedene Hersteller wären sicher besser.
  • Anonymous , 15. Januar 2008 15:47
    hmm erst ma muss ich sagen interessanter artikel allerdings kams mir so vor das der P35 chipsatz en bissel ausen vor gelassen wurde. würde mich interessieren wie der die zweite lane anspricht? kann ich jetzt davon ausgehn das der auch mit 2x8x anspricht oder x16x4 oder wie oder wat oder wer
  • legdocheinei , 16. Januar 2008 10:59
    hallo,

    vielen dank für diesen artikel! mir ging es auch weniger um das letzte prozent bei den messwerten als vielmehr um eine generelle aussage bezüglich pcie 1.0 oder 2.0 und 4/8/16 lanes.
    sonstwo habe ich infos dazu nämlich noch gar nicht gefunden.
  • Anonymous , 17. Januar 2008 00:16
    Sorry melde mich hier zum ersten mal drum hab ich ma oben test geschrieben, ich habe da eine frage die ich mir einfach nich erklären kann. Nach Verkaufsgeschäften soll ja die GF8800GTX wenn man nun ma die ultra weg lässt das flagschiff von nvidia sein. Sie sind auch die deutlich teueren Karten. Nun seh ich in diesem Test das eine 8800 GT, ich möchte ma sagen. Deutlich besser abgeschnitten hat als eine GTX, geschweige die Ultra die ja vom preis schon in unverschämten höhen liegt überhaupt nicht davon ziehn kann. Im gegenteil sie wurde auch als schlechter getestet.

    Bin zwar nicht so der Freak was zahlen angeht aber ich weiss scho was gut und schlecht ist aber das "neue" Grafikkarten verhältnis nervt mich einfach nur noch übelst, keine ahnung ob ich da der einzigste bin aber der markt wird einfach überschwemmt mit zahlen 8800,8700 88650 was der geier auch und dann noch paar buchstaben hinten für sparversionen die eh keiner richtig haben will.

    Kann mir hier jemand nun sagen welche grafikkarte nun die schnellste ist und warum die billigere schneller abgeschnitten hat ?
    An SLI bin ich mal überhaupt nicht intressiert da ich genau weiss das ich dann wieder in die röhre gucken kann weil die meisten spiele eh nich auf SLI mode möglich sind.
  • Anonymous , 17. Januar 2008 00:19
    ah jez hab ich hier voll was getextet und nu ging es nicht.

    Kurzfassung. mich nimmt wunder warum die GF GT schneller abschneidet als die GTX obwohl die ja billiger ist und eigentlich ja die GTX wenn man ma die ultra weg lässt das Flagschiff von Nvidia sein soll.
  • chrisr15 , 17. Januar 2008 13:10
    Dass die HD2900 mit PCIe2.0 mehr Leistung bringt wundert mich (unterstützt ja kein 2.0 oder?).
  • 3D Mann , 17. Januar 2008 20:51
    @senox
    Das kommt auf die Spiele an, bei Crysis sieht man noch den leichten Abstand zwischen Ultra, GTX und GTS 512. GT und GTS 512 sind höher getaktet und können sich dehalb zu den High-End-Karten gut behaupten.

    @chrisr15
    Stimmt, die 2900 hat PCIe 1.1, der Leistungsgewinn kann vom schnelleren Speicher, Chipsatz oder besserem Datenmanagment der PCIe-2-Schnittstelle kommen. Sowas müßte man mit verschiedenen Mainboards nachprüfen, dieser Schwerpunkt lag auf Grafikkarten.