Anmelden / Registrieren

Pins an Grafikkarten abkleben: Wer braucht PCIe 2.0?

Pins an Grafikkarten abkleben: Wer braucht PCIe 2.0?
Von , Achim Roos

PCI Express gibt es seit annähernd vier Jahren. Derzeit wird PCI Express in zweiter Generation neu aufgelegt, wodurch sich die Bandbreite der Schnittstelle verdoppelt und die Flexibilität zunimmt, die Kompatibilität mit PCIe 1.1 dabei aber bestehen bleibt. Mit der Markteinführung von PCI Express musste sich der veraltete AGP-Bus dem höheren Durchsatz, besserer Skalierbarkeit und größerer Flexibilität der neuen Technologie geschlagen geben. Zeitgleich entwickelten Unternehmen wie ATI oder Nvidia Grafiklösungen mit mehreren Karten, durch die komplexe 3D-Darstellung weiter beschleunigt und auch die Qualität verbessert wurde. Die zweite PCI Express-Generation erschien mit dem X38-Chipsatz von Intel auf dem Markt und ist auch beim X48 von Intel, der 790/770-Familie von AMD und der nForce 7-Serie von Nvidia mit von der Partie. Aber wer braucht PCI Express 2.0 derzeit wirklich?

PCIExpress2 ATI Nvidia

Plattformen auf Basis ähnlicher Technologie lassen sich anhand ihrer Leistung heute kaum noch unterscheiden. Produkte heben sich mittlerweile verstärkt durch ihren Funktionsumfang und die Übertaktungsfähigkeit von der Konkurrenz ab. Zwei verschiedene Motherboards mit gleichem Chipsatz und vergleichbaren Parametern werden garantiert gleiche Performance liefern – es sei denn, ein Motherboard-Hersteller hat bei der Feinabstimmung seines Produkts komplett versagt. Derzeit unterstützen nur neueste Chipsatz-Generationen den PCI Express 2.0-Standard; allerdings gibt es noch zahlreiche andere Chipsätze, die gleichwertige Leistung liefern und über mit einem vergleichbaren Funktionsumfang ausgestattet sind. Mit dem von 250 MB/s auf 500 MB/s verdoppelten Durchsatz pro Lane steigt bei PCI Express zweiter Generation im Vergleich zu PCI Express 1.1 die Bandbreite auf das Doppelte. Somit bietet x16 PCI Express dieselbe Bandbreite wie acht Lanes mit PCI Express 2.0.

Um von dem höheren Durchsatz auch etwas zu bemerken, brauchen Sie ein PCIe-2.0-konformes Motherboard und eine PCIe-2.0-Grafikkarte. Während ATI mit dem Einbau von PCIe 2.0 in seine Radeon HD 3000-Familie nicht lange gefackelt hat, sind nur die neuesten GeForce-Grafikkarten der 9er-Serie und einige GeForce-8-Modelle PCIe 2.0-konform. Unsere Wahl fiel auf eine ATI RAdeon HD3850-Karte der Mittelklasse und auf die High-End-Karte GeForce 9800 GX2 von Nvidia. Deren PCI Express-2.0-Interface haben wir für unsere Tests auf x8, x4 und x1 gedrosselt. Dadurch wollten wir herausfinden, ob man PCI Express 2.0 wirklich braucht, um die gewünschte Grafikleistung zu erzielen. PCI Express 2.0 bietet immerhin einen großen Vorteil: Neue PCIe 2.0-Grafikkarten sind voll kompatibel mit PCIe 1.1-Motherboards und laufen auch mit der verfügbaren Bandbreite von PCI Express 1.1 problemlos.

Aktuelle Artikel zum Thema Grafikkarten und PCI Express bei Tom’s Hardware:

Alle 45 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • clemidrome , 7. Mai 2008 11:08
    Ich glaube auf Seite 3 is ein kleiner fehler. Die Radeon 3870 Enthusiast soll sicher eine X2 sein.

    Ansonsten klasse test...
  • Bobbitz , 7. Mai 2008 11:25
    Ich frage mich wie oft noch neue Schnittstellen diskutiert werden. Damals bei AGP 4x => 8x war genau die selbe Diskussion. Und bei AGP => PCI-Express das selbe. "Bringt nichts" "Kein Leistungszuwachs" etc. Wobei es eh keine Rolle spielt ob es mehr kann oder nicht.

    Es wird neuer standard, preislich ändert sich nichts und es ist Abwärtskompatibel. Also keinerlei Nachteile für den Endkunde, ergo ist jede Diskussion und jeder Bericht ohne brauchbaren Inhalt.
  • xCx , 7. Mai 2008 11:52
    auf Seite 1 klingt es so als würde der P35 PCIe 2.0 nicht unterstützen, ich meine aber das dies falsch wär (obwohl ich meine Hand nicht dafür ins Feuer legen würde)
    Vll. könnte der Author das nochmal nachsehen...
  • stanfordbinet , 7. Mai 2008 12:08
    BobbitzIch frage mich wie oft noch neue Schnittstellen diskutiert werden. Damals bei AGP 4x => 8x war genau die selbe Diskussion. Und bei AGP => PCI-Express das selbe. "Bringt nichts" "Kein Leistungszuwachs" etc. Wobei es eh keine Rolle spielt ob es mehr kann oder nicht.Es wird neuer standard, preislich ändert sich nichts und es ist Abwärtskompatibel. Also keinerlei Nachteile für den Endkunde, ergo ist jede Diskussion und jeder Bericht ohne brauchbaren Inhalt.


    ? Mhm

    Und woher wusstest du, dass PCIe 2.0 KEINEN wirklichen Vorteil/Nachteil für den Endkunden hat?

    Ich weiss es aufgrund eines (dieses) Berichts/Tests.
  • f1delity , 7. Mai 2008 12:18
    xCxauf Seite 1 klingt es so als würde der P35 PCIe 2.0 nicht unterstützen, ich meine aber das dies falsch wär (obwohl ich meine Hand nicht dafür ins Feuer legen würde)Vll. könnte der Author das nochmal nachsehen...


    P35 hat kein PCIe 2.0, sondern halt 1, aber da 2.0 abw'rtskompatibel ist kannst du auch PCIe 2.0 Karten in ältere Boards packen.
  • phobos , 7. Mai 2008 12:40
    Sobald der Zugriff auf komplexere Texturen erfolgt, wie es bei Crysis

    hust, grad bei crysis machts fast kein unterschied.
    tut's es ändern auf CoD4 dann entspicht euer fazit dem Test.

    =)
    schönen tag
  • Bobbitz , 7. Mai 2008 13:03
    stanfordbinet? MhmUnd woher wusstest du, dass PCIe 2.0 KEINEN wirklichen Vorteil/Nachteil für den Endkunden hat?Ich weiss es aufgrund eines (dieses) Berichts/Tests.


    Aufgrund dessen, was ich bereits erwähnt habe. Ein Bericht wäre interessant wenn es eine bahnbrechende Erneuerung wäre, egal ob für Übertakter, oder Ottonormalerverbrauche (zB -70% Energieverbrauch, 200% Leistungszuwachs, was auch immer).

    Dieser Bericht sagt in 4 Seiten "PCI 2.0 ist gleich wie 1.1" Also total nutzlos.
  • Anonymous , 7. Mai 2008 16:05
    hmm wenn ich das richtig verstehe koennte man somit eine pcie x16 karte zu einer pcie x1 grafikkarte machen ? man muesst halt statt abkleben noch eine kerbe sägen =)
    Sinn: Mehre Grakas in einen z.B Multiheaded Pc einbauen
    (pcie x1 grakas gibts ab werk nur wenige und die sind teuer)
  • bruder tac , 7. Mai 2008 17:41
    Ich muß auch sagen, daß der Test zwar interessant, aber irgendwie auch nicht wirklich nützlich ist. Und zwar alleine schon aus dem Grund, daß das menschliche Auge nicht mehr als maximal 30 Bilder in der Sekunde verarbeiten kann. Als normalsterblicher nur 24 Bilder pro Sekunde.
    Dementsprechend ist es völlig egal, ob man mit PCI-E 2.0 50fps statt 40fps hat. Und wenn ich dann hier was von 132fps lesen muß, kann ich mich nur noch am Kopf kratzen.
    Das wird nur eingeführt, weil die Technik da ist. Und weil es Gewinn bringt.
    DDR3 ist leistungsmäßig auch total überflüssig. 5-8% schneller, aber 3-4 mal so teuer.
    Zumal es X38-Boards und X48-Boards mit DDR2 garnicht gibt. Hab zumindest keins gefunden. Obwohl der DDR2-Speicher die Taktraten locker erfüllen würde. Wenn man also nicht auch noch Unsummen für DDR3 ausgeben möchte, ist man auf die N780-SLI-Chipsätze festgenagelt.
  • Anonymous , 7. Mai 2008 17:48
    hmm ... komisch ... mir fallen sofort einige Boards mit X38 oder X48 Chip ein, die DDR2 unterstützen, z.B. Gigabyte GA-EX38-DS4 oder das GA-EX48-DS5
    Asus hat zumindest auch welche mit X38, X48 bin ich mir da nicht sicher
  • xCx , 7. Mai 2008 18:19
    Bruder TacUnd zwar alleine schon aus dem Grund, daß das menschliche Auge nicht mehr als maximal 30 Bilder in der Sekunde verarbeiten kann. Als normalsterblicher nur 24 Bilder pro Sekunde.Dementsprechend ist es völlig egal, ob man mit PCI-E 2.0 50fps statt 40fps hat.


    a) Vll. gibt es/ wird es Spiele geben bei denen der Unterschied dann auf 25 statt 15 FPS fällt?
    b) laut Wikipedie die sich auf "Wolf D. Keidel: Kurzgefasstes Lehrbuch der Physiologie, S. 422, Georg Thieme Verlag Stuttgart, 1973" bezieht kann das menschliche Auge 60-65 Bilder/s wahrnehmen.
    c) mach mal den Selbstversuch: Stell die Details/ Auflösung in einem Spiel so ein, das du 25-30 FPS hast. Dann stell es auf min. Qualität und schau dir die 60FPS an, die wirken viel flüssiger...
  • derGhostrider , 7. Mai 2008 18:34
    @BruderTac:

    Dargestellte Sequenzen mit 25fps werden als flüssige Bewegung wahrgenommen - das heißt aber ehr, daß "ab" 25fps (bzw im Kino 24) es nicht mehr bewußt als Einzelbilder wahrgenommen wird. Das heißt ja noch lange nicht, daß es die Grenze der perfekt-flüssigen-Wahrnehmung darstellt.

    Zudem ist zu bedenken: Auch wenn eine Graka bei einem Spiel 50fps in einer Szene darstellt, so heißt das noch lange nicht, daß bei aufwändigeren Szenen nicht auch mal Einbrüche auf 15fps stattfinden können. Das konnte ich mit einem recht betagten Spiel (Joint Ops) gut nachstellen. Bei geringer Sichtweite komme ich da auf über 100FPS, wenn ich jedoch von einem Hügel über größere Distanz in einen Wald schaue, dann kann die Framerate auch dauerhaft auf Werte unter 20 einbrechen.
    OK, maximale Kantenglättung (feste Einstellung im Treiber AF & AA) und höchste Auflösung vorausgesetzt.

    Wenn ein Hersteller eine Grafikkarte mit "MINDESTENS 50fps" auf den Markt bringen würde, dann würde ich die wohl sofort kaufen. *G* Besser noch "mindestens 60FPS". Dann würde ich VSYNC aktivieren und hätte nie wieder einen Ruckler.

    Ansonsten mußt Du auch noch bedenken, daß es Interferenzeffekte zwischen FPS und Bildwiederholrate gibt. Daher sind FPS-Werte >60 durchaus sinnvoll.
  • Anonymous , 7. Mai 2008 21:24
    Interessanter Bericht! Ich hab schon lange auf einen derartigen Test gewartet. Ich finde es allerdings schade, dass nicht das Top-Modell von AMD getestet wurde (HD3870 X2).

    Die 9800 X2 basiert meines Wissens auf zwei 8800 GT GPUs und nicht auf 8800 GTS GPUs.

    Interessant wäre noch die (reduzierte) Leistungsaufnahme gegenüber PCIe 1.1 gewesen.
  • 3D Mann , 7. Mai 2008 22:58
    Zum Thema flüssige Animationen: 25 fps ist nur der Grenzwert, darunter sieht man es deutlich ruckeln, das sollte jeder sehen. 60 fps sind Optimum für flüssige Animationen. Einfacher Test in einem Shooter, leicht drehen und gleichzeitig vorwärts und seitlich bewegen, bei 25 fps sind Gegner und Objekte in der Bewegung nicht mehr optimal. Glaubt doch nicht immer diesen 25/24 Bilder/s Mist, TV/Kino-Standard sind uralt und völlig überholt. Es geht auch um Wahrnehmung, nicht um einen wissenschaftlichen Mittelwert, was das menschliche Auge sieht.

    IMAX HD macht 48 Bilder/s, Fernseher haben schon vor Jahren 100 Hz als Bildverbesserung eingeführt und jeder LCD macht mindestens 60 Hz, was sich als Standard für eine stillstehende Desktop-Oberfläche etabliert hat. HD Video kann ebenfalls 60 Bilder/s, beim Kinotest soll es zu vielen Leuten zu realistisch sein.

    Gibt ein Test der Lanes mit 1-16x Rückschlüsse auf die Geschwindigkeit von PCIe 2.0?
  • xCx , 7. Mai 2008 23:12
    also die 100Hz kannst vom Fernseher kannst du nicht mit dem FPS Wert eines Spieles vergleichen. Aufgezeichnet werden meines Wissens nach dort auch nur 24 Bilder/s und die dann entsprechend oft wiederholt. Die 100Hz dienen da dem vermindern/ eliminieren des wahrgenommenen (bzw. nicht wahrgenommenen aber Kopfschmerzen u.ä. verursachendem) Flimmern.

    Aber ansonsten kann ich da nur voll zustimmen, der "Deine Auge kann mehr als 24 Bilder eh nicht Wahrnehmen" - Mythos sollte so langsam mal an Gläubigern verlieren
  • derGhostrider , 7. Mai 2008 23:13
    3Dmann hat wohl recht: Wo ist der vergleich zu PCIe 1? Im Artikel steht nur so ein blabla vonwegen: "8x PCIe 2.0 entspricht ja 16x PCIe 1", aber theoretische Werte und die Realität sollte man schon noch miteinander vergleichen! Wer weiß, vielleicht ist PCIe 2.0 defacto kaum schneller als der Vorgänger. Die Werte erinnern mich schon irgendwie grob an die Graphen, als getestet wurde, ob 8x PCIe bei SLI bremsen würde...

    Kann man eigentlich irgendwo in Treibern oder im BIOS von PCIe 2.0 runterschalten auf PCIe 1.x?
  • 3D Mann , 7. Mai 2008 23:24
    @xCx
    Schon klar das 50 Halbbilder keine 100 Hz werden und nur verdoppelt sind, es geht eben um Wahrnehmung und dafür waren 50 Hz schon anstrengend, wozu über 25 fps überhaupt reden. Streng genommen hast du bei unbewegten Texten, Internetseiten oder dem Desktop nur 1 fps welches auf 60 Hz angezeigt wird :D 

    Übrigends macht auch Power DVD bei DVD-Filmen 50 fps, obwohl es nur 25 Bilder/s Ausgangsmaterial sind.

    @derGhostrider
    Ist wohl nicht vorgesehen, hab ich weder im Treiber noch im 3D-BIOS bisher gesehen.
  • derGhostrider , 8. Mai 2008 01:57
    Demnach ist die Überschrift des Tests nicht korrekt. Es wurde nicht getestet, ob PCIe 2.0 Vorteile bringt, sondern eben nur, ob 16 lanes benötigt werden.

    Schade.
  • Kade , 8. Mai 2008 10:16
    derGhostriderDemnach ist die Überschrift des Tests nicht korrekt. Es wurde nicht getestet, ob PCIe 2.0 Vorteile bringt, sondern eben nur, ob 16 lanes benötigt werden.Schade.


    Natürlich wurde getestet, ob PCIe 2.0 Vorteile bringt!
    PCIe 2.0 ist bei 16 Lanes doppelt so schnell wie PCIe 1.1 bei 16 Lanes, und es wurde getestet ob die Verdoppelung der maximalen Bandbreite benötigt wird, und auch bei Welchen Games.
    PCIe 2.0 8x entspricht PCIe 1.1 16x
    Der Gewinn von PCI 2.0 8x auf 16x entspricht dem praktischen Gewinn von PCIe 1.1 16x auf PCIe 2.0 16x, und das ist kein besonders großer (im Vergleich zur Verdoppelung der theoretischen Bandbreite)
    Erst die kommen Grafikkarten (RV770 etc) werden vermutlich einen bedeutenden Flaschenhals bei PCI 1.1 aufzeigen können...
  • bruder tac , 8. Mai 2008 11:31
    Ist nur blöd, daß die Wahrnehmung eine asymtotische Funktion ist.
    Die bemerkte Änderung von 15fps auf 20fps ist sehr viel größer, als die von 50fps auf 60fps.
    Und alles über 60fps bewegt sich ehr im Reich der Meßelektronik als der des Auges. Und 132fps sind absolut Jacke wie Hose.
    Und eine gutprogrammierte Grafikengine und ein guter Grafiktreiber sind dreimal mehr wert als die hypermodernste Grafikkarte samt Schnittstelle.
    Je weniger Daten man durch eine Schnittstelle quetschen muß, desto flüssiger wird es. Und die Unart fast alles nochmal durch den CPU zu jagen ist da auch nicht unbedingt produktiv. Speziell die konvertierten Konsolenspiele machen das ausgiebig.
Alle Kommentare anzeigen