Pins an Grafikkarten abkleben: Wer braucht PCIe 2.0?

Benchmarks: ATI Radeon HD3850

pciexpress2 scaling

pciexpress2 scaling

pciexpress2 scaling

pciexpress2 scaling

pciexpress2 scaling

Für den Flight Simulator X von Microsoft benötigt man eindeutig große Grafikbandbreite, um im Systemspeicher hoch-detaillierte Texturen bereitstellen zu können. Auf die Bildraten hat die abnehmende an PCI Express-Bandbreite erhebliche Auswirkungen.

pciexpress2 scaling

Den neuen PCMark Vantage lassen Veränderungen der Bandbreite nahezu kalt. Dieser Test hat ganz offensichtlich mehr Anforderungen an die GPU und arbeitet aus dem lokalen Bildspeicher heraus.

pciexpress2 scaling

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
45 Kommentare
    Dein Kommentar
  • Ich glaube auf Seite 3 is ein kleiner fehler. Die Radeon 3870 Enthusiast soll sicher eine X2 sein.

    Ansonsten klasse test...
    0
  • Ich frage mich wie oft noch neue Schnittstellen diskutiert werden. Damals bei AGP 4x => 8x war genau die selbe Diskussion. Und bei AGP => PCI-Express das selbe. "Bringt nichts" "Kein Leistungszuwachs" etc. Wobei es eh keine Rolle spielt ob es mehr kann oder nicht.

    Es wird neuer standard, preislich ändert sich nichts und es ist Abwärtskompatibel. Also keinerlei Nachteile für den Endkunde, ergo ist jede Diskussion und jeder Bericht ohne brauchbaren Inhalt.
    0
  • auf Seite 1 klingt es so als würde der P35 PCIe 2.0 nicht unterstützen, ich meine aber das dies falsch wär (obwohl ich meine Hand nicht dafür ins Feuer legen würde)
    Vll. könnte der Author das nochmal nachsehen...
    0
  • BobbitzIch frage mich wie oft noch neue Schnittstellen diskutiert werden. Damals bei AGP 4x => 8x war genau die selbe Diskussion. Und bei AGP => PCI-Express das selbe. "Bringt nichts" "Kein Leistungszuwachs" etc. Wobei es eh keine Rolle spielt ob es mehr kann oder nicht.Es wird neuer standard, preislich ändert sich nichts und es ist Abwärtskompatibel. Also keinerlei Nachteile für den Endkunde, ergo ist jede Diskussion und jeder Bericht ohne brauchbaren Inhalt.


    ? Mhm

    Und woher wusstest du, dass PCIe 2.0 KEINEN wirklichen Vorteil/Nachteil für den Endkunden hat?

    Ich weiss es aufgrund eines (dieses) Berichts/Tests.
    2
  • xCxauf Seite 1 klingt es so als würde der P35 PCIe 2.0 nicht unterstützen, ich meine aber das dies falsch wär (obwohl ich meine Hand nicht dafür ins Feuer legen würde)Vll. könnte der Author das nochmal nachsehen...


    P35 hat kein PCIe 2.0, sondern halt 1, aber da 2.0 abw'rtskompatibel ist kannst du auch PCIe 2.0 Karten in ältere Boards packen.
    0
  • Sobald der Zugriff auf komplexere Texturen erfolgt, wie es bei Crysis

    hust, grad bei crysis machts fast kein unterschied.
    tut's es ändern auf CoD4 dann entspicht euer fazit dem Test.

    =)
    schönen tag
    1
  • stanfordbinet? MhmUnd woher wusstest du, dass PCIe 2.0 KEINEN wirklichen Vorteil/Nachteil für den Endkunden hat?Ich weiss es aufgrund eines (dieses) Berichts/Tests.


    Aufgrund dessen, was ich bereits erwähnt habe. Ein Bericht wäre interessant wenn es eine bahnbrechende Erneuerung wäre, egal ob für Übertakter, oder Ottonormalerverbrauche (zB -70% Energieverbrauch, 200% Leistungszuwachs, was auch immer).

    Dieser Bericht sagt in 4 Seiten "PCI 2.0 ist gleich wie 1.1" Also total nutzlos.
    0
  • hmm wenn ich das richtig verstehe koennte man somit eine pcie x16 karte zu einer pcie x1 grafikkarte machen ? man muesst halt statt abkleben noch eine kerbe sägen =)
    Sinn: Mehre Grakas in einen z.B Multiheaded Pc einbauen
    (pcie x1 grakas gibts ab werk nur wenige und die sind teuer)
    0
  • Ich muß auch sagen, daß der Test zwar interessant, aber irgendwie auch nicht wirklich nützlich ist. Und zwar alleine schon aus dem Grund, daß das menschliche Auge nicht mehr als maximal 30 Bilder in der Sekunde verarbeiten kann. Als normalsterblicher nur 24 Bilder pro Sekunde.
    Dementsprechend ist es völlig egal, ob man mit PCI-E 2.0 50fps statt 40fps hat. Und wenn ich dann hier was von 132fps lesen muß, kann ich mich nur noch am Kopf kratzen.
    Das wird nur eingeführt, weil die Technik da ist. Und weil es Gewinn bringt.
    DDR3 ist leistungsmäßig auch total überflüssig. 5-8% schneller, aber 3-4 mal so teuer.
    Zumal es X38-Boards und X48-Boards mit DDR2 garnicht gibt. Hab zumindest keins gefunden. Obwohl der DDR2-Speicher die Taktraten locker erfüllen würde. Wenn man also nicht auch noch Unsummen für DDR3 ausgeben möchte, ist man auf die N780-SLI-Chipsätze festgenagelt.
    -2
  • hmm ... komisch ... mir fallen sofort einige Boards mit X38 oder X48 Chip ein, die DDR2 unterstützen, z.B. Gigabyte GA-EX38-DS4 oder das GA-EX48-DS5
    Asus hat zumindest auch welche mit X38, X48 bin ich mir da nicht sicher
    1
  • Bruder TacUnd zwar alleine schon aus dem Grund, daß das menschliche Auge nicht mehr als maximal 30 Bilder in der Sekunde verarbeiten kann. Als normalsterblicher nur 24 Bilder pro Sekunde.Dementsprechend ist es völlig egal, ob man mit PCI-E 2.0 50fps statt 40fps hat.


    a) Vll. gibt es/ wird es Spiele geben bei denen der Unterschied dann auf 25 statt 15 FPS fällt?
    b) laut Wikipedie die sich auf "Wolf D. Keidel: Kurzgefasstes Lehrbuch der Physiologie, S. 422, Georg Thieme Verlag Stuttgart, 1973" bezieht kann das menschliche Auge 60-65 Bilder/s wahrnehmen.
    c) mach mal den Selbstversuch: Stell die Details/ Auflösung in einem Spiel so ein, das du 25-30 FPS hast. Dann stell es auf min. Qualität und schau dir die 60FPS an, die wirken viel flüssiger...
    0
  • @BruderTac:

    Dargestellte Sequenzen mit 25fps werden als flüssige Bewegung wahrgenommen - das heißt aber ehr, daß "ab" 25fps (bzw im Kino 24) es nicht mehr bewußt als Einzelbilder wahrgenommen wird. Das heißt ja noch lange nicht, daß es die Grenze der perfekt-flüssigen-Wahrnehmung darstellt.

    Zudem ist zu bedenken: Auch wenn eine Graka bei einem Spiel 50fps in einer Szene darstellt, so heißt das noch lange nicht, daß bei aufwändigeren Szenen nicht auch mal Einbrüche auf 15fps stattfinden können. Das konnte ich mit einem recht betagten Spiel (Joint Ops) gut nachstellen. Bei geringer Sichtweite komme ich da auf über 100FPS, wenn ich jedoch von einem Hügel über größere Distanz in einen Wald schaue, dann kann die Framerate auch dauerhaft auf Werte unter 20 einbrechen.
    OK, maximale Kantenglättung (feste Einstellung im Treiber AF & AA) und höchste Auflösung vorausgesetzt.

    Wenn ein Hersteller eine Grafikkarte mit "MINDESTENS 50fps" auf den Markt bringen würde, dann würde ich die wohl sofort kaufen. *G* Besser noch "mindestens 60FPS". Dann würde ich VSYNC aktivieren und hätte nie wieder einen Ruckler.

    Ansonsten mußt Du auch noch bedenken, daß es Interferenzeffekte zwischen FPS und Bildwiederholrate gibt. Daher sind FPS-Werte >60 durchaus sinnvoll.
    1
  • Interessanter Bericht! Ich hab schon lange auf einen derartigen Test gewartet. Ich finde es allerdings schade, dass nicht das Top-Modell von AMD getestet wurde (HD3870 X2).

    Die 9800 X2 basiert meines Wissens auf zwei 8800 GT GPUs und nicht auf 8800 GTS GPUs.

    Interessant wäre noch die (reduzierte) Leistungsaufnahme gegenüber PCIe 1.1 gewesen.
    0
  • Zum Thema flüssige Animationen: 25 fps ist nur der Grenzwert, darunter sieht man es deutlich ruckeln, das sollte jeder sehen. 60 fps sind Optimum für flüssige Animationen. Einfacher Test in einem Shooter, leicht drehen und gleichzeitig vorwärts und seitlich bewegen, bei 25 fps sind Gegner und Objekte in der Bewegung nicht mehr optimal. Glaubt doch nicht immer diesen 25/24 Bilder/s Mist, TV/Kino-Standard sind uralt und völlig überholt. Es geht auch um Wahrnehmung, nicht um einen wissenschaftlichen Mittelwert, was das menschliche Auge sieht.

    IMAX HD macht 48 Bilder/s, Fernseher haben schon vor Jahren 100 Hz als Bildverbesserung eingeführt und jeder LCD macht mindestens 60 Hz, was sich als Standard für eine stillstehende Desktop-Oberfläche etabliert hat. HD Video kann ebenfalls 60 Bilder/s, beim Kinotest soll es zu vielen Leuten zu realistisch sein.

    Gibt ein Test der Lanes mit 1-16x Rückschlüsse auf die Geschwindigkeit von PCIe 2.0?
    0
  • also die 100Hz kannst vom Fernseher kannst du nicht mit dem FPS Wert eines Spieles vergleichen. Aufgezeichnet werden meines Wissens nach dort auch nur 24 Bilder/s und die dann entsprechend oft wiederholt. Die 100Hz dienen da dem vermindern/ eliminieren des wahrgenommenen (bzw. nicht wahrgenommenen aber Kopfschmerzen u.ä. verursachendem) Flimmern.

    Aber ansonsten kann ich da nur voll zustimmen, der "Deine Auge kann mehr als 24 Bilder eh nicht Wahrnehmen" - Mythos sollte so langsam mal an Gläubigern verlieren
    1
  • 3Dmann hat wohl recht: Wo ist der vergleich zu PCIe 1? Im Artikel steht nur so ein blabla vonwegen: "8x PCIe 2.0 entspricht ja 16x PCIe 1", aber theoretische Werte und die Realität sollte man schon noch miteinander vergleichen! Wer weiß, vielleicht ist PCIe 2.0 defacto kaum schneller als der Vorgänger. Die Werte erinnern mich schon irgendwie grob an die Graphen, als getestet wurde, ob 8x PCIe bei SLI bremsen würde...

    Kann man eigentlich irgendwo in Treibern oder im BIOS von PCIe 2.0 runterschalten auf PCIe 1.x?
    0
  • @xCx
    Schon klar das 50 Halbbilder keine 100 Hz werden und nur verdoppelt sind, es geht eben um Wahrnehmung und dafür waren 50 Hz schon anstrengend, wozu über 25 fps überhaupt reden. Streng genommen hast du bei unbewegten Texten, Internetseiten oder dem Desktop nur 1 fps welches auf 60 Hz angezeigt wird :D

    Übrigends macht auch Power DVD bei DVD-Filmen 50 fps, obwohl es nur 25 Bilder/s Ausgangsmaterial sind.

    @derGhostrider
    Ist wohl nicht vorgesehen, hab ich weder im Treiber noch im 3D-BIOS bisher gesehen.
    0
  • Demnach ist die Überschrift des Tests nicht korrekt. Es wurde nicht getestet, ob PCIe 2.0 Vorteile bringt, sondern eben nur, ob 16 lanes benötigt werden.

    Schade.
    -1
  • derGhostriderDemnach ist die Überschrift des Tests nicht korrekt. Es wurde nicht getestet, ob PCIe 2.0 Vorteile bringt, sondern eben nur, ob 16 lanes benötigt werden.Schade.


    Natürlich wurde getestet, ob PCIe 2.0 Vorteile bringt!
    PCIe 2.0 ist bei 16 Lanes doppelt so schnell wie PCIe 1.1 bei 16 Lanes, und es wurde getestet ob die Verdoppelung der maximalen Bandbreite benötigt wird, und auch bei Welchen Games.
    PCIe 2.0 8x entspricht PCIe 1.1 16x
    Der Gewinn von PCI 2.0 8x auf 16x entspricht dem praktischen Gewinn von PCIe 1.1 16x auf PCIe 2.0 16x, und das ist kein besonders großer (im Vergleich zur Verdoppelung der theoretischen Bandbreite)
    Erst die kommen Grafikkarten (RV770 etc) werden vermutlich einen bedeutenden Flaschenhals bei PCI 1.1 aufzeigen können...
    0
  • Ist nur blöd, daß die Wahrnehmung eine asymtotische Funktion ist.
    Die bemerkte Änderung von 15fps auf 20fps ist sehr viel größer, als die von 50fps auf 60fps.
    Und alles über 60fps bewegt sich ehr im Reich der Meßelektronik als der des Auges. Und 132fps sind absolut Jacke wie Hose.
    Und eine gutprogrammierte Grafikengine und ein guter Grafiktreiber sind dreimal mehr wert als die hypermodernste Grafikkarte samt Schnittstelle.
    Je weniger Daten man durch eine Schnittstelle quetschen muß, desto flüssiger wird es. Und die Unart fast alles nochmal durch den CPU zu jagen ist da auch nicht unbedingt produktiv. Speziell die konvertierten Konsolenspiele machen das ausgiebig.
    0