HD-DVD Wiedergabe: ATI oder Nvidia?

Zum Vergrößern anklicken

Der Wechsel von DVD auf Blu-ray und HD DVD hat begonnen. Die neue 3D-Mittelklasse von Nvidia und ATI sind dafür hervorragend ausgestattet. Die Chips nennen sich : Radeon HD 2400 XT, HD 2600 XT, Geforce 8500 GT und 8600 GT. Laut der Werbung wird die Systemlast optimiert und volle Grafikqualität gesichert. ATI nennt die Unterstützung UVD (Unified Video Decoder), bei Nvidia findet man den Markennamen PureVideo HD.

Die schnelleren High-End-Karten müssen mit weniger auskommen : Die Chips tragen die Bezeichnung : Radeon HD 2900 XT, Geforce 8800 GTS und 8800 GTX. ATI verzichtet beim 2900er auf UVD, weil er genug Leistung hat. Bei Nvidia kann man den Unterschied zwischen Mittelklasse und High-End-Chips in einer Produkttabelle sehen. Ein Farbbalken zeigt die Eignung einer Grafikkarte zu HD DVD und Blu-Ray. Wodurch die Unterschiede bestehen, kann man nicht erkennen.

THG benutzt für einen detaillierten Test den HD HQV Benchmark, welchen der deutsche ATI-Presseservice mit den Testmodellen Radeon HD 2400 XT und HD 2600 XT zur Verfügung stellte. Die Ergebnisse können überraschen. So gibt Nvidia beim Geforce 8 und Geforce 7 die Eignung zu HD DVD an (Quelle: http://www.nvidia.de/object/geforce_family_de.html).

So gibt Nvidia beim Geforce 8 und Geforce 7 die Eignung zu HD DVD an (Quelle : http://www.nvidia.de/object/geforce_family_de.html).

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
7 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • runzbuckel
    wo ist der Fortschritt, wenn es kein HD-Video-In an den Grakas gibt ? back to the extra-video-karte ??? Da gibts sowas aber auch bisher nicht für den consumermarket(oder doch?)

    Oder ist das mal wieder so ein versuch der Medienindustrie, die Konsumenten in den A.. zu F... ?!
    0
  • sepp
    Der Test sollte wiederholt werden.
    Schaut euch mal im Netz um.
    Die HD 2400-2600 erzeugt mit PDVD U 7.3.2911 wirklich nur je nach CPU 1-10 % Last bei 1920x1080 H264.
    Zauberwort ist HVA (DXVA) beim Testen benutzen.;)
    0
  • MrFlow
    Wie habt ihr das denn mit der Geforce 8600GT und dem entsprechenden Treiber unter Windows XP gemacht? Auf der nVidia Seite steht, dass PureVideo bis jetzt nur unter Vista unterstützt wird. Komm da vielleicht noch mal ein Update?
    0
  • stopfen2007
    Wie sind diese Karten in einem Linux-Mediacenter einsetzbar? Kann man auch HD ansteuern oder ist das zum Scheitern verurteilt?
    0
  • karlrot
    Ich habe ne 8600GT besorgt(Q6600)
    der nvidia Treiber erkennt meinen Acer AT3220 am HDMI leider als Fernseher und schickt dann ein interlaced Signal. Der Acer geht daraufhin in den Overscanbetrieb,also nix mit scharfen Bildern bei HDCP geschützten Inhalten. Am VGA ist das Bild superscharf- so wie bei meiner alten radeon 9000 allinwonder am HDMI (DVI nach HDMI)Tools wie Powerstrip u.s.w. helfen auch nicht. Das sind die praxisnahen Probleme, über die Ihr berichten solltet,ich könnt mich schwarz ärgern 700 Lappen und es funzt nicht!
    0
  • MrBurns
    @runzbuckel: es sind nicht mal analoge Videoeingänge bei Grafikkarten üblich und das war schon immer so. Nur die ATI All-in-Wonder Karten hatten analoge Videoeingänge, aber das waren eigentlich Grafikkarten+TV-Karten in einem, da sie auch einen TV-Tuner hatten. Für Videoeingänge braucht man also prinzipiell TV-Karten. Grafikkarten mit Videoeingängen wären prinizpiell um einiges teurer, weil wenn man aus einem Gerät,d as nur Output unterstützt eines macht, das auch Input unterstützt braucht man einiges an zusätzlicher Elektronik. Außerdem würde das bei High-End-karten garnicht gehen, wiel sonst die Karten, die ja von der Länger her schona n der Grenze sind zu lang werden würden und außerdem zu viel Strom verbrauchen und zu viel Wärme erzeugen würden.
    0
  • MrBurns
    @runzbuckel: es sind nicht mal analoge Videoeingänge bei Grafikkarten üblich und das war schon immer so. Nur die ATI All-in-Wonder Karten hatten analoge Videoeingänge, aber das waren eigentlich Grafikkarten+TV-Karten in einem, da sie auch einen TV-Tuner hatten. Für Videoeingänge braucht man also prinzipiell TV-Karten. Grafikkarten mit Videoeingängen wären prinizpiell um einiges teurer, weil wenn man aus einem Gerät,d as nur Output unterstützt eines macht, das auch Input unterstützt braucht man einiges an zusätzlicher Elektronik. Außerdem würde das bei High-End-karten garnicht gehen, wiel sonst die Karten, die ja von der Länger her schona n der Grenze sind zu lang werden würden und außerdem zu viel Strom verbrauchen und zu viel Wärme erzeugen würden.
    0