Anmelden mit
Registrieren | Anmelden

Ist Performance die einzige Variable?

Mini-Fusion mit ASRock und MSI: AMDs Brazos ist da
Von , Chris Angelini

Einer unserer Kontakt bei Intel sagte uns einmal: „Unter uns - Videos, die mit CUDA konvertiert worden sind, sehen einfach besch...eiden aus.“ Klar, was will man von einem Intel-Mitarbeiter auch anderes erwarten, als dass er sich abfällig über die Konkurrenz äußert. Solche Sprüche hören wir täglich, und es ist ja auch verständlich, dass man die Welt irgendwann durch die grüne/blaue/rote Brille sieht, wenn man für eine Firma arbeitet. Und auf unserer Seite entwickelt man recht schnell einen „Filter“ für solche Sprüche und nimmt nicht alles gleich für bare Münze.

Nach unserem Sandy-Bridge-Artikel fragten einige Leser nach, wie es denn bei all der Geschwindigkeit um die Bildqualität bestellt sei. Um das zu überprüften, organisierten wir uns noch ein paar weitere HD-Video-Clips und wandelten sie mit der auch für Fusion angepassten Version von CyberLinks Media Espresso um.

Der Vergleich ist im Prinzip ein wirklich sehr einfacher. Wir nutzen erneut unsere vier Plattformen, also ASRocks E350M1 mit AMDs E-350-APU, das 880GTX-A-E mit Athlon II X2 240e, das IONITX-P-E mit Intels Celeron SU2300 und das IOITX-L-E mit Intels Atom-CPU. Die von den beiden Boards mit Nvidias ION-Chipsatz ausgegebenen Dateien sollten praktisch identisch sein, sobald wir beide Teile der Hardwarebeschleunigung aktivieren, also Encode und Decode. Obwohl heute eigentlich AMDs E-350 im Mittelpunkt steht, vergleichen wir an dieser Stelle den CUDA-Output mit dem per Software-Encoding  erzielten Ergebnis sowie zwei AMD-Plattformen, die in Hardware dekodieren und in Software komprimieren.

Wer alle Bilder in Originalgröße (720p) öffnet und zwischen ihnen hin und her wechselt, wird feststellen, dass die Qualitätsunterschiede beim Kodier-Durchlauf im Software-Modus nur minimal ausfallen – und dabei reden wir hier noch von einem Standbild. Effektiv sind die drei Dateien also gleich gut.

Dasselbe gilt auch, wenn die drei Boards Hardware-Decoding nutzen. Offenbar ist das, was vom Hardware-Decoder ausgespuckt und dann von der CPU weiter bearbeitet, wird praktisch identisch. Wer jetzt einen Quervergleich machen möchte, kann das Bild mit Hardware-Decoding mit dem Ergebnis des reinen Software-Durchlaufs auf derselben Plattform vergleichen. Egal ob die CPU oder eine GPU das Video dekodiert, das Endergebnis bleibt auf derselben Plattform praktisch identisch.

Und dann ließen wir die CUDA-Kerne der ION-Grafik auf das Video los. Kein schönes Bild, im wahrsten Sinne. Das gezeigte Beispiel ist noch nicht mal das „beste“ aus dem zweieinhalb Minuten langen Trailer. Doch schaut man sich diesen Screenshot in der Originalgröße an und vergleicht ihn mit den anderen, kann man die Unterschiede gar nicht übersehen.

Noch deutlicher wird der Qualitätsunterschied, wenn man sich diese drei Clips nebeneinander anschaut. Deshalb haben wir sie bei MediaFire gesammelt zum Download bereitgestellt. Die Clips zeigen das Ergebnis mit CUDA, dann die ION-Plattform komplett ohne Hardware-Beschleunigung (also im Software-Modus) und zuletzt AMDs E-350 mit Video-Decoding in Hardware. Am besten schaut man sich die drei Clips direkt hintereinander an. Am größten fallen die Unterschiede in Szenen mit viel Bewegung aus. Am besten lässt sich der Effekt wohl als Blockbildung und Verpixeln beschreiben.

Fazit

Wir sind der Meinung, dass es nie gerechtfertigt ist, Die Geschwindigkeit auf Kosten der Qualität zu erhöhen.

Das ist aber ein Thema, das einen eigenen Artikel verdient, und der ist schon in Arbeit. Dort werden wir sowohl die Geschwindigkeit als auch die Qualität der Transcoder-Lösungen von Sandy Bridge, AMDs dedizierten Grafikkarten und Nvidias Grafikkarten vergleichen, die allesamt volle Hardwarebeschleunigung genießen. Da es mehrere Anwendungen gibt, welche die drei zugrunde liegenden APIs CUDA, APP/Stream und Quick Sync nutzen können, können wir dort auch noch weitere Faktoren wie die Implementierung innerhalb der Software berücksichtigen.

Im Kontext eines HTPC-tauglichen Nettops würden wir jedenfalls lieber auf CUDA-beschleunigte Konvertierung der ION-Plattform verzichten und dafür eine höhere Bildqualität wählen. Damit verliert ION aber einen der größten Vorteile, den sie gegenüber AMDs E-350-APU genießt. Wir hoffen jedenfalls, dass die OpenCL-Encoder, die im Laufe des Jahres für Llano und Co. erscheinen sollen, keine faulen Kompromisse bei der Qualität eingehen.

Alle 19 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • crazymath , 28. Februar 2011 09:44
    Danke für den Überblick. Und gut zu sehen, dass das Ding niemals für richtige Spieleatmosphäre sorgen wird (Bei den Netbooks mit mini-Auflösung könnte es aber grad so reichen).

    Zumindest im Desktopbereich ist der Einsatz dieser CPU mehr als fraglich. Im Büro sowieso undenkbar. Da würde ich vorher ein paar Watt Mehrverbrauch in Kauf nehmen und hätte dafür die deutlich höhere Leistung und Effizienz. Und mittels Spannung runtersetzen (Ok, würde ich nicht jedem zumuten, aber wer das Ding eh selber zusammenbaut, wird das auch hinbekommen) ist der Verbrauch eines AthlonII x2-x4, PentiumE, Core-i3 auch nicht mehr so hoch.

    Die Grafikkarte ist zwar ne nette Dreingabe...aber mehr auch nicht.

    Kurz: Ich bin nicht die Zielgruppe und werde es auch niemals sein:-)

    Wie sieht es eigentlich mit OC/Spannung senken/erhöhen aus? Gibt es da Möglichkeiten zum Einstellen? Wenn ja, wäre es nämlich interessant, wie die CPU skaliert, wenn man sie z.B. auf 2GHz stell. Bei AsRock und beim Atommüll war das ja schon möglich (2.1GHz oder so).

    Klar, einen riesigen Sprung wird es nicht geben, aber immerhin.
  • FormatC , 28. Februar 2011 10:24
    Das BIOS ist eine Krankheit. Interessanterweise skaliert die CPU mit dem Takt sogar "über". Ich hatte nur das MSI in der Hand - da es ein Vorserienbrett war, konnte ich leider an der Kühlung nichts aktiv ändern. Mit Druckluft aus meinem kleinen Tischkompressor hatte ich ihn aber auch locker über 2 GHz, das macht dann auch langsam Freude. Ich denke mal, bis 2.2 GHz wird das Teil mit einem brauchbaren Kühler durchaus laufen können. Durch den höheren Bustakt wird so einiges schneller ;) 
  • fffcmad , 28. Februar 2011 10:56
    Joa. Aber so wie es aussieht bricht dem Ding Single Channel und DDR3 1066 das Genick. Ich denke mal das das Teil wesentlich schneller sein koennt. Aber das haette wohl 1 Watt mehr gekostet :( 
  • FormatC , 28. Februar 2011 11:27
    DDR3 1066 oder 1600 ist doch Rille und übliches Marketinggeschwätz der Speicherhersteller. Das macht weniger aus, als gute Timings bzw. ein kleinerer Ausbau (4 statt 8) ;) 

  • toby8866 , 28. Februar 2011 11:36
    Super Artikel,

    vorallem die augenscheinlich nebensächliche dreingabe des Video-decoding, weil ich selebr auch mit einer 470gtx und media expresso decodiere und mir bei niedrieger bitrate das krasse blocking aufgefallen ist.

    Ich freu mich schon auf den Artikel und fände es schön wenn man evtl. auch Badaboom 2.0 mit vergleicht, wo ich glaube das dort die Qualtiät besser ist.

    mfg
  • fffcmad , 28. Februar 2011 12:35
    Besser Beides @ FormatC. DDR31066 ist mit 133MHz Bustakt doch schon recht lahm... VOn den Latenzen her duerfte ein BX440 das Ding breitkloppen, da der wenigstens Commandrate 1 faehrt ^^
  • Anonymous , 28. Februar 2011 13:20
    Was mich am meisten interssiert ist, ob die GPU 3D Blu-Ray Playback unterstützt!?
    In der Featureliste der ZBox mit Fusion ist es nicht aufgelistet.
    Die HD Audioformate werden ja unterstützt (anders wie beim ION).
    Weiß da jemand was?
  • fffcmad , 28. Februar 2011 14:23
    Ne, steht doch glaube ich im Text. Bin auch nur ruebergeflogen. Bin mir aber sicher gelesen zu haben, das 3D nicht unterstuetzt wird.
  • FormatC , 28. Februar 2011 15:37
    3D geht leider noch nicht. Definitiv. Steht aber im Artikel.
  • Anonymous , 28. Februar 2011 21:50
    @crazymath
    Meckern & meckern....Selber schon solch ein System ausprobiert?
    "Kurz: Ich bin nicht die Zielgruppe und werde es auch niemals sein:-)"
    Laut Aussage ja nicht.Warum schreibst Du denn überhaupt?

    @Tomshardware
    Ein 400 W NT? Geht`s noch?
    Für solch ein Board nimmt man ein 60W Pico PSU!

  • jake_b , 1. März 2011 05:24
    ... und wann kommen die netten Büchlein raus? Wirds das auch in Tablets geben?
  • blade_0815 , 1. März 2011 08:51
    wurde für die Leistungsaufnahme das MSI oder das Asrock benutzt?
    das MSI solte weniger verbrauchen.
    Für HTPC's ist der PCMark Vantage evtl. auch nicht das richtige Tool, besser ne Bluray laufen lassen. Im idle sollte eigtl der Fusion stromsparender sein:
    http://www.silentpcreview.com/article1167-page5.html
  • FormatC , 1. März 2011 10:35
    Das ASRock.
  • jake_b , 2. März 2011 04:42
    Warum sehe ich keinen Kommentare mehr?
  • jake_b , 2. März 2011 04:42
    Gerade was gepostet - sehe ich aber nicht!!!!
  • FormatC , 2. März 2011 06:23
    Cache? Mach mal Refresh und poste aus dem Forum heraus.
  • tpw , 3. März 2011 17:31
    Interessanter Artikel mit übersichtlichen Benches, aber für den Anwender ergibt sich z.B. folgende Frage: Würde die Leistung der APU in einem HTPC auch für eine DVB-S2-Karte (wie z.B. Hauppage HVR4400) ausreichen? Vielleicht weiß da jemand Rat?
  • fffcmad , 3. März 2011 17:38
    Wenns ums Dekodieren der durch die APU Unterstuetzten Formate geht, sollte das kein Problem sein. MPEG4 und MPEG2 ...
  • sixpack , 11. März 2011 09:32
    Dann hoffe ich mal das Zotac eine Version mit Notebook Netzteil raus bringt.Dann ist es schon bestellt.