Intels Core-CPUs der zweiten Generation: Das Sandy Bridge Review

Die Geheimwaffe von Sandy Bridge: Quick Sync

Es ist wohl noch nie vorgekommen, dass Intel sowohl AMD als auch Nvidia im Grafikbereich komplett unvorbereitet erwischt hat. Und doch wusste bis zum IDF 2010 niemand außerhalb von Intel etwas über die Quick Sync Engine. Das ist umso bemerkenswerter, wenn man weiß, dass der Grundstein für diese Technik bereits vor fünf Jahren gelegt wurde. Intel weiß offensichtlich, wie man ein Geheimnis wahrt!

Damals kamen gerade die ersten BD-ROM-Laufwerke auf den Markt und läuteten den beginnenden Wechsel von SD- zu HD-Medien ein. Außerdem gab es zu dieser Zeit deutlich mehr Wachstum im Mobilbereich als im Desktop-Segment. Darüber hinaus erkannte Intel, dass der PC eigentlich die einzige Plattform für das erstellen von Inhalten war. Die Tatsache, dass das Bearbeiten eines einzigen Videos ein ganzes Wochenende verschlingen konnte, sah man schlicht als inakzeptabel an. An diesem Punkt entschlossen sich Intels Ingenieure, die Decoding- und Encoding-Performance bei Sandy Bridge in Angriff zu nehmen – beides  bislang nicht gerade die Stärken von CPUs. Sie entschieden sich, die Video-Pipeline in Hardware umzusetzen und die Funktionalität in einem dedizierten Transistor-Block fest zu verdrahten, was zwei Vorteile hat. Zum einen wird so eine sehr hohe Performance ermöglicht, zum anderen wird damit der Energieverbrauch möglichst gering gehalten.

Dieser Transistor-Block heißt heute Quick Sync, was nichts weiter als der Marketing-Begriff für die Encode-/Decode-Fähigkeiten für Video von Sandy Bridge ist.

Aber halt, AMD und Nvidia beschleunigen doch genau diese Funktionen ebenfalls über CUDA und Stream (bzw. APP; wie es jetzt heißt). Richtig – doch beide Firmen setzen für diese Zwecke die General-Purpose-Hardware ihrer GPUs ein um bessere Performance zu erreichen, als eine reine Softwarelösung liefern könnte. Vor allem in letzter Zeit hat man versucht uns davon zu überzeugen, dass GPGPU-Berechnungen zumindest verglichen mit der eher bescheidenen Parallelität von CPUs die Zukunft sind. Doch speziell die Aufgaben, von denen hier die Rede ist, lassen sich weder so schnell noch (auf den Stromverbrauch bezogen) so effizient in General-Purpose-Hardware ausführen, wie in dedizierter Hardware.

Der Charme einer solchen dedizierten Lösung liegt also auf der Hand. Wir wissen, dass Video-Wiedergabe und –Umwandlung inzwischen ein alltägliches Nutzungsszenario  darstellen. Stellt man dazu die CPU-Kerne ab, sind sie voll ausgelastet und verbraten eine ganze Menge Strom. Das hat sich über die letzten Jahre immer wieder in unseren CPU-Tests gezeigt, beispielsweise in den MainConcept- und HandBrake-Benchmarks. Deshalb mussten die Software-Entwickler ihre Anwendungen auch für die Ausführung auf mehreren Kernen anpassen, um so die Bearbeitung von Video-Aufgaben zu beschleunigen. Aber auch das bedeutet letztlich nur eine höhere CPU-Auslastung, denn es arbeiten mehr Kerne an derselben Aufgabe, was wiederum eine höhere Leistungsaufnahme und Wärmeabgabe zur Folge hat. Zweifelsohne ist Videobearbeitung auch heute noch eine der anspruchsvollsten Aufgaben, mit der man selbst neueste Chips traktieren kann. Deshalb machen sich diese Programme auch so gut als Benchmark.

Die programmierbaren EUs sitzen mitten im fest verdrahteten Schaltkreisen..Die programmierbaren EUs sitzen mitten im fest verdrahteten Schaltkreisen..

Intels Lösung lautet, Sandy Bridge einen dedizierten und fest verdrahteten Transistor-Block zu spendieren, der sich allein um Video-Aufgaben kümmert. Laut Dr. Hong Jiang, Senior Principle Engineer und Chief Media Architect für Sandy Bridge, traf man diese Entscheidung, weil Videos inzwischen überall zu finden seien. Intel wettet unter Einsatz stets knappen Transistor-Budgets darauf, dass man mit der Video-Funktionalität mehr Kunden einen Vorteil verschafft, als würde man stattdessen weitere Schaltkreise in bessere Spiele-Performance investieren. Natürlich schadet es auch nicht, dass Video-Bearbeitung ohnehin schon zu Intels Stärken zählt. So dürfte sich die Investition in Quick Sync weit mehr auszahlen als eine kleine Verbesserung der 3D-Leistung.

Dass sowohl AMD als auch Nvidia sich sofort darauf stürzten, eine Antwort auf die als Quick Sync fest verdrahteten Video-Funktionseinheiten von Sandy Bridge zu finden, sobald sie davon erfuhren, ist wohl nicht weiter verwunderlich. Von dem, was man so aus Insider-Kreisen hört, sind beide Firmen aber noch gut ein Jahr davon entfernt, eine konkurrenzfähige und funktionierende Lösung anbieten zu können. Insofern erinnert die Situation an AMDs Eyefinity – Intel hat heimlich, still und leise einen gewaltigen Schritt nach vorn gemacht, und einige Software-Partner haben mitgespielt, weil sie auch den für die eigenen Produkte entstehenden zusätzlichen Nutzen erkannten. Jetzt steht die Firma mit einem großen Vorteil allein da, und es wird einiges an Arbeit brauchen, bis die Konkurrenz nachziehen kann.

Und was genau tut es?

Grundsätzlich geht es wie gesagt um zwei Bereiche: Encoding und Decoding von Videos.

Intel genießt ohnehin schon eine recht starke Position, wenn es ums Dekodieren von Videos geht. Die bestehenden Grafiklösungen können bereits mit MPEG-2, VC-1 und AVC umgehen. Allerdings mussten bislang Motion Compensation, der komplexeste Schritt in der Decode-Pipeline, und Loop Filtering (bei VC-1 und AVC) durch die allgemeinen Ausführungseinheiten der CPU übernommen werden, was mehr Strom verbrauchte, als eigentlich sein musste. Intel besser mit Sandy Bridge nach, indem man die komplette Decode-Pipeline in einen effizienten, in Hardware gegossenen Multi-Format-Codec verfrachtet. Gleichzeitig fügt man Unterstützung für MVC hinzu, was die Wiedergabe von 3D-Blu-rays ermöglicht. Video-Skalierung, Rauschunterdrückung, Deinterlacing, Hauttonkorrektur, Farbanpassungen und Kontrastanpassungen werden ebenfalls von dedizierten Schaltkreisen der Grafikengine übernommen

Beim Kodieren gibt es ebenfalls eine fest verdrahtete Funktionsgruppe, die mit den programmierbaren Ausführungseinheiten zusammenarbeitet. An den EUs (Execution Units) hängt ein Media Sampler Block der sich um Motion Estimation kümmert und so die programmierbare Hardware unterstützt. Die Dekodier-Aufgaben, die während des Transkodierens anfallen, nutzen natürlich dieselbe Fixed-Function-Pipeline, die wir eben schon beschrieben haben. Also kommt es auch dort zu Geschwindigkeitsverbesserungen. Einfach gesprochen: Auf der einen Seite geht MPEG-2, VC-1 oder AVC rein, auf der anderen kommt MPEG-2 oder AVC heraus. 

Eins gilt es allerdings zu beachten: Quick Sync lässt sich nur nutzen, wenn der integrierte Grafikchip aktiv ist. Das hat zwei direkte Konsequenzen. Zum einen funktioniert das Feature überhaupt nur mit dem H67-Chipsatz, der die iGPU nutzen kann, denn der P67 verlangt generell nach einer dedizierten Grafikkarte. Zum anderen darf keine zusätzliche Grafikkarte ins H67-System gesteckt werden, weil dann die gesamte integrierte GPU mitsamt der Quick-Sync-Pipeline deaktiviert wird. Das ist in Anbetracht des erzielten Geschwindigkeitsschubs enttäuschend.

Natürlich werden verschiedene Firmen Quick Sync auch unterschiedlich einsetzen, je nachdem, wie ihr Programm es am besten nutzen kann. CyberLink ist ein gutes Beispiel. PowerDVD 10 nutzt vor allem das beschleunigte Dekodieren. Ein Projekt in MediaEspresso wird hingegen ein wenig komplexer ablaufen: Erst wird eine Datei eingelesen, dann dekodiert, konvertiert und schließlich das Ergebnis geschrieben. Bei PowerDirector kommt noch Post-Processing dazu, also das Einbinden von Effekten das passiert, bevor das Material an den Encoder weiter gegeben wird.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
79 Kommentare
    Dein Kommentar
  • Derfnam
    Einige erhellende Worte zu HandBrake wären nett, dort wird nämlich der Text zu MainConcept wiederholt.
    0
  • Shini
    Saubere Performance. AMDs Bulldozer kann sich warm anziehen. Zumal das Spitzenmodell recht billig ist mit lediglich 300 Euro. Angesichts der Leistung ist der Preis auf jeden Fall gerechtfertigt.
    Ich finde es nur etwas schade, dass anscheinend die 6 Core CPUs wohl erst mit Ivy Bridge kommen werden.

    Ich glaube der 2600K wird meinen alten Q6600 ablösen :)
    -1
  • Anonymous
    Richtig geile CPU mit anständiger Grafik.
    Aber warum kriegen die die Treiber nicht gebacken? Die sind immer noch unter aller Sau. Die zwingen einen fast schon für Multimedia-Zwecke doch noch ne kleine zusätzliche Grafikkarte dazuzukaufen.
    1
  • avatar_87
    Dass der i5 2500K scheinbar keine geringere Leistungsaufnahme besitzt als der i7 2600K liegt wohl an den Testsamples? In der Vergagenheit zumindest hat das zusätzliche Hyperthreading immer ordentlich mehr Watt aus der Steckdose gezogen. Das schreit nach einem Nachtest in einem folgenden Übertaktungsartikel. Darauf wie gut sie sich nun wirklich takten lassen, bin ich nämlich auch schon ziemlich gespannt.
    Damit werden die Phenom IIs wohl komplett eingestampft. Schade eigentlich.
    -1
  • Cloud Runner
    Wirklich schade, die Treiber der iGPU enttäuschen. Mal schauen wie es in 2 oder 3 Monaten aussieht.
    1
  • uhuebner
    Vor lauter Text hab ich garnicht gelesen, ab wann es die geben soll. Stand irgendwo was von einem Datum? Mein Geburtstag rückt näher...
    -1
  • Secure by Design
    und kein Wort über VT, danke
    Intels GPU/CPU soll besser sein als CUDA ?
    echt unglaublich, und die Aussage dass das Programm nicht so recht will - mit CUDA, bestätigt das nur
    mein Q6600 will auch in die Rente
    info-politik ist ech besch... von intel, danke für etwas info
    -1
  • Cloud Runner
    1
  • Secure by Design
    das weiss ich, danke, aber wie steht's um die MB ?
    auf einem Screenshot habe 1x nur Enable VT gesehen, sonst nirgends info
    darüber
    1
  • Levi88
    Wäre nett, wenn in dem zweiten Test auch gegen einen FSB 400 C2Q getestet wird.

    Nehme an, als Zockerplattform ists immernoch voll ausreichend.
    1
  • Barton
    Das sind ja mal nette Prozessoren. Mal paar Monate warten bis eventuell bessere Steppings kommen. (Ärgere mich bis heute über meinen Heizkörper - Q6600 B3)
    1
  • Milo
    Nette CPUs, aber ich werde erst aufrüsten, wenn es 4 oder besser noch 6-Kerner gibt, die nur 65 W brauchen. Bin mal gespannt wie lange das noch dauert. Dann vereinen sich mein Gamer PC und der VDR/HTPC zu einer Kiste und gut ist o_O
    1
  • Shini
    Ich würde auch gerne einen vergleich sehen Q6600 @3,2 - 3,6 vs Sandy. Und bitte mit FSB 400 und jeweils Multi eben von 8 bzw. 9. Meine Leistung reicht mir noch etwas, dennoch habe ich bei BF BC2 90% Last und bei GTA 4 sogar 97%.
    1
  • Pascha
    Was mich interessiert ist mehr der interne GPU.
    Ich frag mich immer noch warum der interne GPU unter Verwendung einer seperaten Grafikkarte deaktiviert wird. Gibts da nichts sinnvolles was der nebenher berechnen könnte wie diverse Physik Effekte?
    Gerade wenn keine PhysX fähige NV Karte im System steckt muss doch der CPU sowieso die Physikberechnung übernehmen.
    Und in Zeiten wo des öfteren seperate GPU´s rein zur PhysX Berechnung herangezogen werden wäre das doch an sich ne feine Sache wenn man das auf den in den CPU integrierten GPU abwälzen könnte.

    Kann mir das nur so vorstellen, daß der CPU die Physikberechnung immer noch besser hin bekommt wie die HD3000 und deshalb die Option gar nicht in Erwägung gezogen wird.

    Allerdings finde ich den Gedanken gar nicht so schlecht.
    Mit Sandy Bridge ist es vielleicht noch nicht möglich, aber für die Zukunft ein netter Ansatzpunkt wo man sich verbessern könnte.
    Dann würde der integrierte GPU auch was für Daddelkisten bringen und nicht nur für den Office, und HTPC Bereich.
    0
  • Anonymous
    CPU-Kerne wie Sand am Meer, langsam wird es unübersichtlich! :o
    1
  • FormatC
    Quote:
    Wäre nett, wenn in dem zweiten Test auch gegen einen FSB 400 C2Q getestet wird. Nehme an, als Zockerplattform ists immernoch voll ausreichend.
    Ich hatte meinen sogar auf 517 MHz. Für normale Anwendungen und Spiele reichts noch. Trotzdem hängt er schon 10-15% hinter den Yorkfields hinterher. Was am meisten stört, ist die verheerend schlechte Effizienz. Deshalb ist der gute alte Doppelwhopper auch über den Jordan gegangen. :)

    Als Einsteigerquad ist das Teil fast schon ideal, nur eben nicht für 24/7.
    -1
  • paul-b
    @Pascha sie wird deaktiviert, weil sie zu nichts zu gebrauchen ist. intel will auf kosten von kunden mit der entwicklung und herrstellung von GPUs rumexperimentieren um künftig rechner nur auf basis von GPUs produzieren zu können - wird wohl die zukunft der branche sein.
    Wer braucht schon einen 4C/8T im büro? andererseits was kann ein gamer mit der GPU anfangen? man kauft die cpu OBWOHL sie eine integrierte GPU hat :)
    0
  • paul-b
    P.S.: werd von 775 direkt auf am3 umsteigen :)
    -1
  • Derfnam
    Genau. Verschlechtere dich so richtig, Paul.
    3
  • Headyman
    Mein Meckern wurde erhört! Endlich mal ein CPU-Test der die guten alten Core 2 CPUs mal wieder mit getestet hat! Glückwunsch!

    Klar haben die nix mehr melden, aber für viele Heimanwender sind die Dinger einfach noch echt gut. Mein Q6600 (da bin ich ja hier in guter Gesellschaft) auf moderaten 3,0 GHz sucht schon lange ne Ablösung, aber bisher waren die Optionen von Intel und AMD einfach nur zu schlecht (zu hoher Preis gegen zu wenig Performance-Gewinn).

    Andererseits erschreck ich schon manchmal, wenn da beim Rechnerhochfahren so Jahreszahlen von 2006 auftauchen (Ultra-Durable-Mainboard und fettem CPU-Lüfter sei Dank noch keine Altersbeschwerden, aber wie lange noch...)

    Sieht auf jeden Fall nach einer ordentlichen Lösung aus, auch wenn Intels Kombinatorik etwas merkwürdig erscheint.
    -1