
Beide Generationen unseres 3ds-Max-Benchmarks bevorzugen Intels Sechskernprozessoren, und erneut sorgt die Ivy-Bridge-Architektur dafür, dass der Core i7-4960X sich die Goldmedaille sichern kann. Der Core i7-3970X ist ihm allerdings dicht auf den Fersen. Die dichte Staffelung der Ergebnisse legt zudem nahe, dass ein übertakteter Core i7-3930K beide Flaggschiff-CPUs schlagen könnte.

Wieder zeigt sich dasselbe Muster: Anwendungen mit vielen Threads, die schon von den zusätzlichen Kernen eines Sandy Bridge-E profitierten, sind auf Ivy Bridge-E noch einmal ein paar Prozentpunkte schneller. In diesem Fall liegt der Zuwachs bei etwa fünf Prozent. Alle drei getesteten CPUs für den Sockel 2011 sind um einiges flinker als die Kollegen mit LGA 1150/1155.

Cinebench basiert auf Maxons Cinema 4D. Mit ihm testen wir sowohl die Single- als auch die Multi-Core-Performance unserer Probanden.
Der Multi-Thread-Komponente des Benchmarks sagt wie erwartet der Ivy Bridge-E am meisten zu, und das Ergebnis des Core i7-4960X ist etwa vier Prozent besser als das des -3970X. Auch im Single-Thread-Durchlauf kann Ivy Bridge-E gegenüber Sandy Bridge-E punkten, doch den Spitzenplatz sichert sich in diesem Fall der Haswell-Prozessor.
- Ivy Bridge-E: Core i7-4960X im ersten Test
- Test-Hardware und Benchmarks
- Synthetische Benchmarks
- Benchmarks: Adobe CS6
- Benchmarks: Content Creation
- Benchmarks: Büroanwendungen
- Benchmarks: Dateikomprimierung
- Benchmarks: Medienkonvertierung
- Leistungsaufnahme: Überraschungserfolg mit Ivy Bridge-E
- Ist Ivy Bridge-E der neue High-End-Liebling?
Mich würde der Unterschied mal interessieren, insbes. was Effizienz angeht.
Ein i5-4670K, i5-3570K oder i5-2550K wären als nicht-Hyper-Threading-Modelle ein guter Vergleich gewesen.
*g* 4 GHz GHz sind 4 * 10^9 * 10^9 * Hz * Hz = 4 * 10^18 * 1/(s^2). DAS ist.... äh... Merkwürdig.
Zumindest ist der X79-Chipsatz ausgereift, was man vom Z87 noch nicht behaupten kann.
Was USB 3.0 angeht hatte ich mit dem Renesas-Chip auf meinem Board bis dato auch noch keine Probleme.
Zumindest weiß ich jetzt, daß ich letztes Jahr Januar die richtige Entscheidung getroffen hab. xD Würde nur Nvidia mal in die Pötte kommen und eine Consumer-Titan rausbringen, dann könnte auch meine 280er GTX mal abdanken.