Vor zwei Jahren ist Intel mit der Einführung der Conroe-Architektur (über die Prozessoren Core 2 Duo und Quad) ein Geniestreich gelungen. Der Prozessorprimus entließ damit das Netburst-Debakel und Heizkraftwerk Pentium 4 ohne Ehren. In dieser Zeit kündigte Intel sogar den sehr ehrgeizigen Plan an, wieder den rasanten Entwicklungsrhythmus seiner Architekturen der Mitte der neunziger Jahre aufzunehmen, der nach und nach abgeebbt ist. Die erste Phase des Plans bestand darin, zwölf Monate nach ihrer Einführung ein "Refresh" der Architektur aufzulegen, um von den technischen Fortschritten in der Struktur zu profitieren. Dies erfolgte mit dem Penryn (45 nm). Dann, 24 Monate später, soll eine ganz neue Architektur mit dem Code-Namen Nehalem eingeführt werden. Intel hat seine Versprechen nahezu eingehalten, denn bald erscheint der Core i7 Prozessor basierend auf der Nehalem-Architektur.
Auch wenn die Conroe-Architektur hohe Performance und einen vernünftigen Stromverbrauch bot, so war sie dennoch nicht perfekt. Man muss sagen, dass die Voraussetzungen ihrer Abstimmung nicht gerade ideal waren: Als Intel sich der Sackgasse bewusst wurde, in die sie der Pentium 4 manövrierte, musste es sich in aller Eile etwas Neues einfallen lassen. Für ein Unternehmen der Größe Intels ist das alles andere als einfach. Das Ingenieurteam aus Haifa (Israel), das bis zu diesem Zeitpunkt für die mobilen Architekturen verantwortlich war, sah sich nun zum Entwicklungsteam der gesamten neuen Produktpalette des Riesen aus Santa Clara (USA) befördert. Welch eine schwere Verantwortung für dieses Team, von dem fortan die Zukunft des gesamten Unternehmens abhing! Angesichts des engen Zeitplans und des Drucks, der auf ihnen lastete, ist das Ergebnis, das die Intel-Ingenieure erreicht haben, umso bemerkenswerter. Das erklärt aber auch, dass sie Kompromisse eingehen mussten. Insbesondere verriet die Conroe-Architektur stellenweise noch ihre „mobilen“ Wurzeln, obwohl sie im Vergleich zu der des Pentium M grundlegend überarbeitet worden ist.
Die Architektur war nämlich nicht wirklich modular: Sie sollte die gesamte Produktpalette von Intel abdecken, von Notebooks bis zu Servern, aber in der Praxis handelte es sich immer noch quasi um den gleichen Chip. Der einzige Punkt, wo noch Spiel war, war der Cache-Speicher der zweiten Ebene. Die Architektur war genauso klar angelegt wie beim Dual Core. Die Weiterentwicklung zu einer Quad-Core-Version beruhte auf genau dem Trick, den Intel für seine ersten Dual-Core-Prozessoren angewendet hatte: zwei Dies in einem Gehäuse. Die Existenz des FSB stellte für die Abstimmung von Konfigurationen mit einer großen Anzahl von Prozessoren ebenfalls einen Hemmschuh dar, da er auf der Ebene der Speicherzugriffe einen Engpass bedeutete. Und letzten Endes gab es ein kleines Detail, das nicht zu übersehen war: Eine der Neuerungen der Conroe-Architektur (die Macro-Op-Fusion, die es ermöglichte, zwei x86-Anweisungen in eine einzige µOp zusammenzuschließen) funktionierte nicht im 64-Bit-Modus, Standardmodus aller Server. Diese Kompromisse waren noch vor zwei Jahren verständlich, aber heute kann Intel sie nicht mehr rechtfertigen, vor allem nicht im Angesicht seines Rivalen AMD, für den der Servermarkt die letzte Bastion ist. Mit Nehalem musste Intel also seine letzten Schwächen angehen, indem es eine Modulararchitektur entwickelte, die sich an die Bedürfnisse aller drei Märkte anpassen konnte (Notebooks, Büro, Server).

Nun bin ich noch mehr gespannt, was die CPUs nun wirklich bringen!
Schade nur dass der Nehalem so wenig L2-Cache bekommen wird.
Euer Arno
Durch den integrierten Memorycontroller wird aber Intel wieder mehr mit Abwärme zu kämpfen haben. Die TDPs sollen ja größenteils über 110 W liegen.
"Intel wird einige Zeit gebraucht haben, um AMD in diesem Punkt einzuholen, aber wie immer macht der Riese eben nur ganze Sachen."
Genau solche Sätze bringen euch immer wieder den Vorwurf ein, dass eure Berichterstattung gekauft ist. Vielleicht solltet ihr euren Lektor feuern.
Welche Probleme da dann später dank Speichercontroller noch auftreten werden wir ja sehen, aber bisher haben die ja noch keine gehypten Bugs wie der TLB-Bug bei AMD.
So ein Unsinn. Sie haben nur gesagt, dass sie ihre Sache gut gemacht haben, und haben auch begründet wieso.
Ich finde es lächerlich, dauernd auf solche Sätze zu lauern und aus jeder Mücke einen Elefanten zu machen.
mal benchmarks abwarten - wenn nicht 2 mal so schnell wie der alte "pro core gerechnet" dann ist es eher unbrauchbar.
http://www.computerbase.de/news/hardware/prozessoren/intel/2008/oktober/benchmarks_core_i7_940_293_ghz/
Keine Ahnung warum tomshardware diese Datein nicht im Artikel verarbeitet hat. Aber davon mal abgesehen, habt ihr den Artikel selbst geschrieben oder handelt es sich um "copy and paste"? Der Bericht ist richtig gut, sogar so gut, dass er zu den übrigen überhaupt nicht passt.