Anmelden / Registrieren

AMD AM4: Ein Sockel für alle Prozessoren & APUs

Von , David Civera - Quelle: Bits 'n Chips | B 12 kommentare

Der Hersteller scheint einen Strich unter die Vergangenheit ziehen zu wollen und wird mit der kommenden Prozessorengeneration nur noch auf einen einzigen Sockel setzen.

Nach bisherigem Kenntnisstand wird AMD künftig sowohl die als Nachfolger der FX-Prozessoren geplanten Summit-Ridge-Chips, die mit bis zu acht auf der Zen-Architektur basierenden CPU-Kernen aufwarten, als auch die Bristol-Ridge-APU für den neuen AM4-Sockel bereitstellen.

Damit zeichnete sich schon ab, dass der Hersteller sein bisheriges Sockel-Angebot vereinfachen könnte.

Nun hat Bits 'n Chips Informationen zu Tage gefördert, die nahelegen, dass AMD künftig ausschließlich auf den AM4-Sockel setzt, der die jeweiligen Vorteile von AM3+, FM2+ und AM1 in sich vereinen soll. Der neue Sockel soll Prozessoren mit einem Energiebedarf von mehr als 140 Watt genauso zuverlässig versorgen wie die APUs und Einsteiger-Chips mit vergleichsweise niedrigen TDPs.

Die Aufnahme ist nach dem µOPGA-Standard (Micro Organic Pin Grid Array) konzipiert, einer neuen Spezifikation AMDs, die die Verwendung von feineren Pins ermöglicht. Damit kann die Pin-Anzahl bei AM4 auf 1331 Pins gesteigert werden - 390 mehr als zuvor - ohne dass sich die Größe des Sockels selbst ändert.

Kommentarbereich
Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum News erstellen.

Beispiel: Notebook, Festplatte, Speicher

Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • ShieTar , 24. März 2016 18:31
    Mmh, einfach schön und gut, aber irgendwie befürchte ich das vor allem die geizigeren Mainboard-Hersteller dann doch wieder Billig-Boards auf den Markt werfen die mit den 140W-CPUs wieder nicht klarkommen weil sie an der Stromversorgung gespart haben. Und das uns in 2-3 Jahren dann wieder eine Welle mit enttäuschten Aufrüstern in Forum schwappt, die sich vor dem CPU-Neukauf nicht die Mühe gemacht haben in die Kompatibilitäts-Liste ihres Mainboards zu schauen.
  • derGhostrider , 24. März 2016 20:23
    ... naja, heute ein Mainboard kaufen und in 3 Jahren hoffen, dass die CPUs dazu kompatibel sein werden?
    Also selbst wenn sie mechanisch passen, gibt es leider immer wieder unangenehme Überraschungen. Dann sind zukünftige Boards z.B. rückwärtskompatibel zu alten CPUs, aber neue CPUs nicht kompatibel zu alten Boards.
    Vielleicht hat der Sockel zu dem Zeitpunkt dann schon ein "+" am Namen, oder ein "Rev2" oder, oder, oder...

    Nunja, erstmal müssen die ZENs wirklich kommen. Ich warte immernoch recht gespannt darauf.
  • Kamal Gilani , 27. März 2016 00:33
    Ich denke Zen oder die übernächste Prozessorgeneration wird anstelle 64-Bit-Architektur mit 256-Bit erscheinen.
  • Alle 12 Kommentare anzeigen.
  • Kamal Gilani , 27. März 2016 00:33
    Ich denke Zen oder die übernächste Prozessorgeneration wird anstelle 64-Bit Architektur mit 256-Bit erscheinen.
  • derGhostrider , 27. März 2016 00:55
    Sicherlich nicht.
    Du meinst vielleicht 256 Bit breite Befehlssätze wie bei Intel AVX2. Wobei AVX-512 inzwischen bis 512 Bit Support liefert.

    Trotzdem sind Architekturen mit mehr als 64 Bit NICHT in Sicht. Außerdem wäre der nächste logische Schritt erstmal 128 Bit.
    Aber selbst das können wir bisher ruhig vergessen. Ich bin gespannt, ob überhaupt noch ein Umstieg in dieser Richtung passieren wird, oder ob allein durch spezielle Befehlserweiterungen und zur Not spezialisierte Recheneinheiten eventuelle Spezialfälle abgedeckt werden.

    Für 128 Bit CPUs gäbe es (zur Zeit) kaum einen sinnvollen Einsatzzweck.
  • Krampflacher , 27. März 2016 19:32
    Die Argumentation kann ich zwar nachvollziehen. Aber bei "gibt es kaum einen sinnvollen Einsatzzweck" stösst es mir sauer auf.

    Das habe ich bei

    - LCD-Bildschirmen
    - Internet
    - Computern mit mehr als 256 MB Hauptspeicher
    - Elektroautos

    auch schon gehört. Es ist DAS Stammtisch-Argument schlechthin.
  • derGhostrider , 27. März 2016 19:59
    Dann nenne mir mal 3 Bereiche, bei denen man nennenswerte Vorteile mit 128 Bit CPUs hätte.

    Ich kann Dir ein paar Nachteile nennen, die nun bereits bei den 64 Bit CPUs bemängelt werden, wobei diese zumindest noch den "großen" Vorteil bei der Bearbeitung von Int64/double liefern.

    Also, überzeuge mich! Es gibt immernoch mehr als genug Software, die noch immer nicht auf 64 Bit migriert wurde. Speicherbereiche sind in Absehbarer Zeit nicht ausschöpfbar, Datentypen in dieser Größenordnung sind Mangelware... Wann wird schon ein Int128 oder "long double" verwendet?
    Also, wo sollen "heute oder in naher Zukunft" die Vorteile liegen?

    ---

    Korrektur: Kamal meinte gleich 256 bit nennen zu wollen. Also eine absolut utopische Größenordnung, für die es nicht einmal passende Datentypen gibt.
    Da gibt es keine Anwendung. Zumindest jetzt nicht.
  • ShieTar , 27. März 2016 20:49
    Zitat :
    Die Argumentation kann ich zwar nachvollziehen. Aber bei "gibt es kaum einen sinnvollen Einsatzzweck" stösst es mir sauer auf.

    Das habe ich bei

    - LCD-Bildschirmen
    - Internet
    - Computern mit mehr als 256 MB Hauptspeicher
    - Elektroautos

    auch schon gehört. Es ist DAS Stammtisch-Argument schlechthin.

    So ein Unfug. Ein 64Bit-Address-Bus reicht aus um 17 179 869 184 GB an Hauptspeicher zu addressieren. Das wäre 17 000 mal mehr als im derzeit schnellsten Supercomputer (Tianhe-2) installiert ist, der Addressbus einer einzigen CPU könnte also noch ausreichen um allen Speicher in einem Supercomputer-System in einem universellen Addressraum zu vereinigen. Selbst wenn die Hauptspeichermengen weiterhin exponentiell anwachsen, haben wir noch locker 36 Jahre Zeit bis wir mehr als 64Bit-Addressen benötigen.

    Die Register-Breite auf der anderen Seite ist durch Befehlssatzerweiterungen für Skylake-Xeons eh schon auf 512Bit angewachsen (AVX3). Dafür wird aber die grundsätzliche Architektur nicht umbenannt.
  • Krampflacher , 28. März 2016 19:21
    Du nennst die Vorteile ja selber! Es dauert ewig, bis alles auf 64 Bit migriert wurde. Warum soll man als Nächstes nicht gleich anständige Sprünge machen, damit, bis es Hardware in der Grössenordnung gibt, alles wie am Schnürchen läuft? Und die Hardware ist in 15-20 Jahren da.

    Des Weiteren reden wir hier ja nicht alleine vom Adressbus, sondern auch von Datenbussen. Gerade in einer Zeit, in denen Frequenzen nicht mehr höher und CPU-Gatter nicht mehr viel kleiner werden können, geht ohnehin alles Richtung paralleler Verarbeitung.

    Also, nicht raunzen, sondern vorausdenken. Den Letzten beissen die Hunde. So wie Tesla in wenigen Tagen VW am Hintern haben wird.
  • ShieTar , 29. März 2016 10:45
    Warum nicht "anständige" Sprünge machen?
    - Weil es extrem Ressource verschwendet, wenn alle Pointer doppelt so lang wie eigentlich notwendig abgelegt werden müssen; nach dem Umstieg von 32Bit auf 64Bit haben viele Programme gleichmal 20% mehr Speicher belegt..
    - Weil die Hardware halt nicht in 15-20 Jahren da ist, sondern frühestens in 40 Jahren.
    - Wiel in 40 Jahren die extrem kurzen Zugriffszeiten und schnellen Anbindungen von SSDs ein Arbeiten direkt im Massenspeicher ermöglichen, und RAM wenn überhaupt nur noch als L4-Cache genutzt wird.
    - Weil niemand massig Ingenieursleistung in eine Designänderung versenkt, die für Jahrzehnte vorhersehbar keinerlei Vorteile bringt.

    "Des Weiteren reden wir hier ja nicht alleine vom Adressbus" - Du vielleicht nicht, Ich und Intel schon. Skylake hat einen 128Bit Datenbus, Haswell-E sogar einen 256Bit Datenbus zum Arbeitsspeicher. Deswegen bennent aber keiner die Architektur um.
  • Joel Busch , 30. März 2016 07:19
    Also Professoren von mir haben auch schon geäussert dass sie mit 48 bit Adressspace schon an die Grenzen gekommen sind. Ich glaube sie konnten noch eine Art extension nutzen, mit der sie dann 52 bit Adresssace aus x86 64bit kitzeln konnten, aber bald wirds für grosse systeme schon eng.
  • derGhostrider , 30. März 2016 18:59
    @Joel Busch:
    64Bit CPUs können auch (in Zukunft) bis zu 64 Bit ansprechen. Das ist bisher nur noch nicht so in der Hardware umgesetzt, da es keine Sau braucht.
    Und zur Not wird für Supercomputer wieder PAE eingeführt. Was im Desktopbereich zu Problemen führen kann, war früher lange Zeit Standard in der Serverwelt und wurde relativ problemlos eingesetzt.

    Davon abgesehen: Bis wir das 17000-fache der Speichermenge vom Tianhe-2 in EINEM System von EINER CPU und zwar ohne PAE-Umwege ansprechen können müssen, vergeht noch reichlich Zeit.

    ----

    @Krampflacher:
    Vonwegen, es geht zur parallelen Verarbeitung... Hast Du den Wechsel von PCI und PCI-X auf PCIe verpasst? ;) 
    Bei weitem nicht alles ist parallelisierbar. Dur hilft ein "endlos breiter" Bus irgendwann auch nichts mehr. Abgesehen von der Unmöglichkeit diesen mit vertretbaren Kosten zu implementieren.

    Hauptunterschiede zwischen 32bit und 64bit CPUs waren aber z.B. die Registergrößen (und deren Anzahl!), die Befehlssätze und Adressbereiche, die direkt angesprochen werden können.
    256 Bit wäre nur dann halbwegs sinnvoll, wenn die Anzahl der Register wieder deutlich steigen würde, was die Kosten bei der Chipfertigung stark steigern würde, und was zudem einen wirklich neuen Befehlssatz erfordern würde. Zudem müsste die CPU - ohne Leistungseinbußen - bis auf 32 bit zurückschalten können. Also zumindest vergleichbar mit den Verlusten, die man nun bei 32 Bit Anwendungen hat.

    Würde dadurch irgendetwas schneller werden? Nö. Im Normalfall, also ohne Datentypen, die double und long long sprengen, hätte man KEINEN Vorteil. Höchstens durch die zusätzlichen Register und die wären ja nur für native 256-Bit-Anwendungen ansprechbar.
    Für 32-Bit und 64-Bit Anwendungen gilt ansonsten, dass wegen unnötiger Contextswitches und einer komplizierteren Architektur, die erstmal wieder auf gleichem Takt stabil betrieben werden müsste, die Leistung vermutlich gleich oder geringer ausfallen würde. Die Software könnte ja nicht von der neuen Technologie profitieren.

    Speicheranbindungen sind von der Architektur unabhängig und speziell optimierte Befehlssätze (siehe SIMD wie AVX2 oder AVX-512) verarbeiten bereits bis zu 512 Bit.
    Also alles halb so wild, was man da gewinnen könnte.

    Ich würde eher erwarten, dass CPUs modularer werden und eventuelle Beschränkungen dann durch neue zusätzliche Funktionseinheiten umgangen werden. Aber vielleicht kommt es auch ganz anders.
    Ich bin ja eher Fan von den guten alten CPUs: Man bekommt, was man kauft und eine Generation ist klar von der nächsten abgegrenzt: 386er, 486er, etc. "Sie benötigen mindestens einen Pentium Prozessor mit MMX-Einheit, um diese Software ausführen zu können."
    Irgendwie finde ich die heutigen schleichenden Erweiterungen der CPUs etwas blöd. Man bekommt gar nicht mehr so recht mit, was da erweitert wird und wo bzw ob das überhaupt irgendwo genutzt wird - abgesehen von speziellen Benchmarks. ;)