SSD 840 EVO: Terabyte-SSD von Samsung

19 nm NAND Flash und SLC-Cache "TurboWrite"

Letzte Woche war es soweit: 15 Journalisten allein aus Deutschland lud Samsung nach Korea ein, um die neue 840 EVO gebührend präsentieren und erklären zu können. Zur Einordnung sei gesagt, dass die 840 PRO nach wie vor das Topmodell bleibt, als einziges Modell 5 Jahre Garantie bietet und die höchste Performance ermöglicht. Die 840 EVO löst stattdessen die 840 ab und bietet gleichzeitig mehr (Schreib-) Performance, intelligentere Technik, modernisierte Software und größere Kapazitäten. 750 GB und sogar 1 TB Speicherplatz sind ab sofort erhältlich. Es bleibt bei der von der 840 bekannten Garantie von 3 Jahren.

840 EVO 500 GB, Platinenunterseite840 EVO 500 GB, Platinenunterseite840 EVO 500 GB, Platinenoberseite840 EVO 500 GB, Platinenoberseite

Es bleibt auch bei der verwendeten Flash-Technologie. TLC NAND-Flash der neuesten Generation mit Toggle Mode DDR 2.0 Technolgie-Verfahren kommt hier zum Einsatz. Samsung hält sich gern bedeckt und spricht von Speicher der "10-nm-Klasse". Das soll soviel heißen wie 10-19 nm, wobei bei der Fragerunde im Anschluss auf die Präsentation dann bestätigt wurde: es sind 19 nm. Jedes NAND Flash-Package beherbergt insgesamt acht physische Flash-Speicherchips. Eine Ausnahme bildet das 120-GB-Modell; hier kommen nur vier Die-Chips pro Package zum Einsatz. Mit dieser Ausnahme bieten die Packages somit insgesamt 8x 128 Gbit = 128 GB Kapazität. Acht davon (vier auf der Oberseite, vier auf der Unterseite) werden benötigt, um das Terabyte-Laufwerk zu bauen.

Verbesserte Schreib-Performance Dank SLC-Cache (TurboWrite)

Ein häufiger Kritikpunkt an der 840-Serie mit 120 und 250 GB waren die vergleichsweise geringen Schreibtransferraten von 130 MB/s bei der 120-GB-Variante und 250 MB/s beim 250-GB-Modell. Dass diese Performance-Werte für Client-PCs in der Praxis nicht übermäßige Bedeutung haben - wir wollen die Wichtigkeit hoher I/O-Leistung hier nochmals betonen - sei dahingestellt. Viele Anwender stören sich an diesen Transferraten, die vor allem beim Einstiegsmodell mehr an eine 3,5"-Festplatte erinnern.

Samsung hat dies verbessert: im Rahmen der technischen Möglichkeiten schreibt die 120-GB-Variante jetzt mit 140 MB/s und das 250-GB-Modell nun mit 270 MB/s - immerhin. Doch halt! Wer endliche Datenmengen schreibt, wird die Funktion TurboWrite zu schätzen lernen. Samsung hat nämlich beschlossen, einen  Teil des Flash-Speichers nicht mit 3 Bit pro Zelle (TLC-Verfahren) zu beschreiben, sondern lediglich ein Bit abzuspeichern und diesen Speicherbereich als SLC-Cache einzusetzen. Damit funktionieren Schreibvorgänge signifikant schneller. Das Resultat: solange der Cache beschrieben wird, schreibt die 120-GB-Variante der 840 EVO mit satten 410 MB/s und das 250-GB-Modell mit 520 MB/s. Die größeren Kapazitäten schreiben auch mit diesem Tempo.

SLC-Cache-Kapazitäten mit TurboWrite

840 EVO SSDs zweigen einen Teil des 3-Bit MLC-Flash ab, um ihn nur mit einem Bit wie SLC-Flash zu verwenden. Schreibdaten werden darin immer erst schnellstmöglich zwischengepuffert. Wenn das Laufwerk untätig ist (idle), wird der Speicherinhalt intern automatisch auf den TLC-Speicherbereich übertragen. Laut Samsung wurden die möglichen SLC-Cache-Kapazitäten ausführlich ausgetestet, um möglichst wenig Speicher einzusetzen (dies geht dem Anwender als Netto-Speicher verloren), aber doch genug Speicher zu bieten, um das Caching effektiv arbeiten lassen zu können.

Kapazität
120 GB
250 GB
500 GB
750 GB
1 TB
TurboWrite SLC-Cache
3 GB
3 GB
6 GB
9 GB
12 GB
Dafür "geopferter" TLC-Speicherplatz
9 GB
9 GB
18 GB
27 GB
36 GB

Das bedeutet, dass die Schreib-Performance nach Befüllen des TurboWrite SLC-Caches wie oben beschrieben einbrechen sollte. Auch liefert der Cache bei großen Transferdaten nicht unbedingt lange Pufferzeit, um die höhere Schreib-Performance aufrechtzuerhalten. 3 GB Cache bei 410 MB/s Datenrate sollten in wenigen Sekunden befüllt sein. Und wie sieht dies bei hoher I/O-Aktivität aus? In der Praxis ist dies bekanntlich die wichtigere Größe. Wir haben das mit den Modellen mit 250 GB und 1 TB ausprobieren können.

TurboWrite Performance-Übersicht, Datentransferraten

Kapazität
TurboWrite Cache
Durchsatz TurboWrite und Dauer
Durchsatz ohne TurboWrite
Erholungszeit für TurboWrite
250 GB
3 GB
480 MB/s, 5 Sek.
265 MB/s
18 Sek.
1000 GB
12 GB
480 MB/s,
22 Sek.
365 MB/s
48 Sek.

TurboWrite-Performance normalisiert auf 10, 20 oder 60 Sekunden sequenzielles Schreiben

Durchschnittliche Transferraten mit TurboWrite beim 120-GB-Modell der 840 EVODurchschnittliche Transferraten mit TurboWrite beim 120-GB-Modell der 840 EVO

Wir haben exemplarisch die effektive Schreib-Performance beim 120-GB-Modell der 840 EVO ausgerechnet, womit sich am Ende eine deutlich höhere Netto-Durchschnittstransferrate ergibt, als dies bei der 840 (nicht-EVO) der Fall war. Grundlage ist sequenzielles Schreiben mit IOMeter. In der Praxis heißt das: wer mit üblichen Dateigrößen arbeitet oder z.B. ein DVD-Image kopiert, kann mit sehr viel besserer Performance rechnen. Dies trifft z.B. beim Wechsel in den Windows Ruhezustand zu, wobei der RAM-Inhalt auf das Systemlaufwerk geschrieben wird.

Mit dem Schreiben zweistelliger Gigabyte-Datenmengen brechen die 120 und 250 GB Varianten jedoch auf ihren Soll-Transferwert von 140 bzw. 270 MB/s ein - doch wer oft so viel schreibt, sollte vielleicht doch eher eine der größeren Kapazitäten oder eine generell noch schnellere SSD anschaffen.

TurboWrite Performance-Übersicht, Random Writes (4 KB)

Kapazität
TurboWrite Cache
IOps-Leistung TurboWrite und Dauer
IOps-Leistung ohne TurboWrite
Erholungszeit für TurboWrite
250 GB
3 GB
130 MB/s,
10 Sek,
62 MB/s
20 Sek.
1000 GB
12 GB
135 MB/s,
43 Sek
91 MB/s
52 Sek.

Die Ergebnisse sind interessant, denn für die Praxis bedeutet TurboWrite einen vermutlich größeren Vorteil, als die Zahlen vermuten lassen. Tatsächlich ist häufiges sequenzielles Schreiben die Ausnahme, denn unter Windows sind 70-90% aller zugriffe zufällig und meist lesend. Mit Fokus auf hohe I/O-Performance hält selbst der kleine TurboWrite SLC-Cache der Laufwerke geringer Kapazität relativ lang durch.

SLC-Cache: nicht neu, aber sinnvoll

Wir wollen nicht unterschlagen, dass auch andere Architekturen wie die Extreme II von SanDisk oder auch Toshiba-Modelle bereits auf SLC-like Cache setzen. Samsung ist in diesem Fall also keinesfalls ein Innovator. Allerdings ist die Implementierung bewusst anders gewählt. Auf den ersten Blick wäre es am sinnvollsten, mit nur einem Bit beschriebene Speicherzellen über alle Speicherchips rotieren zu lassen. Das wäre ähnlich wie die Verteilung von XOR-/Paritätsdaten in einem RAID 5 und würde eine gleichmäßige Abnutzung ermöglichen. Samsung hat den Cache jedoch pro Chip als festen Bereich festgepinnt, d.h. dass immer die gleichen Bereiche im SLC-Verfahren als Cache genutzt werden.

Der Hintergrund ist Performance, denn bei rotierenden SLC-Bereichen wäre diese nicht zuverlässig reproduzierbar. Nachteilig erscheint die erhöhte Abnutzung, wobei die Anzahl an P/E-Zyklen (Lösch- und Schreibzyklen) im SLC-Verfahren auf Samsungs 19 nm TLC-NAND die gleiche Haltbarkeit erreichen soll wie "echter" SLC-Speicher. Dies bedeutet laut Samsung-Ingenieuren in der Praxis bis zu 30.000 Schreibzyklen gegenüber angenommenen 1000 bei TLC-Flash (wobei die Praxis zeigt, dass 3000 Zyklen und mehr die Regel sind).

Haltbarkeitsüberlegungen

Es steht also die deutliche größere Belastbarkeit des NAND Flash bei Verwendung im 1-Bit-Verfahren als SLC-Speicher gegenüber der trotzdem notwendigen Verlagerung der Daten in den 3-Bit MLC-Speicherbereich. Alle Schreibdaten werden somit - Verwendung des TurboWrite angenommen - meist doppelt geschrieben. Für den SLC-Bereich kann eine zehn Mal höhere Lebensdauer angenommen werden. Für den TLC-Speicherbereich ändert sich dagegen nichts. Diese Aussage ist am Ende wichtig, denn der TurboWrite funktioniert als Cache transparent. Auch ohne diesen (ließ: sollte er defekt sein) soll die 840 EVO einwandfrei funktionieren.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
9 Kommentare
    Dein Kommentar
  • Holt
    Erstmal danke für den Review. Aber etwas Kritik muss schon erlaubt sein:
    1. Das Apple User ganz außen vor bleiben stimmt ja so nicht, denn unter http://www.samsung.com/global/business/semiconductor/samsungssd/downloads.html stehen ja die iso Dateien für FW Update bereit.
    2, der Satz: "dominieren heute Indilinx (gehört OCZ), Marvell, LAMD (Link A Media) und SandForce (gehört LSI)." ist doch etwas komisch. Stückzahlenmäßig dürften heute Samsung und Marvell (Toshiba steht aktuell auch auf Marvell Designs, wenn auch mit dem Cache zusammen in einem Chip mit eigenem Label) den Markt dominieren, Sandforce (LSI) gehört wohl der dritte Platz dann kommen erst ganz weit hinten LAMD (gehört übrigend Hynix) und Indilinx. OCZ ist es bisher noch nicht gelungen einen weiteren SSD Anbieter zu finden, der eine SSD mit dem neuen Indilinx Barefoot 3 auf den Markt bringt und der LM87800 von LAMD ist auch nur bei Corsair Neutron Neutron GTX und der Seagate 600 zu finden.
    3. "Anzahl an Speicherkanälen (typischerweise 8 oder 10)" 10 Kanäle hatte nur der Intel Controller, der zuletzt in der 320er Serie eingesetzt wurde. Typisch sind heute wenn, denn 4 und 8 Kanäle. 4 Kanäle haben z.B. der Marvell 9175 in der SanDisk Ultra Plus und der SF-2241, 10 Kanäle hat degegen kein aktueller SSD Controller mehr.
    0
  • Timur Born
    Mir erschließt sich nicht genau, warum der Samsung RAPID Softwarecache in der *Praxis* höhere Leistung bringen soll, als der Windows eigene Cache?

    Dass den üblichen Benchmarkprogrammen vorgegaukelt wird ohne Cache zu messen, ist einsehbar, und die höheren Werte somit nicht verwunderlich. Dass der THG Storage Bench Test aber auch höhere Werte liefert, hätte ich gerne besser kommentiert gesehen. Wieso greift der RAPID Cache in diesem Szenario besser als der Windows eigene Cache?

    Übrigens: ATTO erlaubt den Windows Cache für Messungen EINzuschalten. Dabei erreicht meine "alte" Crucial M4 256 sogar höhere Leseraten als die hier im Test gelisteten. Nur die Schreibraten bleiben deutlich kleiner.

    Ein ATTO Test mit und ohne RAPID, sowie mit und ohne Windows Cache wäre also evtl. noch interessant.
    0
  • Holt
    Die üblichen Benchmarks wie z.B. AS-SSD benchen auf Filesystemebene und daher ist der Cache für die transparant. Da die auch immer gleich alles 3, 4, 5 mal schreiben und dann gleich darauf ebensooft wieder einlesen, bringt Cache da wirklich extrem viel. In der Praxis ist das aber eher Spielkram und teils sogar kontraproduktiv, denn man muß ja auch den Aufwand für die Cacheverwaltung berücksichtigen. Wie man sieht, sind die Ergebnisse mit Cache teils sogar schlechter als ohne.
    0
  • Timur Born
    Auf Anandtech ist der RAPID Cache detailiert(er) beschrieben. U.a. wird dort erklärt, dass RAPID auf Blockebene (block level cache) arbeitet, statt auf Dateiebene. Von einer großen PST Datei muss so z.B. nicht die gesamte Datei gecacht werden, sondern nur diejenigen Teile, die auch benutzt werden. Zudem bietet RAPID "Write coalescing", welches einzelne Schreibzugriffe zu großen Paketen vereint.

    Im Grunde bietet es somit kostenlos die Möglichkeiten diverser Dritthersteller Softwarecaches an (Fancycache, PerfectCache, SuperSeed). Allerdings mit der Beschränkung auf nur ein (1) Laufwerk und ohne manuelle Einstellmöglichkeiten.
    0
  • Timur Born
    Dazu sollte man noch erwähnen, dass auch File Level Caching in der Lage ist nur Teile einer Datei zu cachen. Außerdem bedeutet jede weitere Cache Ebene eine weitere Fehlerquelle durch Softwarefehler und evtl. Stromausfall.
    0
  • Holt
    Diese ganze SW-Cache Lösungen können ja nur funktionieren, wenn sie unterhalb der Filesystemebene ansetzen und damit sind sie eben zwangsläufig unsichtbar für alle Benchmarks die auf Filesystemebene benchen.

    Timur Born, Du vergisst eine weitere nicht zu unterschätzende Fehlerquelle: RAM-Fehler. Die sind nicht so selten wie viele glauben und da heute RAM in ähnlich kleinen Strukturbreiten wie NAND gefertigt wird und fast jeder PC heute mehr RAM hat als ein Server vor ein paar Jahren, wird das Problem immer häufiger vorkommen. Leider beschränken die HW Hersteller, bis auf wenige Ausnahmen bei AM3+ Boards, ECC-RAM auf die Workstation- und Serverhardware. Ein ab und zu mal kippendes Bit in dem RAM-Bereich wo der Cache liegt, kann dann die "schönsten" Effekte erzeugen und wird nur selten korrekt zu diagnistizieren sein.

    Das Risiko von Datenverlust durch einen plötzlichen Stromausfall halte ich übrigens für umso gefährlicher, je mehr Cache Ebenen da eingezogen werden. Mit dem RAPID sind es dann bei der Evo schon 3 (Windows, RAPID, TurboCache).
    0
  • Timur Born
    Ich habe heute mal einen kurzen Test gemacht: Mit meinen 8 gb RAM nutzt Windows 8 ziemlich genau 1 gb als Schreibcache, und allen verfügbaren RAM als Lesecache. Für die 1 gb ist egal, ob es sich um eine oder mehrere Dateien handelt, und ob sie ganz oder nur teilweise in den Cache passen (falls nicht, werden die ersten 1 gb gecacht).
    0
  • pzero
    @Holt
    Danke für das Feedback. Apple wird laut Samsung tatsächlich derzeit nicht in Betracht gezogen - damit meinen wir die Software-Pakete, die den Umstieg auch für technisch weniger versierte Anwender erst einfach machen.

    Die Controller-Ausführungen sollten keine Bedeutungspriorität implizieren. Ihre bzw. Deine Angaben sind natürlich richtig so.
    Mit der Anzahl an Speicherkanälen war ebenfalls nur das Maximum gemeint, das bei diesen Architekturen Sinn macht. 10 wären denkbar, bringen bei Serial ATA allerdings derzeit kaum ein gutes Verhältnis von Aufwand zu Nutzen.

    Die ganze Caching-Thematik ist für mich eher der Versuch, noch Mehrwert dazuzupacken. Was es wirklich bringt werden wir noch anschauen. Viele Anwender werden das Feature voraussichtlich nicht einmal in Betrieb nehmen, setzt es doch den Magician voraus. Auch in Unternehmen wird das kaum denbkar sein.

    Ich persönlich denke, dass im Storage-Bereich noch viel Konsolidierung stattfinden muss. Soll heißen: Für jeden zweck der richtige Storage-Typ (SSD, Festplatte, portable Medien oder Cloud) und je nach Anwendung die richtige Behandlung (Cache-Strategien auch im Verbund mit Deduplizierung und Kompression). Das Thema Stromausfall bei Cache ist für Notebooks weniger relevant; RAM-Bitfehler dagegen eher.

    Vielen Dank für die Diskussion!
    0
  • Tracking
    Jetzt ist ja die 4.2.1 von Magician verfügbar. Nur leider wird - entgegen der Aussage im Artikel - nur die 840 EVO unterstützt. Vielleicht könntet Ihr ja mal nachfargen, ob sich dies in Zukunft änder soll. Danke
    0