Anmelden / Registrieren

SSD 840 EVO: Terabyte-SSD von Samsung

SSD 840 EVO: Terabyte-SSD von Samsung
Von , Achim Roos, Benjamin Kraft

Terabyte, TurboWrite, Thermal Guard: Mit neuen Funktionen, neuer Software, mehr Speed, zuschaltbarem Windows-Cache und mehr Speicherplatz will Samsung seine SSD-Marktführerschaft mit der 840 EVO sichern. Viel Tamtam oder echte EVOlution?

Eines nehmen wir gleich vorweg: die neuen 840 EVO-Laufwerke kosten laut Preisliste das gleiche wie der Vorgänger 840. Die neuen Kapazitäten von 750 GB und 1 TB sind dementsprechend deutlich teurer. Samsung verfolgt eine konsequente Strategie: eines der besten Solid State Drives noch besser machen und so die Abwärtsspirale bei den Laufwerkspreisen durchbrechen. Das funktioniert nur mit einem soliden und attraktiven Produkt. Geht die Rechnung auf?


Samsungs SSD-Historie

Wir erinnern uns: die 470-Serie war die erste massentaugliche SSD von Samsung, die es ab Ende 2010 gab. Das Laufwerk war ordentlich, aber nicht unbedingt der Topseller, denn Samsung war eher im OEM-Markt aktiv. Zuvor war Intel der Platzhirsch, denn die Modelle X25-M und X25-E dominierten relativ eindeutig. Damals gab es auch Funktionen wie TRIM noch nicht; diese kam erst mit der X25-M G2 und Windows 7. Der Durchbruch für Samsung kam dann 2011 in Barcelona mit der 830-Serie und 6 Gb/s SATA-Schnittstelle. Ohne Kompression erreichte Samsung damit im Alltag hohe Performance, die gut reproduzierbar war. Geringe Ausfallraten machten das Laufwerk schnell beliebt.

Erst Ende 2012 folge dann die 840-Serie, diesmal unterteilt in eine Standard- und eine Pro-Variante. Erstmals setzte Samsung hier TLC NAND-Flash ein, der drei Bits pro Flash-Speicherzelle ablegt - und es hagelte Skepsis, da vor allem Power-User nicht so recht an die Haltbarkeit der Technologie glauben wollten. Ein Dreivierteljahr später zeigt sich: falscher Alarm.

TLC Flash ("3-Bit MLC")

Die 840 mit ihrem 3-Bit MLC-Speicher, so Samsungs aktuelle Ausdrucksweise, hat sich bewährt; hunderttausende Laufwerke wurden allein in Deutschland bereits verkauft. Dahingegen haben sich meist andere Anbieter nicht mit Ruhm bekleckert und durch Defektserien dafür gesorgt, dass sich die Skepsis hartnäckig hält.

Aus Erfahrung sei gesagt: die SSD-Defekte in unserem Testlabor sind so häufig wie bei Festplatten; einzelne, madige Serien ausgenommen. Es lohnt hier  ein Gespräch mit den Datenrettern wie KUERT, CBL Data Recovery oder Kroll Ontrack. So erzählte uns Stefan Schnettler von Kroll Ontrack, dass die überwiegende Menge der zur Datenrettung eingeschickten SSDs nicht an Flash-Defekten litten. Statt dessen gibt der Controller oder die Firmware deutlich häufiger den Geist auf. Merke: es ist weniger wichtig, welche Flash-Technologie  zum Einsatz kommt, sondern was der Hersteller daraus macht und wie er das Produkt spezifiziert und auslegt.

SSD-Marktumfeld

Der Wettbewerb im Hersteller-Umfeld ist indes stark: Angelbird Crest, Corsair Neutron/GTX, Crucial M500, Intel SSD 525 oder 335, Kingston HyperX, OCZ Vertex 450 oder Vector, Plextor M5 Pro, SanDisk Extreme II und Ultra Plus, Seagate 600 oder Toshiba-Modelle (den aktuellsten Test finden Sie hier) - alle wollen ein Stuck vom Wachsenden SSD-Markt. Wir bitten um Verzeihung, wenn wir nicht alle nennen können. Doch halt! Hersteller im eigentlichen Sinne sollten sich nur wenige schimpfen. Crucial (als Micron-Unternehmen), Intel, Samsung, SanDisk und Toshiba. Alle anderen müssen Komponenten zukaufen, sind Qualitäts- und Preisschwankungen unterworfen. Und wir prophezeien: in wenigen Jahren bleiben ein paar wenige davon übrig und das dürften überwiegend die genannten Hersteller sein, die alle Komponenten unter ihrer Kontrolle haben. Man spricht von vertikaler Integration, wenn Flash, Controller, DRAM-Cache und Firmware im Haus und in enger Abstimmung entstehen. Dann - so sagen diese Unternehmen - kommt das beste Produkt dabei heraus. Das muss nicht immer so sein, aber erfahrungsgemäß kommt das hin. Wir bereits gesagt: es hängt immer von der Philosophie eines Unternehmens und am Ende vom fertigen Produkt ab.

Marktgröße bis ca. 2017: ca. 300 Millionen SSDs pro JahrMarktgröße bis ca. 2017: ca. 300 Millionen SSDs pro Jahr

SSD-Controller

An diese Stelle gehört auch noch die Erwähnung, dass sämtliche SSDs auf dem Markt lediglich auf einer Handvoll Controller basieren. Samsung entwickelt eigene Logik auf ARM-Basis (MDX, MEX), sonst dominieren heute Indilinx (gehört OCZ), Marvell, LAMD (Link A Media) und SandForce (gehört LSI). Sie unterscheiden sich in Taktrate und Kernzahl, Anzahl an Speicherkanälen (typischerweise 8 oder 10) sowie Features. Fast alle verschlüsseln in Hardware, weil das als Teil des so genannten Wear Levelings leicht implementiert werden kann. SandForce ist der größte Verfechter von Echtzeitkompression. Das kostet natürlich Rechenleistung, kann je nach Anwendung jedoch Vorteile bringen. Wieder zählt, was der Hersteller aus der zur Verfügung stehenden Technologie macht.

SSDs: Das ist wirklich wichtig

Worauf sollte man also achten?

  1. Zuverlässigkeit und Garantie: Das sollte der wichtigste Faktor sein. Sie speichern Ihr System und Ihre Daten darauf. Ausfälle kosten Zeit und Geld; vor allem aber auch Nerven. Von Laufwerken mit weniger als 3 Jahren Garantie und Kleinstmarken würden wir die Finger lassen.
  2. Performance: Nicht durch MB/s verleiten lassen. Random I/Os (IOps ) für 4 KB Blockgrößen definieren, ob sich eine SSD schnell "anfühlt".
  3. Kapazität: Mehr ist natürlich schön, aber 250 GB oder mehr reichen für das Betriebssystem, zahlreiche Anwendungen und Ihre wichtigsten Daten gut aus. Große Datenmengen gehören schon aus Kostengründen auf Festplatten.
  4. Systemumgebung: Für welche Systeme machen SSDs Sinn? Fast alle Rechner und Notebooks für 2,5"-Laufwerke und SATA-Schnittstelle mit 3 Gb/s oder mehr unterstützen SSDs. 4 GB RAM sollten Sie haben und wenn der Rechner älter als ca. vier Jahre empfehlen wir erst einen Neukauf.
  5. Benutzerverhalten: Sollte man Windows-Funktionen wie Indizierung oder Ruhezustand abschalten? In aller Regel nein. Windows 7 und Windows 8 schalten z.B. die Laufwerks-Defragmentierung bei Neuinstallationen ohnehin ab. Ansonsten vertragen moderne und ordentliche SSDs meist viel. Nur wer sein Laufwerk täglich mehrfach mit der Gesamtkapazität beschreibt, sollte anders planen. Aber ganz im Ernst: das macht kaum jemand.
  6. Backup! Jedes Laufwerk kann kaputtgehen. Auch SSD-Inhalte sollten regelmäßig gesichert werden

Differenzierung: 840 EVO mit Technik und Software

Der Fairness halber sei gesagt: der Unterschied zwischen einer schnellen und einer ganz schnellen SSD ist heute praktisch nicht spürbar, allerdings wohl messbar. Damit spielt es aus Performance-Sicht immer weniger eine Rolle, welche (Serial ATA-)SSD man sich zulegt. In der Praxis geht es allerdings darum, hohe Performance dauerhaft und reproduzierbar zu ermöglichen und dem Anwender den Umstieg sowie die Verwaltung seines Laufwerks möglichst einfach zu gestalten. Samsung will sich durch modernste Technik gepaart mit Einfachheit bei Installation und Management vom Wettbewerb absetzen.

Alle 9 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • Holt , 26. Juli 2013 04:19
    Erstmal danke für den Review. Aber etwas Kritik muss schon erlaubt sein:
    1. Das Apple User ganz außen vor bleiben stimmt ja so nicht, denn unter http://www.samsung.com/global/business/semiconductor/samsungssd/downloads.html stehen ja die iso Dateien für FW Update bereit.
    2, der Satz: "dominieren heute Indilinx (gehört OCZ), Marvell, LAMD (Link A Media) und SandForce (gehört LSI)." ist doch etwas komisch. Stückzahlenmäßig dürften heute Samsung und Marvell (Toshiba steht aktuell auch auf Marvell Designs, wenn auch mit dem Cache zusammen in einem Chip mit eigenem Label) den Markt dominieren, Sandforce (LSI) gehört wohl der dritte Platz dann kommen erst ganz weit hinten LAMD (gehört übrigend Hynix) und Indilinx. OCZ ist es bisher noch nicht gelungen einen weiteren SSD Anbieter zu finden, der eine SSD mit dem neuen Indilinx Barefoot 3 auf den Markt bringt und der LM87800 von LAMD ist auch nur bei Corsair Neutron Neutron GTX und der Seagate 600 zu finden.
    3. "Anzahl an Speicherkanälen (typischerweise 8 oder 10)" 10 Kanäle hatte nur der Intel Controller, der zuletzt in der 320er Serie eingesetzt wurde. Typisch sind heute wenn, denn 4 und 8 Kanäle. 4 Kanäle haben z.B. der Marvell 9175 in der SanDisk Ultra Plus und der SF-2241, 10 Kanäle hat degegen kein aktueller SSD Controller mehr.
  • Timur Born , 26. Juli 2013 11:13
    Mir erschließt sich nicht genau, warum der Samsung RAPID Softwarecache in der *Praxis* höhere Leistung bringen soll, als der Windows eigene Cache?

    Dass den üblichen Benchmarkprogrammen vorgegaukelt wird ohne Cache zu messen, ist einsehbar, und die höheren Werte somit nicht verwunderlich. Dass der THG Storage Bench Test aber auch höhere Werte liefert, hätte ich gerne besser kommentiert gesehen. Wieso greift der RAPID Cache in diesem Szenario besser als der Windows eigene Cache?

    Übrigens: ATTO erlaubt den Windows Cache für Messungen EINzuschalten. Dabei erreicht meine "alte" Crucial M4 256 sogar höhere Leseraten als die hier im Test gelisteten. Nur die Schreibraten bleiben deutlich kleiner.

    Ein ATTO Test mit und ohne RAPID, sowie mit und ohne Windows Cache wäre also evtl. noch interessant.
  • Holt , 27. Juli 2013 02:49
    Die üblichen Benchmarks wie z.B. AS-SSD benchen auf Filesystemebene und daher ist der Cache für die transparant. Da die auch immer gleich alles 3, 4, 5 mal schreiben und dann gleich darauf ebensooft wieder einlesen, bringt Cache da wirklich extrem viel. In der Praxis ist das aber eher Spielkram und teils sogar kontraproduktiv, denn man muß ja auch den Aufwand für die Cacheverwaltung berücksichtigen. Wie man sieht, sind die Ergebnisse mit Cache teils sogar schlechter als ohne.
  • Timur Born , 27. Juli 2013 11:41
    Auf Anandtech ist der RAPID Cache detailiert(er) beschrieben. U.a. wird dort erklärt, dass RAPID auf Blockebene (block level cache) arbeitet, statt auf Dateiebene. Von einer großen PST Datei muss so z.B. nicht die gesamte Datei gecacht werden, sondern nur diejenigen Teile, die auch benutzt werden. Zudem bietet RAPID "Write coalescing", welches einzelne Schreibzugriffe zu großen Paketen vereint.

    Im Grunde bietet es somit kostenlos die Möglichkeiten diverser Dritthersteller Softwarecaches an (Fancycache, PerfectCache, SuperSeed). Allerdings mit der Beschränkung auf nur ein (1) Laufwerk und ohne manuelle Einstellmöglichkeiten.
  • Timur Born , 27. Juli 2013 11:43
    Dazu sollte man noch erwähnen, dass auch File Level Caching in der Lage ist nur Teile einer Datei zu cachen. Außerdem bedeutet jede weitere Cache Ebene eine weitere Fehlerquelle durch Softwarefehler und evtl. Stromausfall.
  • Holt , 27. Juli 2013 16:30
    Diese ganze SW-Cache Lösungen können ja nur funktionieren, wenn sie unterhalb der Filesystemebene ansetzen und damit sind sie eben zwangsläufig unsichtbar für alle Benchmarks die auf Filesystemebene benchen.

    Timur Born, Du vergisst eine weitere nicht zu unterschätzende Fehlerquelle: RAM-Fehler. Die sind nicht so selten wie viele glauben und da heute RAM in ähnlich kleinen Strukturbreiten wie NAND gefertigt wird und fast jeder PC heute mehr RAM hat als ein Server vor ein paar Jahren, wird das Problem immer häufiger vorkommen. Leider beschränken die HW Hersteller, bis auf wenige Ausnahmen bei AM3+ Boards, ECC-RAM auf die Workstation- und Serverhardware. Ein ab und zu mal kippendes Bit in dem RAM-Bereich wo der Cache liegt, kann dann die "schönsten" Effekte erzeugen und wird nur selten korrekt zu diagnistizieren sein.

    Das Risiko von Datenverlust durch einen plötzlichen Stromausfall halte ich übrigens für umso gefährlicher, je mehr Cache Ebenen da eingezogen werden. Mit dem RAPID sind es dann bei der Evo schon 3 (Windows, RAPID, TurboCache).
  • Timur Born , 28. Juli 2013 13:13
    Ich habe heute mal einen kurzen Test gemacht: Mit meinen 8 gb RAM nutzt Windows 8 ziemlich genau 1 gb als Schreibcache, und allen verfügbaren RAM als Lesecache. Für die 1 gb ist egal, ob es sich um eine oder mehrere Dateien handelt, und ob sie ganz oder nur teilweise in den Cache passen (falls nicht, werden die ersten 1 gb gecacht).
  • pzero , 29. Juli 2013 15:26
    @Holt
    Danke für das Feedback. Apple wird laut Samsung tatsächlich derzeit nicht in Betracht gezogen - damit meinen wir die Software-Pakete, die den Umstieg auch für technisch weniger versierte Anwender erst einfach machen.

    Die Controller-Ausführungen sollten keine Bedeutungspriorität implizieren. Ihre bzw. Deine Angaben sind natürlich richtig so.
    Mit der Anzahl an Speicherkanälen war ebenfalls nur das Maximum gemeint, das bei diesen Architekturen Sinn macht. 10 wären denkbar, bringen bei Serial ATA allerdings derzeit kaum ein gutes Verhältnis von Aufwand zu Nutzen.

    Die ganze Caching-Thematik ist für mich eher der Versuch, noch Mehrwert dazuzupacken. Was es wirklich bringt werden wir noch anschauen. Viele Anwender werden das Feature voraussichtlich nicht einmal in Betrieb nehmen, setzt es doch den Magician voraus. Auch in Unternehmen wird das kaum denbkar sein.

    Ich persönlich denke, dass im Storage-Bereich noch viel Konsolidierung stattfinden muss. Soll heißen: Für jeden zweck der richtige Storage-Typ (SSD, Festplatte, portable Medien oder Cloud) und je nach Anwendung die richtige Behandlung (Cache-Strategien auch im Verbund mit Deduplizierung und Kompression). Das Thema Stromausfall bei Cache ist für Notebooks weniger relevant; RAM-Bitfehler dagegen eher.

    Vielen Dank für die Diskussion!
  • Tracking , 4. September 2013 10:48
    Jetzt ist ja die 4.2.1 von Magician verfügbar. Nur leider wird - entgegen der Aussage im Artikel - nur die 840 EVO unterstützt. Vielleicht könntet Ihr ja mal nachfargen, ob sich dies in Zukunft änder soll. Danke