[UPDATE] Vergleichstest interne SSDs, Stand November 2016

Kurzüberblick SSD-Technik: Vor-/Nachteile, Schnittstellen & Standards

Vor- und Nachteile von SSDs und Festplatten

Mechanische Festplatte sind für viele Anwender nach wie vor unverzichtbar, da sie gerade in Kapazitätsklassen ab einem Terabyte und mehr das deutlich bessere Preis-Leistungsverhältnis bieten. Die Performance ist für den Normalanwender nach wie vor ausreichend, so dass gerade in vielen günstigen Notebooks und Desktop-PCs keine SSDs zum Einsatz kommen.

Ambitionierte bzw. leistungshungrige Anwender kommen jedoch nicht umhin, zumindest eine SSD für die Installation des Betriebssystems und der am häufigsten verwendeten Programme zu nutzen: Die Zugriffszeiten der Flash-Speicher sind um ein Vielfaches schneller und die Datenübertragungsraten selbst bei den günstigsten Modellen wenigstens kurzfristig schneller als bei mechanischen Festplatten. Nur die Leistung sehr günstiger SSDs kann zuweilen auf Durchsatzraten einbrechen, die unterhalb derer von Festplatten liegen.

Die Dateizugriffe an sich bleiben trotzdem deutlich schneller, da hier kein mechanischer Schreib-/Lesekopf mehr über eine Magnetscheibe gleiten muss, um im ungünstigsten Fall stark fragmentierte Bestandteile eines Datensatzes zusammenzutragen: Diese Aufgabe übernimmt allein der verbaute Controller, ganz ohne zusätzliche Mechanik.

Daraus leitet sich auch direkt ein weiterer Vorteil von SSDs ab: Wo keine Mechanik, da keine wahrnehmbaren Geräusche. Dadurch sind SSDs auch stoßunempfindlich und weniger hitzeempfindlich als Festplatten: Lediglich bei einigen aktuellen High-End-Modellen kann der Controller unter Volllast ohne zusätzliche Kühlung zu heiß werden. Das führt aber nicht zum Ausfall, sondern "nur" zum geplanten Heruntertakten und damit zu einem temporären Leistungsabfall.

Auch für den mobilen Einsatz sind SSDs eine gute Wahl: Aktuelle, an sich schon genügsamen Modelle verfügen auch über eine Reihe von Stromsparfunktionen. Dadurch rutschen sie auf einer Liste der Bauteile, die die Akkulaufzeit eines Notebooks deutlich verkürzen können, ganz weit nach hinten.

Ebenfalls nicht zu verachten: Aktuelle Laufwerke auf Basis von Flash-Speicher bieten mittlerweile überwiegend Herstellergarantiezeiten von drei, fünf oder noch mehr Jahren: Das ersetzt zwar keine gewissenhafte Backup-Strategie, um Datenverlusten vorzubeugen, gibt aber zumindest die Gewissheit, im Falle eines Defekts auch noch einige Jahre später Anspruch auf Reparatur oder Ersatz zu haben.

Im Falle eines Defekts ist die Datenrettung von einer SSD allerdings in vielen Fällen ein deutlich schwierigeres oder sogar unmögliches Unterfangen. Deshalb ist besagte (gewissenhafte) Backup-Strategie in jedem Fall Pflicht – das gilt aber auch für mechanische Festplatten. Denn hier ist es im Falle eines Ausfalls zwar oft leichter, alle oder wenigstens einen Teil der Daten retten zu können, aber angesichts der damit verbundenen Kosten werden die meisten Privatanwender eher auf die Daten verzichten.

Werden ständig sehr große Mengen an Daten geschrieben, kann unter Umständen ein bestimmter Schwellwert (TBW = Total Bytes Written) erreicht werden: Hinter dieser Angabe verbirgt sich eine Art Mindesthaltbarkeitsdatum – wird der Wert überschritten, erlischt die Garantie vorzeitig. Das sollte allerdings bei aktuellen Modellen nur noch unter sehr speziellen Bedingungen und mindestens (semi-)professionellen Einsatzszenarien eintreten; ein normaler Privatanwender wird in seiner Alltagsnutzung nie in diese Bereiche vorstoßen.

Weitere Unterschiede zwischen mechanischen Festplatten und SSDs sowie Unterschiede der SSDs zueinander werden wir in einem kommenden Grundlagenartikel erörtern. Hier wird es um verschiedene Flash-Speicher (2D, 3D, SLC, MLC, TLC), Beschleunigungsversuche durch die Hersteller (Cache, Pseudo-Cache im RAM), mehrkanalige Controller, Ansätze zur Vermeidung von Datenverlust beim Stromausfall und weiteres gehen.

Schnittstellen und Standards

Die aktuell verbreitetste Bauform von SSDs für den Desktop-Einsatz ist die SSD im 2,5-Zoll-Format. Dabei handelt es sich um Flash-basiertes Speichermedium, das wie eine mechanisch Festplatte der gleichen Bauform in einem meist 6,8 bis 9,5 mm hohes Gehäuse aus Stahlblech, Aluminium oder Kunststoff verbaut ist.

Genau wie ihre mechanischen Geschwister werden diese Festplatten über einen SATA-III-Controller (6 GBit/s) und AHCI (Advanced Controller Host Interface) angebunden und unterliegen damit auch den Beschränkungen des technisch möglichen: Auf dem Papier ist maximal eine Durchsatzrate von 600 MByte/s möglich, in der Praxis bleiben davon je nach SSD und Benchmark maximal rund 560 MByte/s übrig.

Damit stellt diese Form der Anbindung den Flaschenhals für viele aktuelle SSDs mit dem genannten Formfaktor dar. Für den Normaleinsatz und auch für ambitionierte Spieler reicht das aber vollkommen aus - schnellere und deutlich teurere High-End-Lösungen sind außerhalb professioneller Einsatzszenarien reiner Luxus.

Das mobile Pendant dazu ist schon fast wieder ausgestorben: Eine Zeit lang kamen in Notebooks vor allem mSATA-SSDs zum Einsatz. Dabei handelt es sich um kleine Steckkarten, die bei voller Baugröße nur etwas mehr Platz als eine gängige WLAN-Karte im Notebook einnehmen, aber ansonsten den gleichen Geschwindigkeitsbeschränkungen wie die größeren 2,5-Zoll-Modelle unterliegen.

Daneben gibt es eine Reihe von Sonderlösungen wie über den voll duplexfähigen SAS-Anschluss angebundene SSDs (die aber fast nur im Enterprise-Bereich zum Einsatz kommen), langsame eMMC-Module (die beispielsweise in Low-Budget-Notebooks eingesetzt werden) und weitere Spezialfälle, die an dieser Stelle den Rahmen sprengen würden.

Power-User und Enthusiasten setzen hingegen auf die deutlich teureren, aber auch schnelleren Laufwerke mit M.2-Anschluss oder aber gleich auf eine PCI-Express-Steckkarte. M.2 ist wie auch mSATA ein Steckkartenformat.

Wird eine vierstellige Zahl (2242, 2260, 2280, 22110) dahinter angegeben, bezeichnet das die physische Länge der Karte: Hier muss also darauf geachtet werden, dass die Steckkarte auch ins Notebook passt – oder aber auch auf das Mainboard eines Desktop-PCs, denn die kleinen Speicherkarten machen sich daran, die Bauform der 2,5-Zoll-Laufwerke allmählich zu beerben.

M.2-Laufwerke können entweder per SATA (und dann mit den genannten Performancebegrenzungen) oder über PCI Express (PCIe) angebunden werden. Bei der aktuelleren Anbindung über PCIe ist ebenfalls darauf zu achten, dass diese schnell genug ist: Wenn etwa zwei dieser Steck-SSDs im RAID eingesetzt werden sollen, die das NVMe-Protokoll als AHCI-Nachfolger unterstützen, kann schnell Mindestanbindung über vier PCIe-3.0-Lanes nötig sein.

Dafür belohnen die Laufwerke ihren Anwender mit Durchsatzraten, die über 2,5 TByte/s hinausgehen können - also mehr als das Vierfache der Datendruchsätze, die über einen SATA-Controller möglich sind.

M.2-Steckkarten lassen sich auch über eine PCIe-Trägerkarte anbinden, wenn kein M.2-Steckplatz vorhanden sein sollte. Profis bevorzugen ohnehin von vornherein eine PCI-Express-Lösung: Derart aufgebaute SSDs kommen mit einem eigenen Kühlkörper, so dass hier das thermisch bedingte Heruntertakten hochgezüchteter Controller effizient und ab Werk unterbunden werden kann.

Auch auf diese Unterschiede werden wir noch detailliert und in übersichtlicher Form in der kommenden Kaufberatung eingehen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
20 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • stefan00166
    Bitte könnt ihr vielleicht mal eine Festplatte dazunehmen 1 normale und ein 2 mal ne schnelle raid 0 verbund.
    0
  • ShieTar
    1 Festplatte als Referenzgröße wäre sicher nicht verkehrt, aber 2 Platten im Raid kann man sich dann selbst ausrechnen. Doppelte sequentielle Datenrate, und bestenfalls die gleiche IOPS.
    0
  • besterino
    Ich bin mal auf die angekündigten erläuternden Teile gespannt. Ich habe vor allem noch nicht verstanden, wie sich diese Cache-Systeme auswirken, vor allem je nach Anwendungsszenario. Also mal dumm als Beispiel: wenn ich möglichst schnell ein Renderfilmchen mit 500GB aus dem RAM auf die SSD schreiben möchte, ist das wahrscheinlich eine andere Last, als wenn die SSD gleichzeitig 3 VMs als primärer Datenspeicher (OS-Heimat + ggf. auch noch pagefiles/swap) dient. Daher würde mich halt insbesondere interessieren, wie viel "nackte" Geschwindigkeit bei einer SSD ohne Cache und sonstige Performance-Blender...äh, sorry, "Optimierungsmechanismen"... übrig bleibt.
    0
  • ShieTar
    Nackt im Sinne von nichtmal Windows Caches? Ich habs mit meiner 840 Pro mal messen wollen, da verlierst du 80% der Performance. Realitätsnah ist das aber nicht.

    Um die verschiedenen Anwendungszwecke einzuschätzen gibts in den detaillierten SSD-Tests ja nicht nur sequentielle und Random-Tests, sondern auch Mixed-Read/Write Tests.
    0
  • besterino
    Nein, nicht auf OS-Ebene sondern im Prinzip "nur" auf SSD-Ebene. Wenn ich zum Beispiel bei so einer billigen Transcend SSD große Files 20GB+ kopiere, sieht das erst ganz hübsch aus, bricht dann aber eben extrem ein. Dabei sind das ja sogar billige "sequentielle" read/write Anforderungen und sollten also nicht an etwaige IOPS-Grenzen stoßen. Naja, bin in dem Bereich sicherlich kein Guru, daher bin ich auf die Erläuterungen / Hintergründe dazu eben mal gespannt ob ich nach der Lektüre schlauer bin. =)
    0
  • derGhostrider
    EINE Datei zu schreiben trifft nie IOPS-Begrenzungen, da es exakt eine Input Operation ist.

    Kannst Du mir verraten, was Du von einem nicht realistischen Test erwartest?
    Ich sehe den Vorteil einfach nicht ALLE Caches (inkl in SSD integriertem Cache, nehme ich doch mal an) zu umgehen, da Di soetwas NIEMALS im Betrieb antreffen wirst.

    Das erinnert, man entschuldige den Vergleich, an eine solche Forderung:
    "Wie schnell ist ein Bugatti Veyron, wenn man die Reifen abmontiert?"

    Die Frage mag zu beantworten sein, ist aber auch dann nicht hilfreich für jemanden, der das komplette Fahrzeug // die SSD im normalen Einsatz verwenden möchte.
    1
  • besterino
    Du verstehst es nicht oder willst es nicht verstehen. Diese tollen Performance-Angaben stimmen hinten und vorne nicht, je nach Einsatzzweck. Ich hab auch nirgends gesagt, dass ich alle Caches "umgehen" will. Es geht darum herauszufinden, was übrig bleibt in Szenarien, in denen der Cache und sonstige Tweaks an ihre Grenzen stoßen verdammichnocheinsnocheinmal. Ist das so schwer nachzuvollziehen?

    Von den tollen 500+ lesen/schreiben bleiben in _meinen_ Anwendungsszenarien gerne mal magere 150 oder weniger übrig. Daher: will mal verstehen, warum. So. Genug rumdilletiert von mir, ich warte jetzt einfach mal auf die Artikel und lese mich in der Wartezeit mal woanders noch ein.
    0
  • Headyman
    Also der AS SSD Benchmark gibt doch schon mal ein gutes Bild, wo man typ. steht, das ist ja einem Anwendungsszenario nachempfunden, da sieht man aben nicht MAX-IO und MAX-Transfers...

    Na ja, und wenn die Caches absaufen, dann wirds halt langsamer, wie stark das hängt vom Anwendungsfall ab...

    Na ja und das Lesen eines Files besteht für ein OS eben nicht nur aus einem IO, da wird protokolliert, geloggt, gescannt und zig Sachen noch aussenrum erledigt, da kann nicht ein OS-neutraler Maximalwert mehr rauskommen.

    Im Übrigen bestehen heutezutage viele Performancezuwächse dem Einsatz von Caches und Optimierungen.
    Ohne derartige Booster, wäre es arg traurig...
    Schalte mal bei deiner CPU alle Caches aus oder eliminiere alle Tricks beim RAM, das ist zwar nicht mehr 70er Jahre, aber allzuviel mehr auch nicht (taktbereinigt).
    1
  • fffcmad
    Korrekt. Ohne Caches waere man beim RAM Zugriff weit ueber 70ns, eher ueber der 100ns. Viele normale PC System liegen ja gerade mal zwischen 80 - 60ns Speicherzugriff mit Cache. Nur gut getunte System oder welche mit Triple/ Quad Channel kommen in Regionen unter 50ns.
    0
  • Michalito
    Die Crucial MX 300 kommt noch? Kam ja in der US Schwester nicht gut weg.... Und Samsungs EVO Linie sollte zumindest mit der neuen Revision auch hier rein, oder finde ich die nur nicht, als Test..
    0
  • Michalito
    € Und die Sandisk Ultra II.. Die verkauft sich z.Z. wie bescheuert.
    0
  • Myrkvidr
    MX300 kommt noch - ich hab gerade alle 850 Evo und die neuen Evo v3 da und so gut wie durchgemessen. Sandisk Ultra II frage ich gern beim Hersteller an. Es kommen auch noch ein paar zusätzliche Benchmarks (Mixed Workloads), ich musste den Test nur erstmal irgendwie online bringen, bevor ich weitermachen kann ;)
    0
  • Michalito
    Anonymous sagte:
    MX300 kommt noch - ich hab gerade alle 850 Evo und die neuen Evo v3 da und so gut wie durchgemessen. Sandisk Ultra II frage ich gern beim Hersteller an. Es kommen auch noch ein paar zusätzliche Benchmarks (Mixed Workloads), ich musste den Test nur erstmal irgendwie online bringen, bevor ich weitermachen kann ;)


    Ja, super :D Die 1 TB Evo kommt die Woche bei mir an. Mehr praxisbezogene Benches bitte..
    0
  • derGhostrider
    Schickes Update!

    Da juckt es schonwieder in den Fingern die 960er 1TB zu kaufen. Allerdings bräuchte ich dazu dann auch gleich noch so eine PCIe-Karte, wie bei der OCZ.
    OCZ, auch wenn da nun Fujitsu draufsteht, ist irgendwie nicht meins. Vor allem, wenn ich den Graphen mit der hüpfenden Transferrate sehe.

    -------------

    Wenn die SSDs so einfach überhitzen, wie wäre es denn dann mal diese Kühlung zu testen (Amazon-Link):
    https://www.amazon.de/dp/B01H0BC8FG/ref=wl_it_dp_o_pC_nS_ttl?_encoding=UTF8&colid=2415T1TTOF6XW&coliid=I1L4H9U4S5903I

    kryoM.2 PCIe 3.0 x4 Adapter für M.2 NGFF PCIe SSD, M-Key mit Passivkühler

    Mir wäre es wohl lieber, wenn die SSD um 90° gedreht eingesteckt würde, aber der Kühler sieht vertrauenserweckend aus.
    Und 30 Euro für stabile(re) Leistung, sofern es funktionieren sollte, würde ich auch sofort ausgeben.
    0
  • Myrkvidr
    Ahh, danke für den Gedankenanstoß zum KryoM.2, hatte ich gar nicht auf dem Schirm! Sieht aber ordentlich aus, zumal sich der Kühlkörper selbst verschrauben lässt.

    Und für die ganz Wahnsinnigen dann noch ein Zusatzdurchlauf mit 90er-Jahre-Mainboard-Chipsatzlüfter auf dem kleinen Kühlkörper ;)
    0
  • derGhostrider
    Mir hat es auch gefallen, dass der Kühler nicht nur zum Aufkleben gedacht ist. Das erweckt den Eindruck, dass man es mehrfach verwenden kann.

    Deine zusätzliche Idee mit aktiver Kühlung wäre natürlich sehr edel. Zwar mehr Aufwand, aber dann wüsste man wohl hinterher, was theoretisch geht und ob das alles überhaupt etwas bringt. Nicht, dass es nur "Eyecandy" ist, letztendlich aber nichts an der Leistung verändert!
    0
  • Myrkvidr
    Das wird in jedem Fall etwas bringen.
    Nimm mal beispielsweise die OCZ RD400A, die ja "nur" über das zusätzliche Wärmeleitpad auf die PCIe-Add-in-KArte verfügt. Das steht noch nicht im Test, (wird noch nachgepflegt), weil ich nicht mehr dazu gekommen bin, alle Logs auszuwerten.

    Die RD400A bleibt mit Pad bei 71-72°C (21 °C Raum), der Controller bringt dadurch auch nach 30 Minuten immer noch volle Leistung. Dementsprechend dürfte ein kleiner Passivkühlkörper nochmal mehr Luft nach oben bieten.
    0
  • derGhostrider
    na dann: Bestellen & ausprobieren! :)
    Mich interessiert am meisten die Sausung 960er. Wenn man die so bei andauernder Belastung nochmal etwas beschleunigen könnte, wäre das schon ganz nett.
    0
  • McHunter
    Mich würde mal interessieren warum die SanDisk SSDs "SSD Plus", "Ultra II" und "Extreme Pro" nicht im Test auftauchen, zumal es sie in den Größen 120GB, 240GB, 248GB und 960 GB gibt...
    0
  • Myrkvidr
    Weil ein SSD-Test unglaublich viel Benchmark-Zeit frisst, ich zu viele Ressorts zu bedienen habe und mein Arbeitstag oft epische Zeitspannen umfasst ;)
    Alle genannten SanDisk Modelle sind aber vorhanden und auch fast komplett in fast allen Größenklassen durchgebencht. Sobald ich Fotos vom Innenleben, Texte und Chartsgrafiken fertig habe, kommt das Update. Spätestens Ende Februar/Anfang März.
    0