Anmelden mit
Registrieren | Anmelden

Mehr Platz, kein Over-Provisioning bei Crucials m4

Crucial m4 und Intel SSD 320: Zwei weitere SSD-Konkurrenten
Von

Bei den Crucial-Laufwerken mit Marvell-Controller findet man mittlerweile überraschenderweise kein Over-Provisioning mehr. Dadurch bietet sich dem Kunden mehr Platz, allerdings kann diese Entscheidung die Performance auch negativ beeinflussen.


Crucial m4 256 GB
Intel SSD 510 256 GB
NAND-Flash-Bausteine
25 nm MLC, ONFI 2.234 nm MLC, ONFI 2.1
NAND-Kapazität
256 GB
256 GB
Kapazität nacn IDEMA
256 GB250 GB
Over-Provisioning
0%
3.4%
Kapazität in Windows 238,5 GiB232,8 GiB
Schnittstelle
SATA 6Gb/sSATA 6Gb/s

Over-Provisioning, Garbage Collection und Performance

Over-Provisioning ist die Bezeichnung für reservierten Speicherplatz, mit dem das Laufwerk sozusagen für Ordnung sorgen kann. Wenn man anfängt seine SSD zu nutzen, hilft das Zusammensammeln verstreuter Blöcke bei der Zuordnung von Platz für zukünftige Schreibvorgänge. Das ist landläufig als “Garbage Collection” bekannt.

Null Prozent Over-Provisioning führt nun möglicherweise dazu, dass das Laufwerk mit zunehmendem Füllstand immer langsamer wird. Für den heutigen Test kopieren wir deshalb ganze Verzeichnisse von unserem Boot-Laufwerk auf die SSD, bis diese voll ist. Gibt es ein Problem, nimmt die Performance nach Auffüllen des Laufwerks ab.

HD Tach RW
Performance im Werkszustand
Performance mit vollem Laufwerk
Performance nach 30 Minuten Leerlauf
Intel SSD 510 (250 GB)Durchschn. Lesen: 370,8 MB/s
Durchschn. Schreiben: 300,4 MB/s
Durchschn. Lesen: 371,1 MB/s
Durchschn. Schreiben: 221,0 MB/s
Durchschn. Lesen: 339,4 MB/s
Durchschn. Schreiben: 274,3 MB/s
Crucial m4 (256 GB)Durchschn. Lesen: 391,2 MB/s
Durchschn. Schreiben: 233,8 MB/s
Durchschn. Lesen: 177,1 MB/s
Durchschn. Schreiben: 253,6 MB/s
Durchschn. Lesen:156,2 MB/s
Durchschn. Schreiben: 253,9  MB/s


Wie erwartet nimmt die Performance des Laufwerks bei Belegung des Speichers entsprechend ab. Nach 30 Minuten im Leerlauf wird die Garbage Collection aktiv und gewinnt die meiste Performance zurück. Allerdings erreicht die m4 von Crucial nicht mehr den ursprünglichen Werkszustand. Vor allem die Lesegeschwindigkeiten knicken ein.

Intel SSD 510: WerkszustandIntel SSD 510: WerkszustandIntel SSD 510: Laufwerk vollIntel SSD 510: Laufwerk vollIntel SSD 510: nach 30 Minuteln LeerlaufIntel SSD 510: nach 30 Minuteln Leerlauf

Crucial m4: WerkszustandCrucial m4: WerkszustandCrucial m4: Laufwerk vollCrucial m4: Laufwerk vollCrucial m4: nach 30 Minuten LeerlaufCrucial m4: nach 30 Minuten Leerlauf

Die Lesegeschwindigkeit der SSD-510 von Intel sinkt um etwa 8,5%, kann sich anschließend aber wieder erholen. Die Lesegeschwindigkeit der m4 bricht hingegen um 40% ein. Der Schreib-Performance ergeht es besser, doch zeigen sich dort zahlreiche Spitzenwerte. Die Garbage Collection der SSD 510 sorgt für eine höhere und konstantere Performance, die man sich von der m4 vergeblich erhofft. In diesem speziellen Szenario scheint sich das jüngste Crucial-Laufwerk selbst ein Bein zu stellen.

Es  besteht auch die Möglichkeit, einen weiteren Aspekt der Garbage Collection zu testen. Konkret prüfen wir dabei, wann Blöcke wieder verfügbar werden. Dazu schauen wir uns die Performance eines Laufwerkes an, nachdem ein TRIM ausgeführt wurde. Warum? Der TRIM-Befehl löscht nicht alle Daten auf die gleiche Art und Weise wie ein kompletter Löschvorgang. TRIM teilt dem Controller lediglich mit, dass das Betriebssystem den Speicherplatz nicht länger verwendet. Man muss also einen Block löschen, um den Speicherplatz für einen zukünftigen Schreibvorgang verfügbar zu machen. Genau darin liegt der Widerspruch. Einzelne Blöcke lassen sich nicht löschen, sondern nur in Gruppen angeordnete große Segmente. Sobald ein Laufwerk vollständig belegt und geTRIMt ist, hängt die Schreib-Performance davon ab, wie schnell der Controller die Blöcke „recyceln“ kann.

Wir belegen zunächst die Speicherkapazität und leeren das Laufwerk dann über den Papierkorb,  was den TRIM-Befehl auslöst. Sofern die sequenzielle Schreib-Performance nach TRIM niedriger ist als nach einem sicheren Löschvorgang, verursacht der Recycling-Vorgang einen Flaschenhals.

AS SSD: Sequenzielle Schreib-Performance
Performance nach vollständigem Löschen
Nach  TRIM
Intel SSD 510 (250 GB)

315,75 MB/s

308,86 MB/s

Crucial m4 (256 GB)

283,12 MB/s

279,36 MB/s

Nach dem TRIM-Befehl nimmt die Performance leicht ab. Die Crucial m4 schreibt in aufgeräumtem Zustand sequenzielle Daten mit 283,12 MB/s. Nachdem wir das Laufwerk gefüllt und dann gelöscht haben, beträgt die sequenzielle Schreib-Performance der m4 nur noch 279,36 MB/s. Bei einem Unterschied von 3% müssen wir uns bei der m4 um einen Performance-Einbruch wirklich keine Gedanken machen. Was Over-Provisioning angeht, sehen wir beim Recyceln kein Flaschenhals-Potential.

Alle 13 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • dabiggy , 11. April 2011 13:00
    Sehr sehr schade das nur die teuren (und immer schnellen) 256er-Varianten getestet werden... 128 Gb bzw sogar 64 Gb sind wohl der größte Anteil und das was am meisten in Frage kommt..

    Ich weiß nie, ob die Platten auf 128gb ähnlich skalieren oder ganz andere Verhältnisse ham (laos 128 gb m4 gegen 120/160 gb Intel 510/320...

    Auf Seite 4: Die Performance im schreiben ist im Werkszustand langsamer als wenn sie voll gemacht wurde und mit TRIM gesäubert? Ist das ein Fehler aus der Übersetzung, es macht doch wenig Sinn?

    Des weiteren: http://www.hardwareheaven.com/reviews/1143/pg12/crucial-m4-256gb-ssd-c400-review-atto-post-testing.html

    Hier wurde die Platte auch voll und benutzt getestet, die Schreibgeschwindigkeit bricht kaum ein...

    Generell hatte ich nach dem HH.com-Test gedacht: WOW, was für eine Platte! Muss ich haben! In allen Tests ist die m4 ganz oben Dabei. Bei syntetischen Tests weiß ich nie: Was benötige ich? Laste ich x0.000 IOPS mit Spielen, Booten, Entpacken und kopieren überhaupt aus? Benötige ich eher sequentielle oder doch 4k QX? Fände es sehr schön, wenn man auch versucht auf "Realworldtests" umzu steigen, also wie lange brauch XY zu installieren. Wie lange dauert der Film xyz vom Platte zu Platte zu kopieren, wie lange sind die Ladezeiten beim Spiel Z, wie lange bootet windows, also wenige syntetische Tests, mehr Real World Tests..

    Euer Garbage Collector macht mir den Traum bissal zu nichte =/.

    Seite 10 unten: Zudem hat uns beeindruckt, dass die m4 ständig durchweg abschneidet als unser Beta-Sample der OCZ Vertex 3 Pro. Welches Adjektiv fehlt hier?! Besser?

    P.s.: wie lösche ich eine SSD "komplett"? Low level format bringt ja nix, weil eine 0 schlecht ist.. Welches Tool nutzt ihr?
  • benkraft , 11. April 2011 18:50
    Hallo,
    in der Tat fehlte wie vermutet das Wort "besser" unten auf Seite 10.

    Die Werte auf Seite 4 für das volle Laufwerk sind kein Übersetzungsfehler. Ich habe gerade nachgefragt, ob es da zu einer Verwechselung in den Spalten der Tabelle kam. Danke für den Hinweis!

    Was den Test der großen Kapazitäten anbelangt: Das kommt daher, dass nur die größten Modelle die Architektur voll ausnutzen und so zeigen kann, was in dem Produkt theoretisch steckt. Dass sich nur gut betuchte Nutzer die Spitzenmodelle leisten können, stimmt indes.

    Danke auch für die Anregung zu Real-World-Tests. Wir überlegen immer, wie wir Tests für unsere Leser besser gestalten können und werden uns Gedanken machen, wie wir diese Idee am besten umsetzen.
  • dabiggy , 11. April 2011 19:26
    Danke für das Feedback Ben. Könnt ihr sowas eigentlich auch testen oder erhält TH Usa immer die neusten Samples von den Herstellern und ihr müsst so deren Tests übersetzen/auf eigene Lieferungen warten?

    Oder könnt ihr selbst die Hardware "anfordern" und sagen: Wir machen jetzt mal nen Test..

    Weil Real World Tests wären super. Nicht jeder brauch IOlastige Tests und kann was mit 32 Deep Randomtests zu Hause was anfangen :D 
  • benkraft , 11. April 2011 20:07
    Stimmt schon. Leider darf ich noch nicht zu viel verraten, weil einige Autoren sich sorgen machen, dass die Konkurrenz mitliest und sich inspirieren lässt. Ist ja auch schon vorgekommen, insofern...
    So viel aber: Dein Wunsch sollte recht bald in Erfüllung gehen.

    Zu den komischen Ergebnissen: Andrew beharrt darauf, dass die so passen. Das sind die Messwerte, die von den Programmen ausgespuckt wurden. Ich hake nochmal nach, wenn die Zeitzonen günstiger liegen und Andrew nicht den Kopf in einem anderen Benchmark hat ;) .
  • Metalfreak , 11. April 2011 23:55
    Um das mal für meine Situation zusammenfassen:

    In meinem Desktop ist ne 80GB Intel G2 drin:
    Da lohnt der Wechsel nicht bzw. rein leistungstechnisch nur zur Vertex 3 oder 510er.
    Wobei ich mich auch frage ob man derzeit den Unterschied zwischen ner G2 und 510 als normaler PC User subjektiv überhaupt merkt?

    Bei meinem MacBook Pro 13" 2011 (derzeit noch mit HDD) lohnt sich der umstieg zu ner SSD ja sowieso. Da wäre die 320er eigentlich ideal für, sofern Usererfahrungen nicht dagegen sprechen.

    Alles korrekt?^^
  • derGhostrider , 12. April 2011 03:48
    Erst einmal mein Kommentar zum Inhalt:
    Irgendwie bin ich von Intel etwas enttäuscht. Die 510 war bereits das Gegenteil von dem, was bei der X-25 gezeigt wurde. Geradezu so, als wenn Intel einen Nachholbedarf an "Fehlentscheidungen", wie sie bei den anderen SSD-Herstellern vorkamen, hätte. Also: Streaming-Reads top, Random flop.

    Die 320er hätte bei mir nun einen wesentlich besseren Eindruck hinterlassen, wenn sie eben nicht bei den IOs schlechter geworden wäre, sondern dort mindestens gleichauf, wenn nicht sogar besser wäre. Und zwar durchgängig. Dazu dann eben (halbwegs) konkurrenzfähige Transferraten und fertig wäre das neue SSD-Wunschprodukt.

    Nun hat Intel irgendwie zwei SSDs, die mal so, mal anders abschneiden. Mal ganz gut, dann wieder schlechter. Nicht gerade konsistent und daher auch nicht überzeugend. Das ist schade.


    Nun die nervigen Kleinigkeiten, sowie Fehler im Bericht:
    Die "Performance" beim Erstellen eurer Graphen war wohl unterdurchschnittlich.

    An dieser Stelle folgt dann ein Mißverständnis bei der Interpretation der Graphen. Meinen Fehler möchte ich aber anderen nicht vorenthalten, nur ausblenden und somit auch als "falsch" kennzeichnen.
    Spoiler

    Farben und Text (3 Gbps / 6 Gbps) in den Balkendiagrammen passen überhaupt nicht zueinander!
    Gleich im ersten Graphen: Die beiden Ergebnisse der C300 stehen sogar direkt untereinander. Ein Balken rot, der andere blau, beide laut Text 6Gb/s.
    Gleicher Graph, ganz unten: Text 3Gb/s, aber die Graphen alle blau, obwohl diese Farbe laut Legende für 6Gb/s reserviert ist.

    Das macht nicht weniger als 13 Fehler im ersten Graphen!

    Das ist in jedem Graphen dieser Art so. Eine epische Fehlerhäufigkeit.



    Der inflationäre Gebrauch des Wortes "Performance" ist bereits in meinem ersten Satz dieses Abschnitts angedeutet.
    Bitte, BITTE, bitte überdenkt die Wortwahl. "Performance" ist häufig ein dümmliches Füllwort. Sprecht doch lieber von Transferrate, Lesegeschwindigkeit, Schreibgeschwindigkeit, IO-Rate oder dem entsprechendem passenden Sachverhalt. Wäre es noch die Ausnahme, also als Synonym für eine Art "gesamte Leistungsfähigkeit", wenn im Fazit Produkte gegeneinander gestellt würden, wäre das halb so wild. Aber Teilweise Sätze zu binden, in denen gleich mehrfach eine Performance mit einer anderen Performance verglichen wird, tut weh beim Lesen und erhöht weder die Aussagekraft noch das Verständnis vom Sachverhalt.


    "Fehler" bei Testwerten:
    Anhand der Testergebnisse bin ich insgesamt einfach etwas verwundert. Welcher Test ist denn nun noch korrekt? Die synthetischen Tests mit IOmeter, CDM, HD-Tach, oder aber die (laut Hersteller) etwas realitätsnäheren wie PCMarkVantage?
    Da sich die Reihenfolgen der beteiligten Laufwerke munter abwechseln, ist das nicht mehr so recht nachvollziehbar.

    Obwohl:
    Sehe ich das wirklich richtig, daß die IOmeter Einstellungen
    Zitat :
    not reading/writing random data
    immernoch so gewählt wurden, daß keine random-Daten verwendet wurden?
    Falls das der Fall ist, würde es vieles erklären. Die Werte, die mit IOmeter ermittelt wurden, könnten dann zum Großteil aus dem Testbericht entfernt werden, da es Muster sind, die von den Sandforce-Controllern erkannt und ideal komprimiert werden. Letztendlich wird dann nämlich gar nichts mehr gelesen oder geschrieben, damit ist der Test sinnfrei.

    Macht aber nichts, soetwas kann ja mal passieren und genau diesen Sachverhalt habe ich bisher höchstens zweimal zu SSD-Tests mit Sandforce-Controllern geschrieben, vor allem dann, wenn Ergebnisse "merkwürdig" waren.

    --------

    Fazit:
    Der gute Wille einen Test zu bringen ist erkennbar. Es ist schön und lobenswert, daß diese interessanten Produkte getestet wurden.
    Allerdings ist es traurig, auf welche Art und Weise es passiert ist.
    13 Fehler pro Tabelle, sprachliche Tiefschläge mit hoher "Performance", ungeschickte (teilweise sinnfreie) Einstellungen bei IOmeter und ein runtergerassel von elendig vielen "Ergebnissen", bei denen man sich nach zwei oder drei Seiten fragt, ob man die gleichen Ergebnisse nicht schon zweimal gesehen hätte.

    Das kann THG doch besser!

    P.S.: Warum sind die Kommentare zum Artikel nur auf Seite 1 zu sehen und warum muß ich auf die Seite "Community" klicken, bevor Benutzername und Kennwort für meine Anmeldung gültig sind? (Nur oben rechts auf Anmeldung klicken bringt nach der Eingabe eine Fehlermeldung, daß Benutzername/Kennwort unbekannt wären bzw der Account gesperrt. Stimmt aber offensichtlich beides nicht.)
  • derGhostrider , 12. April 2011 04:10
    Update: Ah... THG war gerade kurz nicht erreichbar, das erklärt wohl, warum die Kommentare nur auf Seite 1 angezeigt wurden.

    Aber kann mir irgendwer verraten, warum ich den Artikel nicht im Forenbereich finden kann? Bei "Artikel" steht zwar, daß der letzte Beitrag von mir ist, aber wenn ich auf "Artikel" klicke, erscheinen dort nur Artikel bis März. (Ja, habe nach Datum sortiert)
    Das gehört hier eigentlich nicht hin, man kann mir ja auch per PN antworten.
    Das mit der nicht funktionierenden Anmeldung war auch schon vor einigen Tagen so. Das tritt bei mir nun seit der Umstellung bei jedem Artikel auf. Ist das noch wem aufgefallen?
  • Anonymous , 12. April 2011 06:41
    Zitat :
    Warum sind die Kommentare zum Artikel nur auf Seite 1 zu sehen und warum muß ich auf die Seite "Community" klicken, bevor Benutzername und Kennwort für meine Anmeldung gültig sind? (Nur oben rechts auf Anmeldung klicken bringt nach der Eingabe eine Fehlermeldung, daß Benutzername/Kennwort unbekannt wären bzw der Account gesperrt. Stimmt aber offensichtlich beides nicht.)

    Anmelde- & auch andere Probleme liegen wohl am Umbau der Webseiten von tomshardware.de. Die neue Version ist ja auch "erst" einen Monat online. Selbst auf der Startseite funktioniert nicht alles und das neue Forenlayout, na ja..

    s. Neue Forensoftware & Ich komme wieder! & Probleme (etc.) zum Thema "Webdesign"


    Bei Intels Neuen bin auch ich noch am Zweifeln. Zumindest scheint sie nicht von den Problemen der m4 geplagt zu sein, die in Vergleichstest anderer HW-Seiten zutage traten, und waere damit wohl auch der m4 vorzuziehen. Wirklich lohnen wird sich gegenueber Intels G2 wohl maximal die 510 im Maximalgroesse an Sata3.

  • benkraft@guest , 12. April 2011 11:50
    Hi derGhostrider!

    Zitat :
    Farben und Text (3 Gbps / 6 Gbps) in den Balkendiagrammen passen überhaupt nicht zueinander!
    Gleich im ersten Graphen: Die beiden Ergebnisse der C300 stehen sogar direkt untereinander. Ein Balken rot, der andere blau, beide laut Text 6Gb/s.
    Gleicher Graph, ganz unten: Text 3Gb/s, aber die Graphen alle blau, obwohl diese Farbe laut Legende für 6Gb/s reserviert ist.

    Das macht nicht weniger als 13 Fehler im ersten Graphen!


    Ich gebe zu, dass es verwirrend ist, ein Fehler ist das durchweg aber nicht.
    Die Bezeichnungen hinter dem Laufwerksnamen zeigen an, ob es sich um ein 3 Gb/s oder 6 Gb/s Laufwerk handelt. Der Schlüssel unten (sowie die Balkenfarbe) geben Auskunft, an welchem Port gemessen wurde. So ist die Kombination 3 Gb/s (Text) und 6 Gb/s (SATA-Port) sowie umgekehrt durchaus möglich.
    Es ist leider schwer, das anders darzustellen.

    Was die Methodik angeht, wir arbeiten wie gesagt aktuell an neuen Benchmarks. Mehr kann ich derzeit noch nicht dazu sagen (s.o.).

    Danke und Grüße

    BEN
  • derGhostrider , 13. April 2011 01:50
    Zitat :
    Hi derGhostrider!

    Zitat :
    Farben und Text (3 Gbps / 6 Gbps) in den Balkendiagrammen passen überhaupt nicht zueinander!
    Gleich im ersten Graphen: Die beiden Ergebnisse der C300 stehen sogar direkt untereinander. Ein Balken rot, der andere blau, beide laut Text 6Gb/s.
    Gleicher Graph, ganz unten: Text 3Gb/s, aber die Graphen alle blau, obwohl diese Farbe laut Legende für 6Gb/s reserviert ist.

    Das macht nicht weniger als 13 Fehler im ersten Graphen!


    Ich gebe zu, dass es verwirrend ist, ein Fehler ist das durchweg aber nicht.
    Die Bezeichnungen hinter dem Laufwerksnamen zeigen an, ob es sich um ein 3 Gb/s oder 6 Gb/s Laufwerk handelt. Der Schlüssel unten (sowie die Balkenfarbe) geben Auskunft, an welchem Port gemessen wurde. So ist die Kombination 3 Gb/s (Text) und 6 Gb/s (SATA-Port) sowie umgekehrt durchaus möglich.
    Es ist leider schwer, das anders darzustellen.

    Was die Methodik angeht, wir arbeiten wie gesagt aktuell an neuen Benchmarks. Mehr kann ich derzeit noch nicht dazu sagen (s.o.).

    Danke und Grüße

    BEN

    Aaach, SO ist das gemeint!

    Na, darauf bin ich jetzt tatsächlich nicht gekommen, obwohl es mit etwas Nachdenken hätte ersichtlich sein können. Stand das irgendwo im Artikel, daß die Zahlen so gemeint sind? Falls ja, habe ich auch das offenbar überlesen, was es natürlich noch peinlicher werden ließe.
    So ziehe ich diesen Punkt selbstverständlich zurück.

    Die einzige Alternative wäre dann wohl eine Vierfarbigkeit in den Diagrammen zu verwenden.
    Also z.B. für 3Gb/s SSDs Hellblau (an 3Gb/s Port) und Dunkelblau (an 6Gb/S Port) und bei den 6 Gb/s Kandidaten dann Hellrot und kräftiges Rot.
    So wären die Gruppen immernoch zusammenhängend, also deutlich besser als bei vier komplett unterschiedlichen Farben, die Ports aber erkennbar unterschiedlich.
    Hätte man dann zusammenhängend in die Legende bekommen.

    DAS ist allerdings, wie ich zugeben muß, dann wohl eher Geschmackssache.

    ----

    Die Frage der sinnvollen Tests wird meines Erarchtens nach wirklich interessant. Die ganzen Firmware-Geschichten und "Wunder-Firmware-Versionen" erinnern mich an Grafikkartentreiber, die für Benchmarks optimierte Renderpfade benutzen. Dazu die teilweise stark schwankenden Ergebnisse bei gar nicht mal sooo unterschiedlichen Arbeitslasten - das wirkt manches Mal merkwürdig.

    Bin gespannt, was da noch kommt.
  • Thorsten@guest , 14. April 2011 09:10
    Als Notebookbesitzer ist auch der Vergleich der Leistungsaufnahme interessant. Denn hier zeigen sich deutliche Unterschiede.
  • Scour , 30. April 2011 20:43
    Sowas solltet ihr auch einem AMD-System mit einer SB850 messen
  • dabiggy , 2. Mai 2011 13:31
    Ein paar bekannte Seiten haben nun auch schon mit RealWorldTests angefangen, jedoch waren diese RWTs nicht sehr gut, vielleicht könnt ihr noch mehr in die Praxis einesn Zockers und einen Videoanwenders oder auch Otto-Normal-Users eingehen... Booten (mit verschiedenen Programmen) muss aber jeder ;)