Evolution der Festplatten: Viel Platz, wenig Leistung

Beim Einzeltest der 4 TB großen 3,5-Zoll-Festplatte WD4001FAEX dauerte es zusammengezählt 19 Stunden, bis alle Benchmarks von h2benchw über IOMeter bis hin zu PCMark inklusive Messung der Leistungsaufnahme abgeschlossen waren. Doch warum nimmt ein solcher Test eigentlich so viel Zeit in Anspruch? Natürlich könnten wir das Benchmark-Pflichtprogramm drastisch herunterfahren und uns auf sprichwörtliche Kurztests beschränken. Dann würden wir aber weder Endkunden noch Herstellern einen Gefallen tun, denn solche Schnellschüsse lassen zwar alle möglichen Ergebnis-Interpretationen zu, aber sie verraten kaum etwas über die tatsächliche Leistung der Festplatte, noch informieren sie darüber, wie sich das Laufwerk in unterschiedlichen Anwendungsszenarien schlägt.

Kleiner Urahn und riesiger Jungspund: 100.000 Mal größer, aber nicht 100.000 Mal schnellerKleiner Urahn und riesiger Jungspund: 100.000 Mal größer, aber nicht 100.000 Mal schneller

In diesem Artikel wollen wir aber nicht unsere Testverfahren pauschal über den grünen Klee loben, sondern einen ganz anderen Aspekt ansprechen, der ebenfalls mit der Testdauer zu tun hat. Vergleicht man aktuelle Festplatten mit ihren Urahnen, zeigt sich deutlich, dass die Laufwerke bei der Speicherkapazität dramatisch stärker zugelegt haben als bei der Leistungsfähigkeit. Das Ergebnis dieser Entwicklung lässt sich an jeder modernen Festplatte ablesen: 4-TB-Speicherriesen wie die WD4001FAEX stellen gegenüber älteren Modellen geradezu verschwenderisch viel Kapazität zur Verfügung, doch im Gegensatz dazu hat die Performance keine großen Schritte nach vorne gemacht. In einem modernen Computer stellen Festplatten daher immer noch den größten Flaschenhals dar.

Damit stellt sich die Frage, wie sich die Leistungsfähigkeit von Festplatten über die Jahre hinweg verändert hat. Und gleich im Anschluss daran: Woran liegt es, dass es heute so lange dauert, eine Platte zu beschreiben? Ist eine aktuelle Festplatte durchweg besser als eine ältere? Im Folgenden versuchen wir, Antworten auf diese Fragen zu geben und haben uns dafür im Tom's-Hardware-Labor ans hinterste Ende der Redaktions-Asservatenkammer vorgewagt. Gefunden haben wir den 40 MB großen Laufwerks-Oldie Maxtor 7040A von 1991, den wir für unsere Überlegungen mit der 4.000.000 MB fassenden WD4001FAEX vergleichen.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
16 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • THGLeser
    Sehr informativer Beitrag :) Danke dafür

    Ps.: Hab auch noch so ne olle Maxtor daheim, in nem 486 Amiga Emulator ^^
    0
  • Gaensebluemchen
    Hallo :)
    Ich wüßte gern, wie genau das Sprichwort mit den Festplattenkurztests lautet. Und bin wirklich sehr gespannt :D
    Und wehe, da kommt 'in der Kürze liegt die Würze' :P
    0
  • xvYCC
    Noch gravierender wirkt IMHO der Vergleich mit 10 Jahre alten Modellen die sich vielleicht von maximal ~35MB/s auf 120MB/s Lesen verbessert haben - das wär dann so das 3,5 Fache - zumindest mal bei den üblichen Verdächtigen 7200rpm Desktop Platten.
    0
  • crazymath
    Ich denke, die Festplatten werden irgendwann ein ähnliches Schicksal wie die Disketten vs. USB-Sticks haben...wobei erstere zusätzlich noch das Speicherplatzproblem hatten.

    Bei den Disketten hat es aber auch 20 Jahre gedauert, bis die endlich mal weg waren.

    Bei mir hängen immer noch einige Backupdisketten an einem Magneten am Kühlschrank.
    0
  • klomax
    Es gibt da eben physikalische Grenzen. - Bißchen mehr Buffer, einen Hybrid aus HDD + SSD, RPM.

    Ich bin immer noch überrascht darüber, wie gut sich meine alten Amiga- und PC-Floppy-Disks gehalten haben. - Und bei Ersteren muss man berücksichtigen, dass sie die ganze Zeit im Laufwerk teils geräuschvolle Laderoutinen über sich ergehen lassen mussten (Daran konnte man eh das entsprechende Spiel erkennen... :D ).

    Die alte Maxtor in meinem 486er läuft immer noch.

    Mal schauen, wie die Barracudas sich so machen. - Ich tippe auf eine etwas geringere Lebenserwartung.
    0
  • derGhostrider
    70 GB/s müssten die Platten also bringen... Sind wir mal großzügiger und gehen eher von den Geschwindigkeiten aus, die damals die 40MB Platten *tatsächlich* an der damaligen Hardware lieferten (~500kB/s - zumindest erinnere ich mich daran noch recht gut), dann wären es grob 50GB/s.

    Das schaffen trauriger Weise ja nicht einmal SSDs - nichteinmal Monster wie das IO-Drive Octal, welches wirklich sau schnell ist.

    Die Entwicklung ist leider etwas unglücklich: Datenspeicher sind alle zu langsam und es ist kein Ende in Sicht.

    Andererseits: Die Datenspeicher sind auch gleichzeitig so schnell wie nie zuvor. Man verschwendet auch soviel Platz wie nie zuvor. Filme, MP3-Dateien, extrem selten verwendete Programme, Treiber für Hardware, die man gar nicht besitzt... all das gab es 1991 nicht auf den Computern!
    Ich erinnere mich noch gut, wie ich sogar unnötige txt-Dateien, bak-Dateien, log-Dateien, nicht-benötigte Hilfe-Dateien von Programmen, etc regelmäßig gelöscht habe, da eben der Platz so kostbar war. Es war das installiert, was man benutzen wollte. Für unnötigen Müll war halt kein Platz.

    Wieviel von den ach-so-großen Festplatten ist heute *wirklich* ständig in Benutzung? Vom OS vielleicht 8GB (großzügig!). Dazu ein paar wichtige Anwendungen und ein Spiel, na, sagen wir mal 40GB insgesamt. (Hibernation-Files, Swap, ... alles unnötiger Schnickschnack, ebenso die gesamte Spielesammlung, Film- und Musik-Sammlung).

    Dann bleiben von 4000GB nur noch 1/100 übrig. Aus den 70GB/s (gerechnet auf die 4TB) werden dann 700MB/s.
    AHA! 550MB/s sind heute doch mit consumer(!) SSDs schon drin.
    Nun bedenke man bitte noch, daß die Zugriffszeit von 27ms auf 0,1ms oder darunter (0,05ms) gesunken ist. Also ein Faktor von 270 bis 540. Das muß man, zumindest Anteilsmäßig, ebenfalls in die Geschwindigkeit mit einrechnen.

    Das ist leider vergessen worden: Transferrate ist nicht alles und das galt auch in den 90ern bereits, wobei "Multitasking" im Desktop-bereich weitestgehend unbekannt war.

    Könntet ihr euch heute noch Festplatten oder SSDs mit 27ms Zugriffszeit vorstellen? Bei der Zugriffszeit wollte ich auch keine 70GB/s als Transferrate haben.
    Dann lieber 700 MB/s und 0,1 ms. Da hat man effektiv doch deutlich mehr von: Nur so wird die Transferrate bei kleinen Dateien überhaupt nur ausgereizt.
    1
  • saulus
    Wo ist das Problem? Ich habe eine SSD als Systemplatte. Und aus Spielerei eine SSD nur für die Spiele Installationen. Letztere bringt eigentlich nicht viel, aber ein wenig. Dann ist noch eine klassische HDD im System als Datenklo. Ich brauch keine HDD mit der Schnelligkeit einer SSD und 4GB Kapazität.
    0
  • avaka
    Was vor fast 4 Jahren die SSD war ist heute der Arbeitsspeicher. Just vor 3 Monaten stand ich vor der spannenden Frage was für ein Speichersubsystem ich denn nehmen soll für speicherintensive Simulationen wie Discrete Element Methoden. HDD? 120MB/s -->maximal finales Speichern, da brauch ich auch keinen 6-Kerner kaufen, SSD? 500MB effektiv -->besser aber da geht noch was, RevoDrive knappes 1GB/s --> joa, erheblich besser, 50GB von 64GB RAM abgezwackt (RAM ist quasi umsonst) 5GB/s, das rockt. Schafft der i7 980X mit Intel 510 SSD 60% Auslastung im Mittel, packt der i7 3930 mit RAM-Speicher 100%.
    Ghostrider hat schon recht. Was speichert der Normalmensch schon an Daten die bandbreitenkritisch sind? Film läuft, Fotoalben klicken durch, Installs von Imagefiles machens nicht fett, für alles andere gibs Mastercard oder SSDs.
    Wer sagt die Festplatt sei tot kann seinen gesamten Krempel ja mal auf Flashspeicher packen. Ich komme da mit 2000€ Investitionskosten jedenfalls nicht hin
    0
  • saulus
    Ach ja wo hier schon das aussterben der HDD propagiert wird von einigen... die Optischen Laufwerke sterben zuerst aus. Ich habe schon gar keins mehr. Spiele kommen eh alle per Download über Steam ect. Und Windows kommt auch schon eine weile vom USB-Stick. Optische Laufwerke sind also gerade am aussterben. Bis es bei den HDD's so weit ist muss erst mal das Netz schneller oder zumindest gleich schnell wie die HDD's werden. Wenn das soweit ist werden auch die verschwinden.
    0
  • avaka
    Dafür muss aber jeder erstmal adäquates Internet haben und das Vertrauen in die "Cloud" wachsen. Letztlich ist der Krempel physisch dann nicht mehr greifbar. Lass mal die ersten Onlinedienste sterben, dann ist das Gejaule aber groß und die Foren voll von dubiosen Rettungsversuchen.
    Du hast aber recht, ein optisches Laufwerk hab ich seit... oO 3? Jahren nicht mehr im Rechner, sondern nur noch in Rufweite greifbar.
    Das ist aber eine komplett andere Liga. Der Mensch ist faul, wer speichert denn seine liebgewonnen Daten auf DVDs (tickende Zeitbombe) bei dem notwendigen Aufwand und den Kosten, wenn er alternativ einfach ein NAS oder Festplatten beispaxen kann?
    0
  • kmueho
    Frage in die Allgemeinheit:
    Gerade die großen Festplatten haben ja mehrere Platter. Und je Platter gibt es zwei Schreib-/Leseköpfe - für jede Seite einen. Werden diese Köpfe parallel/gleichzeitig beim Schreiben/Lesen verwendet?
    Falls nicht wieso nicht?
    0
  • silent-efficiency
    derGhostriderDas ist leider vergessen worden: Transferrate ist nicht alles und das galt auch in den 90ern bereits.....
    Könntet ihr euch heute noch Festplatten oder SSDs mit 27ms Zugriffszeit vorstellen? Bei der Zugriffszeit wollte ich auch keine 70GB/s als Transferrate haben.Dann lieber 700 MB/s und 0,1 ms. Da hat man effektiv doch deutlich mehr von: Nur so wird die Transferrate bei kleinen Dateien überhaupt nur ausgereizt.


    Na-ja, die Zugriffszeiten sind seit den ersten Festplatten mit 7200 U/min auch kaum gesunken.

    Genau das hat eigentlich den Markt für SSDs eröffnet!
    0
  • saulus
    kmuehoFrage in die Allgemeinheit:Gerade die großen Festplatten haben ja mehrere Platter. Und je Platter gibt es zwei Schreib-/Leseköpfe - für jede Seite einen. Werden diese Köpfe parallel/gleichzeitig beim Schreiben/Lesen verwendet?Falls nicht wieso nicht?

    Alle die ich je zerlegt habe hatten eine Einheit an der alle Köpfe befestigt waren und sich nur im ganzen bewegten. Das ganze ist wohl einfach eine Sache der Kosten und des Platzes in der Platte. Um jeden Arm einzeln zu bewegen bräuchte man eine deutlich aufwändigere Mechanik.
    0
  • Abgematzt
    Unglaublich, das ihr noch ein Schätzchen von 1991 im Archiv hattet. Ich habe vor einem Jahr mal ausgemistet und habe auch eine Quantum Platte mit 512 MB noch gefunden. Aber 40 MB von 1991... Respekt!
    Damit lauft ihr mir hemmungslos den Rang ab, was das Hardware Messi dasein betrifft. ;)
    0
  • Ge0815
    kmuehoFrage in die Allgemeinheit:Gerade die großen Festplatten haben ja mehrere Platter. Und je Platter gibt es zwei Schreib-/Leseköpfe - für jede Seite einen. Werden diese Köpfe parallel/gleichzeitig beim Schreiben/Lesen verwendet?Falls nicht wieso nicht?

    Ich frage mich eher, warum es nur eine Lese-/Schreibkopfeinheit gibt. Könnte man denn nicht einen zweiten Lese-/Schreibkopf auf genau gegenüberliegende Seite unterbringen? Somit bleibt der Formfaktor gleich, nur die länge nimmt etwas zu. Würde ja theoretisch die doppelte Lese-/Schreibrate bringen, wenn der 2. Kopf nicht dummerweise die selben Speicherzellen beschreibt/ausliest.

    Und wenn man nen kleineren Formfaktor in das Gehäuse eines größeren Pakt, könnten ja z.B. schon 4 Lese-/Schreibköpfe untergebracht werden, evtl. sogar mehr, und ähnlich dürfte ja der Durchsatz ansteigen.

    Die einzigen Nachteile, die ich mir vorstellen könnte, wären die erhöhte Ausfallwahrscheinlichkeit eines Actuators/Actuatorarms sowie ein evtl. verwirbelter Luftpolster und natürlich erhöhter Strombedarf.
    0
  • derGhostrider
    Anonymous sagte:
    Ich frage mich eher, warum es nur eine Lese-/Schreibkopfeinheit gibt. Könnte man denn nicht einen zweiten Lese-/Schreibkopf auf genau gegenüberliegende Seite unterbringen? Somit bleibt der Formfaktor gleich, nur die länge nimmt etwas zu. Würde ja theoretisch die doppelte Lese-/Schreibrate bringen, wenn der 2. Kopf nicht dummerweise die selben Speicherzellen beschreibt/ausliest.

    Das gab es schonmal von Seagate. War unglaublich teuer und ist frühzeitig vom Markt verschwunden.

    Die Beweglichen Teile sind die größten Probleme bei Festplatten, daher rentiert es sich einfach nicht.

    Die Zugriffszeit wurde dadurch übrigens halbiert.


    Zitat:
    Und wenn man nen kleineren Formfaktor in das Gehäuse eines größeren Pakt, könnten ja z.B. schon 4 Lese-/Schreibköpfe untergebracht werden, evtl. sogar mehr, und ähnlich dürfte ja der Durchsatz ansteigen.
    Und die Kosten sowie die Ausfallrate. Am ende hast Du exorbitant teuren Schrott.
    0