Ihre Frage
Geschlossen

Generationswechsel: Festplatten mit 4K-Sektoren sind im Kommen

Stichwörter:
  • Komponenten
  • Business Festplatten
  • Festplatten
  • SSD
  • Storage
Letzte Antwort: in Artikel
18. Februar 2010 17:00:48

Immer mehr Festplatten schreiben Daten in Blockgrößen von 4 KB statt wie bisher 512 Bytes, um so die Netto-Speicherkapazität zu erhöhen. Wir haben die neue EARS-Serie von WD für Sie getestet und zeigen eventuelle Auswirkungen auf die Performance.

Generationswechsel: Festplatten mit 4K-Sektoren sind im Kommen : Mehr lesen

Mehr über : generationswechsel festplatten sektoren

18. Februar 2010 23:16:43

Was sehr interessant wäre, ist wie man sich bei einem Raid zu verhalten hat.
Punkte
-1
18. Februar 2010 23:16:53

Was sehr interessant wäre, ist wie man sich bei einem Raid zu verhalten hat.
Punkte
-3
Ähnliche Ressourcen
Anonymous
19. Februar 2010 10:27:46

Mir ist immer noch nicht klar, wie eine größere Platter Anzahl die Anzahl der beweglichen Teile erhöht. Sowohl die Platten als die Schreib-Leseköpfe sind doch fest verbunden und bewegen sich immer zusammen. Bei den Platten die ja mit konstanter Geschwindigkeit rotieren sollte es von der Energie einen sehr geringen Unterschied machen, eigentlich nur beim Beschleunigen, vielleicht ein bißchen durch Reibung aber ich glaube nicht, dass das viel sein wird.
Punkte
1
19. Februar 2010 10:38:12

NA ist ja eine echt glücklich gewählte Abkürzung. Dachte auf dem ersten Blick das ständ für Not Available...
Punkte
0
19. Februar 2010 10:43:25

>Die Performance-Falle
>Wenn Daten mit einer Größe von 512 Byte über zwei physische 4 KB-Blöcke

logische sektore von MEHR ALS 512 Byte ...! muss das heißen..

die WD tabelle ist auch super
und "NA" heißt normalerweise "not available"
Punkte
-1
19. Februar 2010 11:01:48

ja, meinte auch die WD Tabelle ^^
Punkte
0
19. Februar 2010 13:20:34

Schöner Test vor allem da ich mir die Platte vor 2 Wochen angeschaft habe. ;) 

Da tun sich für mich gleich ein paar Fragen auf eventuell an den Autor.

1.
im Test steht was von einer U/min von 5400.

In Produktbeschreibungen zb bei Geizhals aber das
...5400rpm-7200rpm (IntelliPower) • 64MB Cache • 8.9ms • Besonderheiten: Advanced ...

Frage was stimmt nun ?

2.
..Wenn Daten mit einer Größe von 512 Byte über zwei physische 4 KB-Blöcke..

wie können Daten mit der grösse von 512byte über zwei physische 4 kb blöcke gehen, wenn doch in jeden 4 kb block 8 512er blöcke passen ?

3.
zu der frage mit dem für den anwender nicht vorhandenen vorteils durch die schlankere verwaltung. wo ist der vorteil hin ? nutzt WD die platter nicht voll aus im vergl. zu herkömmlichen hds ? kann mir nicht vorstellen das WD für die 4kb modele andere platter verwendet (kleinere)?

4.wie sieht die performance aus wenn man die platten in physisch passenden 4kb blöcken formatiert (zb für nutzer mit grossen dateien zb audio , video)??

Ich bin mit der platte bisher zufrieden. Investiere nur noch in hardware die auch in sachen silent, und energieverbrauch akzeptabel ist.
fürs system hab ich eine ssd, und für die daten / anwendungen past diese platte ideal

Punkte
0
Anonymous
19. Februar 2010 17:45:31

In meinem persönlichen Vergleich der 1.5 TB EARS zur vorhandenen 1.5 TB Samsung F2 ist mir vorallem mal aufgefallen, daß die EARS Platte nicht schneller ist (positive Ausnahme: Blockgrößen unter 4KB werden im ATTO wesentlich beschleunigt, NTFS formatiert mit 4k Blockgröße), nicht ein MB zusätzliche Kapazität für den Käufer bleibt, und sie weder bei Temperatur noch Lautstärke echte Vorteile bietet.
Würde übrigens empfehlen das Dateisystem beim Formatieren auch an die 4K Blockgröße anzupassen, dann so kann das Problem, daß kleine Dateien über die physikalische Blockgrenze laufen erst gar nicht entstehen, und NTFS hat auch keine Probleme damit. Zusätzlich sollte man dann die ganzen Benchmarks noch einmal machen, weil vorallem Zugriffe und I/Os so bessere Werte liefern sollten. Ist doch eh klar, daß sich der Zugriff auf die hinteren "simulierten" 512er Blöcke verzögert, wenn zuerst der ganze 4k Block ausgelesen werden muss.
Punkte
1
19. Februar 2010 20:30:37

@lsfdavo23

Eben, eine Festplatte beschleunigt auch ständig und läuft nicht die ganze Zeit mit einer konstanten Drehzahl -> Energieverbrauch steigt mit zunehmenden Trägheitsmoment durch steigende Platterzahl.
Ausserdem sind die Leseköpfe bewegliche Teile und je mehr Platter, desto mehr Leseköpfe.
Punkte
0
19. Februar 2010 21:02:20

Die Green-Serie dreht nach wie vor mit 5400U/Min, das mit den 7200U/Min ist Quatsch, da wird nicht hoch/runtergereglt
Punkte
0
21. Februar 2010 18:32:07

Ich habe genau die getestete Platte in meinem Rechner, wollte sie allerdings in meinen Mediarecorder einbauen leider wird sie nicht erkannt aufgrund dieser Änderung mit den 4k sektoren. Muss ich mir wohl noch irgendwoher ne ältete 1TB FPalatte holen.
Punkte
0
22. Februar 2010 11:23:32

gibts jetzt irgendeinen vorteil?
wenn sie jetzt anstellen von 1TB z.b. 20% mehr also 1,2TB hätte, OK aber so ??
Punkte
0
23. Februar 2010 08:35:27

Immerhin hat man statt der ~ 976 GB Nettokapazität jetzt das komplette Terrabyte zur Verfügung. Ist doch auch mal was.
Punkte
-2
23. Februar 2010 09:20:45

Im ersten Moment wollte ich die Platte sofort kaufen, 110.000 MB/s Durchsatz ist ein Spitzenwert. Scheint sich aber nur um einen Fehler in der ersten Grafik zu handeln wenn man sich so den Rest des Tests anschaut ;) 
Punkte
0
23. Februar 2010 13:50:04

@Firunwulf

Was hat die Blockgröße mit der 2^n Rechnung bei Datenspeichern zu tun?

http://de.wikipedia.org/wiki/Byte

Eine mit 1TB angegebene Festplatte hat auch 1000GB bzw. 931,3GiB oder 0,909TiB.
Punkte
1
23. Februar 2010 17:18:29

noskill@Firunwulf Was hat die Blockgröße mit der 2^n Rechnung bei Datenspeichern zu tun?http://de.wikipedia.org/wiki/ByteEine mit 1TB angegebene Festplatte hat auch 1000GB bzw. 931,3GiB oder 0,909TiB.


Da hast du uneingeschränkt recht - danke auch für die korrekte Nutzung der IEC-Präfixe in diesem Kontext :) 
Punkte
0
23. Februar 2010 19:14:51

Abwarten, wie die in einem raid laufen..
Punkte
0
24. Februar 2010 06:23:02

tobeiWas sehr interessant wäre, ist wie man sich bei einem Raid zu verhalten hat.

liegt doch auf der Hand: je nach Anzahl der Platten im Raid und verwendetem Raid Modus muss ein vielfaches der 4kb als Blockgröße gewählt werden. Was allerdings nicht zu empfehlen ist da das aufgrund der größeren einzulesenden Datenmengen deutliche Einbrüche bei der Performance mit sich bringen dürfte. Kurzum diese Laufwerke sind nicht empfehlenswert wenn man einen Raid einrichten möchte, ausser man verwendet Daten mit einer sehr großen Dichte z.B. Filme o.Ä. so das diese gut in z.B. 16Kb Blöcken eingelesen werden können. Je fragmentierter die Daten sind desto mehr bricht die Performance ein.

Beispiel: ein Dateifragment von 7 Kb wird ungünstigerweise auf ein mit 512Bytes Formatiertes Raid 0 mit zwei Platten geschrieben - dabei werden die Daten vom BS so fragmentiert das jeder 512bytes Block in einem anderen Sektor liegt - jetzt muss die Platte jeweils für 512 Bytes an Daten 8KB auslesen (jeweils 4KB von jeder Platte) - was die Geschwindigkeit DEUTLICH veringert.
Punkte
0
24. Februar 2010 18:01:43

@ autor/übersetzer

den test hier rein zu "klatschen" ob selbst gemacht oder nur übersetzt und dann den tread hier nicht zu betreuen empfinde ich als mangelhaft!
Punkte
0
26. Februar 2010 10:52:21

Es sollte eine etwas eindeutigere Bezeichnung der Platten mit der neuen Blockgrösse geben, finde ich. Ich hoffe, das überall das 4 KB- Blockgrößenzeugs in der Artikelbeschreibung zu finden ist / als Warnung oder Kaufargument je nach einzusetzendem OS ^^
Ein Jumpergefrickel beim Klonen einer sterbenden HDD auf ne neue WD oder sonstigen Spaß will ich mir definitiv ersparen- es soll bei Privatkunden stabil laufen und nicht ein paar bytchen schneller, die der Office- User eh nicht mehrkt.
Punkte
0
Anonymous
28. Februar 2010 10:23:28

Ich muss hier mal ein paar Vorrednern widersprechen, die meinen durch Formatieren mit 4k-Sektoren das Problem der "überhängenden" Sektoren auch unter Windows XP von vorne herein abstellen zu können.^^
Wie im Artikel beschrieben schreibt Windows XP (Und vorherige nicht BCD-basierte OS) ab Sektor 0 den 63 Sektoren langen MBR. Danach beginnt mit Sektor 63 (der 64.Sektor) die erste Partition. Und diese Partition wird durch das Formatieren mit 4K-Blöcke (was übrigens der Standard ist) ab diesem Punkt unterteilt. Also hilft das logischerweise auch nicht, die Daten müssen immer über einen Sektorwechsel hinaus geschrieben werden. Auch alle folgenden Partitionen starten bei XP immer kurz vor einem Sektorwechsel.

Abhilfe bringt einzig und allein die erste Partition durch Tools erst bei Sektor 64 starten zu lassen, also eine Lücke von einem Sektor zu lassen. Die Windows XP-Installation lässt keine passenden Definitionen zu.

Das Problem ist grundsätzlich allerdings nicht neu. Da Windows sowieso Blockweise (mehrere Sektoren gleichzeitig) mit der Festplatte arbeitet musste so auch immer über einen Spurwechsel hinaus gelesen/geschrieben werden. Auch unabhängig von den physikalischen 4K-Sektoren gab es die Performance-Probleme ja nach Anwendungssystem. Vor allem Datenbanksysteme werden daher gerne entsprechend "angepasst".
Punkte
1
Anonymous
1. März 2010 10:09:39

wer kauft noch heutzutage mechanische Platten? :)  ich meine zum Datenstorage OK, als Backupdisk OK, aber als bootfähige Platte absolut NOGO. Ich musste kurzfristig mein Windows von einer WD Platte booten und kam mir wie im Steinzeit bezüglich Performance vor (wirklick nicht übertrieben, standartmässig Intel SSD 80G)). Es wundert mich dass diese noch weiterentwickelt werden, für mich sind mechanische Platten bereits ein end of life Produkt. Man gewöhnt sich so schnell an gute Performance..
Punkte
0
1. März 2010 10:36:27

  • Nicht jeder hat die finanziellen Mittel, seinen Office-PC mit einer SSD auszustatten
  • Deshalb wird auch nicht jeder mehr als eine Platte einbauen
  • Gute mechanische "Festplatten" sind oft schneller als ihr Ruf
  • Standarten haben standardmäßig in einem PC nichts zu suchen ;=
    Punkte
    0
    6. März 2010 21:20:08

    wie wirkt sich die alignment geschichte aus, wenn die platte in einem externen USB gehäuse stecken soll? habe ein ext. Enermax EB307ES-B Jazz USB 2.0 / eSATA Gehäuse in der die EARS 2TB fürs Backup laufen soll... (1x XP Rechner, 1x Win7 Rechner)

    mfg
    Axel
    Punkte
    0
    Anonymous
    8. Juni 2010 22:39:54

    Der Kommentar bzgl. mechanischer Platten ist in dieser pauschalen Form Käse. Das Problem bei SSDs ist, daß die Platte natürlich eine Frei/Belegt Verwaltung für ihre Sektoren/Blöcke hat (und auch Reserve-Blöcke vorhält), allerdings weiß sie nichts über das Dateisystem, das aufgespielt wird. Einmal beschriebene Blöcke kann sie also selbständig nicht mehr freigeben, um sie dann im Hintergrund irgendwann zu löschen, wenn keine Aufträge anstehen. SSDs machen daher nur Sinn mit Betriebssystemen, die "ATA Trim", also eine Freigabe nicht mehr benutzer Blöcke durch das Betriebssystem selbst, unterstützen. Ansonsten wird - was ja auch in namhaften Magazinen immer wieder bestätigt wird - die SSD mit der Zeit (und steigendem Füllgrad) immer langsamer, weil bereits belegte Blöcke erst dann gelöscht werden können, wenn sie explizit überschrieben werden sollen - solange noch genug unbenutzte und vor allem gelöschte Blöcke da sind, kann die SSD dann auf einen unbenutzten Block schreiben, den damit freigewordenen Block in ihrer Verwaltung freigeben und dann irgendwann löschen! Aber wie gesagt, wenn man eine SSD mal vollgeschrieben hat, wird sie ohne spezielle Unterstützung durch das Betriebssystem eben langsam.

    Zum Thema RAID: Bei größeren RAIDs wird ohnehin meist auch mit größeren Chunks gearbeitet (z. B. 32KB oder 128KB). Man muß also lediglich darauf achten, daß diese Chunks auf die 4KB-Blöcke ausgerichtet sind. Was allerdings nicht immer ganz einfach ist, weil nicht bekannt ist, wo die RAID-Software (egal, ob Windows, Linux oder die Firmware auf einem Hardware-Controller) ihre Metadaten ablegt (bei Linux kann das je nach Version der Metadaten am Anfang oder Ende der Partition sein). Solange diese Information nicht bekannt ist, macht es Sinn, mit größeren Chunks und entsprechend angepaßten Blockgrößen im Dateisystem zu arbeiten. Unter Linux kann man dem Dateisystem die Chunk-Größe auch mitteilen.

    So läßt sich die Performance auch bei RAID optimieren. Allerdings erfordert das dann halt etwas intimere Kenntnisse.

    Gruß,
    Torsten
    Punkte
    0
    9. Juni 2010 15:09:32

    Ganz perfekt auf die soooo schnellen SSD's zu setzen. Halt ganz cool, wenn ich mal ein Backup von meinen rund 5TB (DVD backups, Rohvideos von meiner DV Camera, Software und Fotos) machen möchte. Wenn mir jemand noch einen heissen Draht zum einem guten Sponsor verraten könnte, um eine kleine Spende für dies Vorhaben arrangieren zu können. Oder vieleicht der Autor selbst ... ? Bis dahin bleibe ich doch lieber bei dem "alten Eisen" und warte, bis gewisser Acronis WD Align Tool mir die Blöcke umgeschaufellt hat.
    ...
    Apropos, die preiswerteren SSD's sind heutzutage z.B. die mit 30-50 GB. So, für die 5TB müsste ich mind. 100 solche einbauen. Da die günstigeren an die 150 Euro kosten, dann 5TB mit diesen würde ich mindestens 15000 Euro auf die Fläche legen müssen!!! Und ein Gehäuse für 100 SSD's zu arrangieren mit entsprechenden Kraftwerk um das ganze mit Strom zu füttern. Da bleibe ich lieber bei 3 Stück 1,5 TB Platten die zusammen unter 500 Euro zu kriegen sind.

    Ach ja, diese Enthusiasten, die Friedhöfe sind voll mit solchen.
    Tschüss,
    Feri
    Punkte
    0
    9. Juni 2010 15:10:17

    Ganz perfekt auf die soooo schnellen SSD's zu setzen. Halt ganz cool, wenn ich mal ein Backup von meinen rund 5TB (DVD backups, Rohvideos von meiner DV Camera, Software und Fotos) machen möchte. Wenn mir jemand noch einen heissen Draht zum einem guten Sponsor verraten könnte, um eine kleine Spende für dies Vorhaben arrangieren zu können. Oder vieleicht der Autor selbst ... ? Bis dahin bleibe ich doch lieber bei dem "alten Eisen" und warte, bis gewisser Acronis WD Align Tool mir die Blöcke umgeschaufellt hat.
    ...
    Apropos, die preiswerteren SSD's sind heutzutage z.B. die mit 30-50 GB. So, für die 5TB müsste ich mind. 100 solche einbauen. Da die günstigeren an die 150 Euro kosten, dann 5TB mit diesen würde ich mindestens 15000 Euro auf die Fläche legen müssen!!! Und ein Gehäuse für 100 SSD's zu arrangieren mit entsprechenden Kraftwerk um das ganze mit Strom zu füttern. Da bleibe ich lieber bei 3 Stück 1,5 TB Platten die zusammen unter 500 Euro zu kriegen sind.

    Ach ja, diese Enthusiasten, die Friedhöfe sind voll mit solchen.
    Tschüss,
    Feri
    Punkte
    0
    9. Juni 2010 15:10:30

    Ganz perfekt auf die soooo schnellen SSD's zu setzen. Halt ganz cool, wenn ich mal ein Backup von meinen rund 5TB (DVD backups, Rohvideos von meiner DV Camera, Software und Fotos) machen möchte. Wenn mir jemand noch einen heissen Draht zum einem guten Sponsor verraten könnte, um eine kleine Spende für dies Vorhaben arrangieren zu können. Oder vieleicht der Autor selbst ... ? Bis dahin bleibe ich doch lieber bei dem "alten Eisen" und warte, bis gewisser Acronis WD Align Tool mir die Blöcke umgeschaufellt hat.
    ...
    Apropos, die preiswerteren SSD's sind heutzutage z.B. die mit 30-50 GB. So, für die 5TB müsste ich mind. 100 solche einbauen. Da die günstigeren an die 150 Euro kosten, dann 5TB mit diesen würde ich mindestens 15000 Euro auf die Fläche legen müssen!!! Und ein Gehäuse für 100 SSD's zu arrangieren mit entsprechenden Kraftwerk um das ganze mit Strom zu füttern. Da bleibe ich lieber bei 3 Stück 1,5 TB Platten die zusammen unter 500 Euro zu kriegen sind.

    Ach ja, diese Enthusiasten, die Friedhöfe sind voll mit solchen.
    Tschüss,
    Feri
    Punkte
    0
    10. Juni 2010 08:00:40

    Davon, dass Du es uns dreimal ins Gehirn hämmern möchtest, wird es auch nicht besser. ;) 
    Punkte
    0