FESTPLATTEN



FESTPLATTEN

Art der Arbeit: Referat

Festplatten
Aufbau:
Ein Spindelmotor dreht doppelseitig beschichtete Aluminiumscheiben (früher Glas) mit bis zu 12000 U/m. Über und unter jeder Scheibe ist ein Schreib-/Lesekopf. Diese sind mechanisch miteinander verbunden und werden mit einem Schrittmotor Positioniert. Das Schreiben und Lesen funktioniert so ähnlich wie bei Disketten und Tonbändern. Durch die schnelle Rotation entsteht ein Luftstrom, der die Köpfe von der Oberfläche fernhält. Jedes Aufsetzen, z.B. durch Erschütterung oder Staub, würde die Magnetschicht beschädigen (Head Crash). Deshalb darf ein laufender Computer möglichst nicht bewegt und eine Festplatte niemals geöffnet werden. Ein Fingerabdruck oder Staubkorn wäre schon ein Hindernis für die Köpfe. Einige moderne Festplatten, besonders Laptopfestplatten, setzen Schutzmechanismen ein, die bei Erschütterung die Köpfe auf einen Zylinder bringen, der nicht für Daten benutzt wird. Das selbe machen alle neueren Festplatten beim Ausschalten, um Transportschäden zu vermeiden (parken). Dazu wird die kinetische Energie der rotierenden Scheiben vom Spindelmotor in elektische umgewandelt.

Funktionsweise:
Die Scheiben sind in Spuren unterteilt, diese in Sektoren. Am Anfang jedes Sektors steht seine genaue Adresse ("ID-Header"), also Zylinder-, Kopf-, Spur- und Sektornummer. Als Zylinder bezeichnet man alle Spuren, die auf den verschieden Ebenen übereinander sind. Soll ein Sektor gelesen werden, wird der Zylinder angesteuert und gleichzeitig der richte Kopf ausgewählt. Dann wird die Spur solange kontinuierlich gelesen, bis der gesuchte ID-Header vorbeikommt, und der darauf folgende Sektor wird übertragen. Auch beim Schreiben werden die Sektoren durch das Lesen der dazugehörigen Ids gesucht und erkannt. Eigentlich würde die Sektornummer als ID reichen. Die komplette Adresse ist eine Sicherheitsvorkehrung, damit bei einer Funktionstörung trotzdem der richtige Sektor gefunden wird.

Interleaving:
Wenn zwei Sektoren gelesen werden sollen, muß der Controller für die Bearbeitung des zweiten Sektors die des ersten abgeschlossen haben. Kommt der zweite Sektor am Lesekopf vorbei, bevor der Controller danach sucht, muß eine volle Umdrehung gewartet werden, bis er gelesen werden kann. Deshalb sind zwei Sektoren, die nacheinander kommen, nicht direkt nebeneinander auf der Spur. Zwischen ihnen sind andere Sektoren. Typisch ist z.B. ein Interleavefaktor von 3:1. Das bedeutet, daß zwischen zwei zusammengehörenden Sektoren zwei Sektoren sind, die eigentlich viel später kommen. Die vom Controller benötigte Zeit, um den nächsten Sektor lesen zu können, ist dann kürzer als die Zeit, die der Lesekopf benötigt, um ihn zu erreichen. So ist eine schnellere Datenübertragung möglch.

Datenübertragungsrate:
Die innere Übertragungsrate hängt davon ab, wie schnell sich die Platten drehen, und wie viele Sektoren auf der aktuellen Spur sind. Die absolute Übertragungsrate wird noch von dem Cache und der Schnittstelle beeinflußt. Festplatten ab 7200U/m sollten mit einem Lüfter gekühlt werden.

Zugriffszeit:
Die vom Hersteller angegebene Zugriffszeit besagt, wie lange es dauert, die Köpfe von der aktuellen Position zu einem zufällig ausgewählten Zylinder zu bringen. Da die Zugriffszeit von der Position der Köpfe und des gesuchten Zylinders abhängt, bezieht man sich auf einen Durchschnittswert. Dieser entspricht etwa einem Drittel der Zeit, die gebraucht wird, um von dem ersten zum letzten Zylinder zu kommen. Neue Festplatten haben eine mittlere Zugriffzeit von 5 (Cheetah) bis 10 ms. Für den Anwender kommt noch die Zeit dazu, die es dauert, bis der richtige Sektor am Lesekopf vorbeikommt.


MTBF: (Mean Time Between Failures)
Gibt an, wie lange die Festplatte durchschnittlich fehlerfrei läuft. Die MTBF ist nur ein theoretischer Wert der nicht gemessen wird, da sonst eine Festplatte veraltet wäre, bevor sie auf dem Markt kommt. Wenn man sich eine Festplatte kauft, ist der Wert irrelevant, weil er nichts über die tatsächliche Lebensdauer der einen Festplatte aussagt. Er ist lediglich bei Großrechnern mit sehr vielen Festplatten wichtig, da man dann kalkulieren kann, wie oft ein Defekt auftritt.

Low-Level-Formatierung:
Die LLF wird bereits vom Hersteller vorgenommen. Dabei wird die Oberfläche auf defekte Sektoren untersucht, und die ID-Header werden geschrieben. So wird immer der optimale Interleavefaktor benutzt. Die ID-Header werden beim normalen Gebrauch der Festplatte nie neu geschrieben. Durch die Magnetfelder von Geräten und der Motoren der Festplatte und durch den natürlichen Verlust des Magnetismus sind sie irgendwann nicht mehr lesbar, so daß die Low-Level-Formatierung wiederholt werden muß. Dafür dürfen nur die entsprechenden Programme des Herstellers benutzt werden. Alte Rechner haben dafür eine Option im Bios Setup, die aber nicht für IDE Festplatten geeignet ist. Da die ID-Header so nicht geschrieben werden können, besteht die Gefahr, daß alle Sektoren als defekt markiert werden. Wenn man Pech hat, kann die Festplatte nur vom Hersteller repariert werden.

High-Level-Formatierung:
Bei der HLF wird die Oberfläche nochmal geprüft, außerden wird die Verzeichnisstruktur sowie die FAT (File Allocation Table, Dateizuordnungstabelle) angelegt. Bei Disketten werden immer beide Formatierungen durchgeführt.

Cluster:
Da die Festplatten schneller weiter entwickelt wurden als die Betriebssysteme, hatten sie mehr Sektoren, als adressiert werden konnten. Um trotzdem die volle Kapazität nutzen zu können, wurden mehrere Sektoren zu Clustern zusammengefaßt. Das hat den Nachteil, daß der Rest eines teilweise belegten Clusters nicht benutzt werden kann. Enthält die Festplatte viele kleine Dateien, entsteht ein großer Verschnitt, also Kapazitätsverlust. Abhilfe: Partitionierung der Festplatte, also aufteilung in mehrere logische Laufwerke, oder ein Betriebssystem mit einem 32 Bit Dateisystem wie Windows 95b oder neuer.

Fragmentierung:
Die Außeren Spuren haben einen größeren Umfang, deshalb sind dort mehr Sektoren auf einer Spur. Da die Drehzahl der Festplatte konstant ist, ist außen eine schnellere Datenübertragung möglich. DOS (also auch Windows) belegt beim Schreiben als erstes auf äußeren Zylindern frei gewordene Cluster, um eine möglichst hohe Performance zu erreichen. Past eine Datei aber nicht in die Lücke, muß der Rest woanders auf dem Zylinder untergebracht werden, im ungünstigstem Fall auf einem anderen Zylinder. Soll die Datei gelesen werden, sind so längere Wartezeiten nötig. Betroffen sind besonders große Dateien, die oft geändert werden. Wegen der langsam fortschreitenden Fragmentierung fällt der Geschwindigkeitsverlust oft erst sehr spät auf. Deshalb sollte man regelmäßig ein Programm wie Defrag (Windows) oder besser Speed Disk (Norton Utilities) einsetzen, das die Dateien so anordnet, daß sie möglichst schnell übertragen werden können. Die Optimierung läuft in drei Schritten ab: 1. Reorganisation des Inhaltsverzeichnisses 2. Reorganisation der Zuordnungstabelle 3. Reorganisation der Cluster. Die Zusammenfügung der Dateiteile ist aber nicht ganz ungefährlich: Die Cluster werden so lange vertauscht, bis alle Dateien zusammenhängend auf der Festplatte sind. Treten dabei Fehler auf, z.B. durch Bugs, Stromausfall oder Hardwarefehler, können Daten verloren gehen. Daher ist es bei wichtigen Daten besser, ein Backup durchzuführen und zurück auf die Festplatte zu übertragen, wobei die Dateianordnung komplett erneuert wird.

Fehlerkorrektur:
Die Oberflächen von Festplatten weisen herstellungsbedingt Beschädigungen auf, bei dem Betrieb können noch welche dazu kommen. Deshalb besitzen Festplatten ein in den Controller integiertes Fehlererkorrekturverfahren wie den ECC (Error Correction Code) von IBM, der es erlaubt, bis zu 11 nebeneinander liegende,defekte Datenbits zu rekonstruieren. Tragisch ist, daß diese Daten nicht zur Korrektur des Fehles benutzt werden, weil DOS/Windows die Forderungen des Controllers und des S.M.A.R.T. Systems ignoriert. Weitere Fehlerquelle sind die Alterung der Low-Level-Formatierung und die Mechanik. Es handelt sich dabei um hochempfindliche Bauteile, die Verschleiß, Temperaturschwankungen und Toleranzen bei der Herstellung unterliegen. Diese können sich im Laufe der Jahre zu erheblichen Abweichungen von der eigentlichen Spur aufsummieren. Das ist für die Daten weniger tragisch, da diese immer wieder aufgefrischt werden. Nicht jedoch die ID-Header. Ist die Abweichung zu groß, können deshalb die Sektoren nicht gefunden werden. Außerdem kann ein Oberflächenfehler, der ursprünglich zwischen zwei Spuren war und so nicht markiert wurde, in eine Spur gelangen und Daten gefährden.

RAID: (Redundant Array of Inexpensive Discs, informationsüberladene Anordnung von billigen Festplatten)
Die wichtigsten Raidlevel sind 0 und 1. Bei Level 0 (eigentlich kein redundantes System) werden die Daten blockweise auf mehrere Festplatten verteilt (Stripe Set). Dadurch werden dauerhaft hohe übertragungsraten erreicht, z.B. über 60 MB/s bei dem Raidcontroller Promise FastTrak UDMA66 Raid mit 4X Seagate Barracuda IDE. Bei Level 1 wird die Datensicherheit erhöht, indem mehrere Festplatten die selben Daten speichern. Fällt eine aus, stehen die Daten noch auf der anderen zur Verfügung. Sehr schnell und sicher ist die Kombination von Level 0 und 1, deshalb arbeiten Server oft so. Möglich ist auch ein Stripe Set mit Paritätslaufwerken, so daß bei einem Defekt die Daten rekonstruiert werden können.

AV (Audio/Video) Festplatten:
Festplatten führen regelmäßig eine thermische Kalibrierung durch. Dabei werden die Köpfe eingefahren und neu positioniert. Das ist nötig, weil sonst wegen der Erwärmung und der damit verbundenen Ausdehnung der Bauteile die Köpfe nicht exakt in der Spur bleiben. AV Festplatten führen die Kalibrierung durch, wenn sie nichts zu tun haben. Die Fertigung solcher Festplatten muß präziser sein und ist daher teurer. Dafür wird der Datenstrom nicht unterbrochen. Die Spitzenmodelle können alle Köpfe unabhängig voneinander bewegen. Wenn das von der Software geschickt genutzt wird, ist die Zugriffszeit nahezu 0.

SSDs: (Solid State Disc)
Festplattenähnliche Geräte, die die Daten in einem Verbund von DRAM Modulen ablegen. Da das ein flüchtiger Speicher ist, werden die Daten während des Betriebs permanent auf eine "richtige" Festplatte gesichert. Batterien halten das System nach dem Ausschalten lauffähig, bis alle Daten gesichert sind. SSDs werden wie normale Festplatten benutzt, es werden keine speziellen Treiber benötigt. Geräte der Rushmore-Serie sind modular aufgebaut und können durch Einbau weiterer DRAM Module bis zu einer Kapazität von 3,6 GB erweitert werden. Vorteil: Extrem kurze mittlere Zugriffszeit von 165 Mikrosekunden und hohe Übertragungsrate (Der Flaschenhals ist der SCSI Bus). Im Vergleich zu normalen Festplatten ist die Übertragungsrate konstant, das Absinken bei den inneren Zylindern bleibt aus. Der einzige Nachteil ist der hohe Preis von z.B. 16000,- Mark für 536 MB.





Schnittstellen:
1. SCSI: ([SKASI] Small Computer System Interface)
SCSI ist die schnellste Festplatten schnittstelle. Eigentlich ist es kein Interface, sondern ein Bus. Die volle Schnittstellengeschwindigkeit von 160 MB/s (Ultra 3 Wide SCSI) erreicht eine Festplatte wie bei allen anderen Schnittstellen nur, wenn die angeforderten Daten bereits im Cache (Zwischenspeicher zur Beschleunigung der Festplatte) sind. Traditionell haben SCSI Festplatten eine kürzere Zugriffszeit als IDE Festplatten, der Geschwindigkeitsvorteil bei der Übertragungsrate wird immer kleiner. SCSI wird besonders in High End Computern und Servern benutzt, wo die Kosten nur eine untergeordnete Rolle spielen. Alle SCSI Geräte sind zueinander kompatibel. Leistungseinbußen sind nur zu befürchten, wenn ein Gerät einen höheren Standard unterstützt als der Hostadapter, oder wenn der Bus gesättigt ist. Das passiert aber nur, wenn viele schnelle Geräte gleichzeitig Daten übertragen. Die CPU und Resourcenbelastung ist gering, da der Hostadapter sich um die Datenübertragung kümmert und eigene Adressen vergibt. Die meisten Geräte sind nur gegen Aufpreis auch als SCSI Version verfügbar und ein hochwertiger Hostadapter ist relativ teuer. Deshalb lohnt sich SCSI z.B. nicht für Spieler oder Office- anwendungen. Wenn schon ein Hostadapter vorhanden ist, sollte man SCSI Geräte generell vorziehen.
2. IDE: (Integrated Drive Electronic)
IDE Festplatten sind nicht ganz so schnell wie die SCSI Kollegen, dafür aber erheblich billiger. Die Preise sind bei etwa 1,5-2 Pf/MB. Bei PIO regelt die CPU die Datenübertragung. Mit dem Protokoll Ultra DMA (Direct Memory Acces) sind auch Zugriffe auf IDE Festplatten ohne hohe CPU Belastung möglich. Die höchste Schnittstellengeschwindigkeit liegt bei ca. 33 MB/s bei PIO Mode 4 (Programmed Input/Output) bzw. 66 MB/s bei Ultra DMA 66. Als die Barracuda (eigentlich eine SCSI Festplatte) auch mit IDE Schnittstelle und IDE-Raid-Controller erschienen, wurden auch bei begrenztem Budget hohe Übertragungsraten möglich. Für den Heimanwender sind IDE Festplatten die beste Wahl.

3. USB: (Universal Serial Bus)
USB Festplatten eignen sich gut dafür, Daten zwischen mehreren Computern auszutauschen, allerdings sind durch die Schnittstelle bedingt extrem langsam. Ein weitere Nachteil ist, daß der USB erst funktioniert, wenn das Betriebssystem geladen ist. Eine USB Festplatte funktioniert deshalb nicht als einzige Festplatte eines Computers.