Pierre
Vielleicht bin ich nur blind, aber wo kann man Dateisysteme defragmentieren? Ich habe bisher nirgends einen Hinweis darauf gefunden. ReiserFS ist zwar toll, aber daß es nicht fragmentiert glaube ich nicht 😃
FJO
Ob es für ReiserFS so was überhaupt gibt weiß ich nicht. Fragmentierung ist bei dem Dateisystem aber wohl wirklich kein Problem. Für ext2 gibt es ein Defragmentierungsprogramm, jedoch wird das schonb länger nicht mehr gewartet und man sollte es besser nicht verwenden.
Pierre
Naja, aber eigentlich bleibt Fragmenteirung doch nicht aus, wenn man Daten löscht etc.. Da entstehen doch immer "Lücken".
[gelöscht]
Hallo
IMHO ist Fragmentierung unter Dateisystemen wie ext2/3 und Reiser kein Problem. Die interne Organisation ist einfach anders.
Hierzu gibt es auf den Reiser-Seiten ein readme und für ext auch irgendwo.
Bei jedem booten wird die Fragmentierung angezeigit. Non-continuous x %.
Hab das noch nie über 10% gesehen. Also kein Grund in Aktionismus zu verfallen. Sowas ist was für windoof Nutzer.
gruss
[gelöscht]
Der hier gepostet Text stammt von Suse und bezieht sich (da schon etwas älter) auf ext2, aber es verhält sich auf ext3 und reiserfs ähnlich!
Defrag bringt nix, denn nach der Fragmentierung wird das Dateisystem sehr schnell wieder einen fuer die Nutzungsweise des Dateisystems charakteristischen Fragmentierungslevel anstreben und dann dort verweilen.
Ausserdem spielt die Laenge der Fragmente eine Rolle. Linux verwendet kernelintern ein Readahead von 16 Blocks. Das bedeutet: Wenn eine Datei sequentiell durchgelesen wird (weit ueber 95% alle Lesezugriffe!), liest Linux bis zu 16 Bloecks am Stueck voraus, um den kernelinternen Cache vorzugluehen, in der Hoffnung, dass diese Bloecke gleich von dem betreffenden Programm verlangt werden.
Wenn die Fragmente also groesser als 16 Bloecke sind (die meisten sind das, siehe unten), dann ist es letztendlich egal, ob die Datei fragmentiert ist oder nicht, weil der Seek in den Readaheads untergeht. Nur Fragmente, die kleiner sind als 16 Bloecke wirken sich wirklich schaedlich auf die Leseperformance aus.
Das ext2-Dateisystem schreibt Dateien nun auch mit einer Art writeahead, aeh, mit Preallocation. Wenn Du in einem ext2-Dateisystem einen Block schreibst, belegt das Dateisystem gleich bis zu 7 weitere Bloecke in Folge fuer diese Datei. Zwei konkurrierende Schreibzugriffe in einem Verzeichnis wuerden also nicht Bloecke der Form
121212121212
anordnen, sondern eine Blockfolge
1ppppppp2qqqqqqq
erzeugen, wobei jeweils 1 und 2 geschriebene Bloecke der Dateien 1 und 2 sind und p und q fuer 1 bzw. 2 vorbestellte Bloecke sind. Werden 1 und 2 konkurrierend verlaengert, entsteht so
11111111222222221ppppppp2qqqqqqqq
und so weiter. Auf diese Weise wird die schaedliche (kleine) Fragmentierung weitestgehend vermieden. Das ganze Verfahren ist eine Verallgemeinerung des Fragment/Block-Verfahrens des BSD Fast Filing Systems.
Ausserdem muss man als Anwender auf einem Multitaskingsystem auch noch zwischen Performance und Durchsatz unterscheiden: Performance ist das, was ein Anwender mit einem einzelnen Prozess maximal aus der Platte an MB/sec rauslutschen kann. Durchsatz ist das, was die Platte ueber alle Anwender und Prozesse gerechnet an MB/sec ausspuckt.
In Multitasking-Systemen ist der Durchsatz oft sehr viel groesser als die Performance. Linux hat Algorithmen, die den Durchsatz, nicht die Performance des System erhoehen. Zum Beispiel werden Zugriffe auf die Festplatte, die in der Wait Queue der Disk stehen, nach Blocknummern aufsteigend sortiert. Mit einem Saegezahn-Algorithmus klettert der Kopf der Platte zu den hohen Blocknummern und serviced die Requests, um dann in einem long seek nach unten zu zucken und die naechste Runde zu drehen. (Nein, das ist nicht ganz der Fahrstuhl-Algorithmus: Mit dem waren die Latenzen/Service Times zu hoch und der Algorithmus ist nicht fair). Ausserdem werden aufeinanderfolgende Requests fuer denselben Prozess von Linux zu einem Request groesserer Groesse zusammengefasst (geclustert).
Durch eine solche Sortierung erfolgen die Lesezugriffe nicht in der Reihenfolge und mit der Groesse, die der Prozess ausgegeben hat, sondern in der Reihenfolge und mit einer Groesse, die der Platte genehm ist. Auf diese Weise werden die Effekte von grosser Fragmentierung weitgehend ueberdeckt - nur kleine Fragmente wirken sich schaedlich auf den Durchsatz auf.
Und zum Schluss liegt ueber all diesem auch noch der Buffer Cache des Betriebssystems, d.h. beim zweiten Leseversuch kommt sowieso alles aus dem Ram und die Anordnung der Daten auf der Platte ist vollkommen schnurz.
Defragmentierung ist Zeitverschwendung.