Dateifragmentierung unter Linux

padinc

Active member
Registriert
3 März 2015
Beiträge
1.456
Versucht man etwas über dieses Thema heraus zu finden stößt man immer schnell auf eine Wand aus "gibts nicht, ist kein Thema unter Linux". Deshalb bitte hier nicht noch mehr davon.
Das kann nicht die ganze Wahrheit sein. Ein Beispiel:
Ich habe hier von einem Kollegen Daten auf einer Platte, Dateisystem ist ext4. Ein Haufen ASCII files, jedes ~77MB groß. Der Versuch diese Daten zu verschieben oder zu archivieren läuft mit ~1.4MB/s ab. Die Festplatte ist nicht defekt, andere Daten verschiebt sie mit locker über 100MB/s.
filefrag ergibt für eine dieser Dateien: monitor_point_400: 19556 extents found
Lese ich das richtig dass diese Datei nahezu maximale Fragmentierung in 4KB-Blöcke aufweist?
Wenn ich einige dieser Dateien woanders hin kopiere und dann wieder zurück läuft es zurück deutlich flotter. Und filefrag listet nur noch 4 "extents" für unsere Beispieldatei.

Was mich zu meiner Frage bringt: Wie lässt sich unter Linux die Fragmentierung verhindern und gibt es eine effektivere Möglichkeit Fragmentierung zu reduzieren als die Daten lange hin- und her zu kopieren. Denn gerade der erste Kopiervorgang dauert verdammt lange und genau das stört mich.
 
Zuletzt bearbeitet:
Ein tool das gezielt innerhalb einer Datei umsortiert ist mir für Linuxdateisysteme nicht bekannt.

Vor langer Zeit habe ich mal shake verwendet.
Das sucht die am stärksten fragmentierte Datei und kopiert diese in der Hoffnung, dass die neue Kopie weniger fragmentiert ist.
Dies wird solange wiederholt bis die gewünschte max anzahl an Fragmenten erreicht ist oder keine Verbesserung mehr eintritt.
 
Schon mal e4defrag versucht?

Durch die Extents fragmentiert ext4 tatsächlich kaum bis nicht, solange etwas Speicher frei ist.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben