Festplatten aufräumen, sortieren, zusammenführen?

kybero

Member
Themenstarter
Registriert
14 Dez. 2011
Beiträge
528
ich habe alte 15 Festplatten mit zum Teil massenhaft Duplikaten, Sicherungsversionen. Kann ich die Platten von 1 bis 15 nummerieren, dann an ein Tool anschließen und dann Schrittweise auf mehreren neuen Festplatten die Daten zusammen führen? Also ein Tool dass Übersichten über die Ordnerstruktur, die Ordnergrößen und die Anzahl der darin befindlichen Dateien anlegt und mir Schritt für Schritt zeigt wie ich die Duplikate an neuen Orten zusammen führen kann?
 
git-annex könnte dir helfen, braucht aber viel Einarbeitung, ich benutze es nicht wirklich.

Eine große Platte kaufen, alle daten draufkopieren, dann duplicate durch symlinks ersetzen.

Strukturieren / ausmisten musst du die Daten aber manuell, hab selber noch sowas vor mir [:schauder:]
 
Ich würde
1) auf jeder Platte erst mal ordentlich löschen
2) Die Platte mit dem meisten freien Platz anschließen, sukzessive von einer weiteren draufkopieren und dabei nach Duplikaten suchen. Dafür gibt es Software. (vgl dir1/dir2)
3) wiederhole Schritt 2 mit den restlichen Platten.

Ist natürlich Aufwand, das Aussortieren musst letzten Endes aber Du entscheiden.
 
Du kann mit Alldup alle gleichen finden lassen. Bei der Menge an Files dauert das natürlich etwas. Danach kannst entscheiden, was du mit den Duplikaten machen willst. Das Toll lässt sich auch vielfältig konfigurieren und ist für privat kostenlos.

Grüße Thomas
 
Als XTG dino nutze ich Ztreewin dafür, (kostenpflichtig nach 31 trial), das kann alle erreichbaren LW(inkl Netzwerk etc) einlesen,
mit wenigen shortcuts Dupli-/Unikate (name/grösse/datum bis hin zum binärvergleich) markieren und inkl Pfad kopieren.
Wer allerdings die Befehlsoptionen und deren shortcuts nicht verinnerlicht hat dürfte ein vielfaches länger brauchen als xtg oldies.
 
Ich bezweifle das so ein Tool alle Duplikate genau richtig finden kann. Wenn ich nämlich zwei gleich große Dateien hab mit unterschiedlichem Inhalt ist schon Feierabend. Da muss so ein Tool Bit für Bit vergleichen und ob das so arbeitet bezweifle ist. Ich erledige so etwas mit Beyond Compare. So ein Tool ist ein muss wenn man mehrere HDDs syncen will. Ich habe vor kurzem fast 3TB Bit für Bit vergleichen lassen, das dauerte 2 Tage.
 
Es gibt ne Menge dedup Tools bei Dateien gleicher Größe werden hashes erstellt und verglichen
 
Um 2 files mit unterschiedlichem Inhalt bei identischer Grösse und nicht zuletzt identischem Erstelldatum, letzter Anderung etc zu erhalten
bedarf es zu 99,99% nen hex editor, wie den in XTG/ZTW, der erlaubt den timestamp beizubehalten, oder der Änderung desselben nach edit durch user.

btw ztw führt den binärvergleich wenn angewählt nicht bei jeder Datei durch,
erst wenn alle anderen Vergleichsparameter identisch sind, d.h. 2 Tg wären idR nicht zu erwarten
 
Ich würde einen anderen Ansatz verfolgen:

Mit VVV (Virtual Volume View) - gibts für Linux und Win - kannst du die Festplatten einmal alle nacheinander eindstecken und einlesen (am besten dabei gleich labeln).

Nach dem einlesen kannst du ein Image von den Metadaten ziehen, sprich Ordner- und Dateistruktur, Dateinamen, Größe u.v.w. Attribute. Ein Image bzw Abbild nimmt je nachdem wie voll die Festplatte ist zwischen 20 und 120 MB plus/minus und die kannst du dann allesamt ohne angeschlossenen Datenträger browsen wie im Explorer.

So kannst du identische Ordner gleich markieren und sehen ob du größere identische Blöcke hast. Das geschieht zwar händisch, ist aber gut für eine erste Sichtung. Im zweiten schritt würd ich dann mit auf Duplikate spezialisierten Programmen feinarbeiten.

Ich würd parallel mit Filelight (Linux) oder WinDirStat (Win) eine Übersicht der Ordner erzeugen
 
Zuletzt bearbeitet:
Ich traue nichts anderem als Bit für Bit Vergleich. Schon seit ich denken kann überprüfe ich die Daten nach dem kopieren so.
 
Nimm die neue Platte und kopiere Platte für Platte alles was du brauchst rüber und sortiere ggf. etwas aus
Und in 6 Monaten suchst Du vergeblich die eine Datei, in der Du vor 5 Jahren xxx geschrieben hattest und im August 2025 "aussortiert wurde.

Derartiges ist mit schon mehrmals passiert, hatte aber das Glück, dass ich meine alten ThinkPads, die durch ein neueres ersetzt wurden, im letzten Zustand behalten hatte und so auch schon 15 Jahre alte Dateien von meinem T41p oder X61s retten konnte, die auf dem jeweiligen Nachfolgemodell als Duplikat "ausgefiltert" worden waren, und daher auf dem X200 oder dessen Nachfolger X220 fehlten.

Also lieber lange, dafür gründlich suchen und ggf. sogar nach manuellem Datei-Inhaltsvergleich entsorgen. Hashes von Dateien helfen auf jeden Fall, Duplikate zu finden.
 
Zuletzt bearbeitet:
Klar, solange die Informationen nicht "verfallen". Auf magnetischen Datenträgern sind sie auch nur begrenzt haltbar, auf HDD vermutlich sogar länger, als auf SSD. Sie müssten also alle paar Jahre umkopiert werden, was bei zunehmender Anzahl Datenträger immer mehr Aufwand bedeutet. - Auch darum macht ein Duplikate rauswerfen für den Anfang durchaus Sinn.
 
Bevor hier jeder seine Erfahrungen teilt, gehen wir nochmal Schritt für Schritt die Bedürfnisse des TS durch:

Zuallererst: auf wieviel TB kommen denn alle 15 Datenträger zusammen gerechnet.

Daran anschließend wäre die Folgefrage
und dann Schrittweise auf mehreren neuen Festplatten die Daten zusammen führen
Wieviele neue Platten mit wieviel Kapazität hast du konkret gedacht? Außerdem wie möchtest du nach dem ganzen Umzug auf deine Daten zugreifen? Auch wichtig zu wissen wäre auf welchem OS du das ganze Vorhaben umzusetzen gedenkst? Wenn du diese Fragen für dich konkret beantworten kannst, kannst du die für dich beste Methode besser umsetzen.

Also ein Tool dass Übersichten über die Ordnerstruktur, die Ordnergrößen und die Anzahl der darin befindlichen Dateien anlegt
Das macht VVV z.b. richtig fein, weshalb ich weiter oben schrieb, dass es sich bestens für ne erste Sichtung deiner abgelegten Daten eignet, denn

und mir Schritt für Schritt zeigt wie ich die Duplikate an neuen Orten zusammen führen kann
das hier, ist der komplizierteste Weg (mit etlichen Nebenpfaden) der sich wie bei den bisherigen Beiträgen zeigt auf vielfache Weise realisieren lässt.
 
Ich würde
1) auf jeder Platte erst mal ordentlich löschen
2) Die Platte mit dem meisten freien Platz anschließen, sukzessive von einer weiteren draufkopieren und dabei nach Duplikaten suchen. Dafür gibt es Software. (vgl dir1/dir2)
3) wiederhole Schritt 2 mit den restlichen Platten.

Ist natürlich Aufwand, das Aussortieren musst letzten Endes aber Du entscheiden.
Ist der naive Ansatz und würde ich auch so machen. Ich würde allerdings nach 1) den Inhalt einer beliebigen Platte auf eine SSD kopieren und die dann als Basis nehmen - das erhöht im Folgenden dann die Geschwindigkeit enorm.
 
In der ganzen Zeit hätte mensch sich schon die features von ZTW und ihre shortcuts drauftun können,
was nicht nur beim spezifischen task sondern allen so anfallenden Dateioperation etc deutlich Zeit spart
womit sich die Kosten bei Erwerb des progs schnell amortisieren würden.

Optional auf die Version 1.74 beschränken welche noch den timestamp des installs in der datei osztw.fs in c::\ speichert,
welche sich nach Entfernen der r,s,h Attribute mit Hilfe des [*] platzhalers über ein batchfile löschen lässt.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben