[gelöst] 2TB HDD Daten - defragmentieren und kopieren

xsid

Active member
Registriert
29 Mai 2007
Beiträge
4.621
Hallo Forum,

wie kopiere ich die Daten einer 2TB HDD am schnellsten auf eine zweite 2TB HDD?
Die sollen auf der zweiten HDD nicht mehr fragmentiert sein.
Es handelt sich sich um ein NTFS Dateissystem.

An Linux- und Windowslösungen bin ich interessiert.

MfG

xsid
 
Zuletzt bearbeitet:
Kopieren auf eine leere HDD wird immer die Fragmentierung eliminieren weil das immer Dateiweise geschieht. So sind alle Blöcke einer Datei schön hintereinander angeordnet.

SATA wird wohl am schnellsten gehen aber USB 3 dürfte auch schnell genug sein.
 
Hallo,

kopiert habe ich jetzt mit Linux.
1,25 TB haben 60 Stunden gedauert.
Einige Dateien sind 55 GB groß

Hardware: SATA-2 mit Intel® CoreTM2 Quad Processor Q9400
6M Cache, 2.66 GHz, 1333 MHz FSB

Dauert das immer so lange, woran liegt das?
War die kopierende HDD zu sehr fragmentiert?
Liegt es an Linux und dem Umgang mit NTFS?

Könnte das Windows schnell erledigen?

MfG

xsid
 
Das geht normalerweise mit Windows und Linux deutlich schneller, wenn per SATA, eSATA oder USB 3 kopiert wird.
Deine CPU ist nicht der Flaschenhals - irgendwas sonst läuft schief.
 
Hallo, wie sollte ich bei der Fehlersuche vorgehen?

SATA-2 wurde genutzt.
 
60 Stunden ist ja nicht mal USB-2-Niveau. Wahrscheinlich sind da falsche DMA-Einstellungen am Werke. Unter Linux bin ich allerdings überfragt, was man wo und wie konfigurieren kann. Unter Win sollte die Platte am SATA-Port von allein richtig eingebunden werden. Gegenteiliges hab ich seit XP-Zeiten da nicht mehr erlebt.
Du kannst ggf. noch prüfen ob die Platten selbst in Ordnung sind. Unter Win z.B. mit CrystalDisk-Info.

Grüße Thomas
 
Könnte das Windows schnell erledigen?

xsid

Nach meiner Erfahrung eher nein. Leider pfuschen dir da Virenscanner dazwischen, genau wie die Tatsache, dass Windows bei Abwesenheit die Priorisierung für Prozesse ändert.

MfG, Sebastian
 
Dauert das immer so lange, woran liegt das?
Könnte das Windows schnell erledigen?

2TB von einer HDD auf eine andere kopiert dauert bei mir regelmäßig unter 10 Stunden.
Hardware: X230 mit i7 und eingestecktem eSata Adapter mit PortMultiplier und daran beide Platten angeschlossen
Software: jungfräuliches Windows 7
 
Fragmentierung bei 55 GB Datei dürfte kein Problem sein. Die kompletten Blöcke bekommen die HDDs recht flott zusammen auch wenn sie überall verteilt sind. Schlimmer sind die kleineren Dateien die keinen ganzen Block füllen.

Wie schon angemerkt dauerte das Kopieren viel zu lange. Das Phänomen beobachte ich auch wenn ich eine HDD zum Kopieren das erste mal via USB anschließe. Wenn ich sehe, dass das zu langsam ist breche ich ab und starte ich den Rechner neu. Das hat bei mir immer geholfen.
 
Zuletzt bearbeitet:
Für mich ist bei Backups solch eine Fragmentierung egal, da hier einzelne Prozent schlechtere Datentransfergeschwindigkeit nicht wirklich ins Gewicht fallen.
Die Backup-Methode sollte aber eine Möglichkeit haben, die Datenkonsistenz zu überprüfen.
Wie die Backupdaten auf der Platte verteilt sind, ist dafür ziemlich egal.
 
Mit zunehmender Fragmentierung steigt die Ausfallrate?
 
Windows 10 hat auf der Quell-HDD Datenfehler festgestellt,
Na ja, darin kann evtl. das Problem liegen, dass der Kopiervorgang so lange gedauert hat.


Die sollen auf der zweiten HDD nicht mehr fragmentiert sein.
Ich frage mich auch folgendes: Was ist der Sinn dass Du unbedingt auf die Defragmentierung bestehst ?

Version a) Ich will die Platte danach nicht mehr nutzen und in den Schrank legen.Dann stelt sich mir die Frage: Was soll die Defragmentierung bringen und wozu wäre die dann gut ?

Version b) Ich will die Daten umkopieren und die Platte danach weiter benutzen. Dann gilt es zu bedenken, sobald Du Daten von bestehenden Files anpackst und veränderst ist die Platte schneller wieder defragmentiert als Du gucken kannst und mir stellt sich die Frage: Was hat das Ganze jetzt wirklich gebracht und was war der wahre Grund ?
 
Selbst bei System HDD war Defragmentierung wohl Schlangenöl. Andererseits war man bei der Lahmheit natürlich immer froh auch noch das Geringste rauszuhlen.

Bei reinen Daten HDDs die überschaubare Schreibzyklen haben, maximal ein paar mal pro Tag statt tausende von malen pro Stunde bei System HDDs sollte es egal sein. Wenn man Lahmheit wegen Fragmentierung vermutet kann man ja die Platte leer machen vor einer erneuten Sicherung.
 
Hallo,

ich wähle:
Version b) Ich will die Daten umkopieren und die Platte danach weiter benutzen. Dann gilt es zu bedenken, sobald Du Daten von bestehenden Files anpackst und veränderst


Die HDD benutzte ich für meine Downloads als Datensicherung, kommt ein neues Release, z. B. Windows xxxx, lösche das vorhergehende.
Zudem speicher ich dort Fullbackupsicherungen. Die Daten von bestehenden Files habe schon vielfach angepackt.

Ist evtl. ein ext4 Dateisystem die bessere Wahl dafür?
 
Die HDD benutzte ich für meine Downloads als Datensicherung, kommt ein neues Release, z. B. Windows xxxx, lösche das vorhergehende.
Zudem speicher ich dort Fullbackupsicherungen. Die Daten von bestehenden Files habe schon vielfach angepackt.
Mal ehrlich: Wozu soll die Defragmentierung bei diesem Nutzungsprofil irgend etwas sinnbehaftetets beitragen können ? Außer natürlich Mehrarbeite erzeugen und die Belastung der CPU und Plattenmechanik zu erhöhen....
Was versprichst Du Dir davon ? Mir erschliesst sich der Sinn einfach nicht.



Ist evtl. ein ext4 Dateisystem die bessere Wahl dafür?
Wir sprechen jetzt über ein Windows oder Linux System ? Eine ext4 Platte wirst Platte wirst Du ja mal eben so einfach nicht an ein Windows Gerät hängen können.
Auch ext Filesysteme fragmentieren.
 
Fälschlicherweise bin ich davon ausgegangen, dass, wenn die Dateien fragmentiert sind, die Datensicherheit leidet.

Das beschäftigen mit der Thematik ist entstanden, weil das Koperen extrem langsam war.

Linux und Windows benutze, wobei ich Windows nur sehr, sehr selten nutze.

Zitat: Eine ext4 Platte wirst Platte wirst Du ja mal eben so einfach nicht an ein Windows Gerät hängen können.

Deswegen hatte ich ntfs gewählt.

Jetzt teste ich, weil FOSS:

https://ultradefrag.net/en/index.shtml
 
Zuletzt bearbeitet:
  • ok1.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen
Zurück
Oben