Tägliches inkrementelles Backup via Script, brauche Hilfe

tgraupne

New member
Themenstarter
Registriert
25 Feb. 2008
Beiträge
2.008
Hallo Linux- Freunde ;)

Folgendes Artikel hat mich auf eine Idee gebracht:
http://wiki.ubuntuusers.de/Skripte/inkrementelles_Backup?highlight=backup

Meine Vorstellung:
Jeden Tag wird ein automatisches, inkrementelles Backup meiner wichtigen Daten durchgeführt.
Dies soll übers Netzwerk von statten gehen...USB Stick etc kommt einfach nicht in Frage...da es ja automatisch ablaufen soll.

Meine Hardware:
- IBM ThinkPad T43
- NSLU2 mit unslug

Meine Probleme:
Das wichtigste was zunächst zu lösen ist, ich habe keinen blassen Schimmer, wie ich das Script von ubuntu-users anpassen soll, damit das Backup file übers Netzwerk geschrieben wird?!
FTP, HTTP, SMB ... was ist der richtige Weg??

Sozusagen funktioniert imo nichts :D

Weitere Wünsche:
- Das Script erkennt zuerst automatisch, ob ich mich in meinem home- Netzwerk befinde und das Backup Server überhaupt zur Verfügung steht.
Ist das nicht der Fall soll auch keine Fehlermeldung ausgegeben werden.
- Energiemanagment der SLUG....Ich dachte zuerst, ich kann ihn einfach an meine Steckerleiste klemmen...Doch in seiner Firmeware befinden sich extra Punkte für Shutdown etc....nun weiß ich nicht, ob er es "verträgt" einfach stromlos gemacht zu werden, oder ob er den Shutdown wirklich benötigt?!

Ich hoffe hier jemanden mit Erfahrungen diesbezüglich zu finden....
Oder hat eventuell jemand eine ganz andere Idee?!

Grüße
Tom
 
Ich wollte gerade schon mal auf den Datenträger schauen, da gzip immer noch fleißig im Hintergrund läuft...
Kann es sein, dass es durch diesen massiven Zugriff auf den Datenträger über samba zu timeouts kommt, wenn ich ihn jetzt noch zusätzlich versuche zu öffnen?
 
Solch ein Backupscript gehoert z.B. in das bin Verzeichnis des Benutzers. Aufrufen kann man es dann mit crontab oder via /etc/cron.xy.
 
Momentan liegt es ja in:
Code:
/etc/cron/cron.daily
Und sollte so bei jedem boot ausgeführt werden...

Doch dauert es jetzt schon ganz schön lang.
Ich hoffe das liegt nur daran, dass es das erste mal ausgeführt wird.
gzip hatt im Moment ca 3-4GB zu packen.
 
rsync wollte ich gern vermeiden, da es m.M nach nichts anderes macht...Und ich eben gern dieses Script anpassen wollte.
Ein gewisser, gewünschter Lerneffekt war auch ausschlaggebend für diese Wahl ;)

Bei SSH hörte ich, dass es wohl sehr sehr langsam sein soll?!
Welche Vorteile gibt es denn beim BackUp über SSH?
 
[quote='tgraupne',index.php?page=Thread&postID=601009#post601009]
Bei SSH hörte ich, dass es wohl sehr sehr langsam sein soll?!
[/quote]
Warum sollte es?
Welche Vorteile gibt es denn beim BackUp über SSH?
Einfach und schnell zwischendurch mal gemacht. Die Verbindung ist verschluesselt, also kann man es auch via Internet machen.
Code:
scp -r Verzeichnis Server:/Pfad/zum/Verzeichnis
 
Zwischen tar+gzip und rsync bzw. rdiff-backup ist schon ein prinzipieller Unterschied. tar+gzip archivieren ein Verzeichnis in gepackter Form. rsync bzw. rdiff-backup synchronisieren Quell- und Ziel-Directory, das ist bei Inkrementen m.E. schneller als tar. Alte Inkremente erhalten kann auch rsync wenn man es per Skript entsprechend parametiert (kompliziert), rdiff-backup macht das ohne Parameterorgie. Probiers einfach mal aus.

EDITH: mein Beispiel benutzt kein SSH, es geht eben auch mit Shares. SSH ist m.E. schneller als Samba. Ich synchronisiere hier zwischen T60 und X200 damit öfter mehrere 10GB.
 
Warum das so ist kann ich leider nicht sagen.
Doch wenn man google oder ubuntuusers nach "Backup", "SSH" und "Geschwindigkeit" fragt,
bekommt man sehr oft derartige Probleme geschildert.

Und eine Verschlüsselung ist bei mir nicht nötig, da ich diesen Vorgang ja nur durchführen möchte,
wenn ich mich zu Hause befinde.

Diese Script wird die nächste Baustelle :)

edit: gzip läuft immernoch.....warum eigentlich gzip, sollte das nicht mit tar laufen?
 
[quote='tgraupne',index.php?page=Thread&postID=601018#post601018]
gzip läuft immernoch.....warum eigentlich gzip, sollte das nicht mit tar laufen?[/quote]
Sieh dir doch mal die Optionen an, die tar mit auf den Weg bekommt. "man tar" verraet dir, was sie machen.
 
@linrunner: Wie sind deine Erfahrungen mit rdiff-backup? Ich benutz es selbst und hatte bisher keine Probleme, kenne aber ein paar Leute in einem kleinen IT Betrieb hier um die Ecke, die über rdiff-backup ohne Ende fluchen (wegen Fehlern beim inkrementellen Backup) und daher dirvish empfehlen... Ich hab diese Probleme selbst aber auch noch nicht gehabt...
 
Beim Backup gut, sonst würde ich es nicht empfehlen :D . Was den Restore betrifft, habe ich bisher nur 1x eine einzelne Datei aus einem alten Inkrement zurückgeholt (erfolgreich). Den Restore mal in Ruhe und ausführlich zu testen schadet jedenfalls nicht ... 8) .

Ich verwende es für mein /home mit entsprechenden Excludes auf ausgewählte .*-Verzeichnisse. Für große Filesysteme mit sehr vielen Dateien (Kernel bzw. OpenWRT Build) ist das Inkrementieren zu lahm, da nehm ich nur rsync.
 
So, also das Script funktioniert erstmal...
Meine Tests waren jedoch kurz auf Eis gelegt, da ich ja mit der eigenartigen Größe meines home- LW's zu kämpfen hatte.
Aber das haben wir ja mittlerweile auch geklärt :thumbsup:

Ich werde in den nächsten Tagen das Script an sich und die Restore- >Funktion testen....

Nächster Schritt ist dann das Script, welches zu Anfang immer erst schauen soll, ob ich mich zu Hause befinde und ob der BackUp- Server verfügbar ist...

@ linrunner, wegen rsync: wenn du von besagten Dateisystemen also immer ein volles BackUp machst, kannst du dann rsync so konfigurieren, dass er automatisch immer das vorletzte Backup dann wieder löscht?
 
Mit rsync kann man zwar Generationen sichern, muß aber Skriptlogik dafür basteln (hatte ich keine Lust dazu). Daher benutze ich rdiff-backup wie in meinem Skript hier [Linux] Tägliches inkrementelles Backup via Script, brauche Hilfe gezeigt.

Wenn Du dort
Code:
KEEP="2D"
setzt, löscht er nach dem Backup Inkremente die älter als 2 Tage sind. Das ist ungefähr das was Du möchtest wenn Du täglich sicherst, oder?

In den Inkrementen werden übrigens nur die Unterschiede gespeichert - zudem komprimiert - sodaß das Ganze einigermaßen platzsparend ist. Die Performance via Netzwerk müßtest Du mal testen, da habe ich keine Erfahrung.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben