HDD mit Ubuntu-Live sicher wipen?

cyberjonny

Active member
Registriert
22 Sep. 2007
Beiträge
9.669
Hi miteinander,

ich habe hier gerade ein altes Notebook mit IDE-HDD, das ich gerne mithilfe eines Ubuntu-Live-Systems sicher und restlos wipen würde.

Wie muss ich hierzu denn vorgehen? Idiotenanleitung erwünscht! ;)

Danke und Gruß,
Jonny
 
Und dann wird automatisch die richtige HDD (nur eine verbaut) genommen - oder muss ich die noch genauer spezifizieren? - und mit Nullen überschrieben?
Reicht da einmal oder macht mehrfach Sinn?

Sorry für die doofen Fragen! :)
 
Wenn nur eine Festplatte eingebaut ist, dann passt der Befehl. Einmal mit Nullen überschreiben reicht (wenn man da noch etwas rekonstruieren will, muss schon ein ganz erheblicher Aufwand betrieben werden - und das ohne Garantie auf Erfolg).

Und es gibt keine doofen Fragen , höchstens doofe Antworten :thumbup:

Gruß
Wolfgang
 
Du kannst Dir auch die dban iso (dariks boot and nuke) herunterladen und von der dann booten.
Die löscht automatisch und ungefargt alles, was an Festplatten erkannt wird und gerade angeschlossen ist.
Zu finden hier: http://www.dban.org/download
 
Der Befehl in Worten ausgedrückt:
Code:
[i]sudo[/i]          # mit root-Rechten ausführen (wird benötigt um auf das Blockgerät, die HDD, zu schreiben)
[i]dd[/i]            # kopiere Bytes (implizit immer 512 am Stück, siehe auch [i]man dd[/i] ) ...
[i]if=/dev/zero[/i]  # ... aus dem Nullgerät (die Wahl des Geräts impliziert, dass bis in alle Ewigkeit Nullbytes gelesen werden) ...
[i]of=/dev/sda[/i]   # ... auf die erste Festplatte (da die HDD nicht unendlich groß ist wird das mit dem unendlichen Lesen nichts, wenn die HDD voll ist bricht das Kommando ab)
 
Code:
sudo dd if=/dev/zero of=/dev/sda

Das wird nicht funktionieren. Es müsste "hda" lauten oder sehe ich das falsch? Ist ja IDE.

edit: Ich korrigiere: Ubuntu benutzt wohl seit längerem sdX auch für IDE-Platten. :)

Wäre "/dev/random" nicht noch etwas besser?
 
Zuletzt bearbeitet:
Das wird nicht funktionieren. Es müsste "hda" lauten oder sehe ich das falsch? Ist ja IDE.
Der Linux-Kernel spricht seit geraumer Zeit alle Massenspeicher als /dev/sdX an. Ich meine das müsste seit etwa 2006 oder 2007 so sein. Dazu gab es erwartungsgemäß heftige Diskussionen auf lkml.org wenn ich mich richtig erinnere. ;)
Es lässt sich wohl nach wie vor per Compileroption konfigurieren, dass IDE-Geräte als /dev/hdX angesprochen werden, das ist aber bei kaum noch einer Distribution der Fall. Eine Ubuntu-Live-CD macht das jedenfalls nicht, es sei denn sie ist rund 8 Jahre alt oder älter.

Wäre "/dev/random" nicht noch etwas besser?
Nur wenn du Weltmeister im Mausschubsen bist. ;)
/dev/random blockiert, wenn zu wenig Entropie im System vorhanden ist. Der Befehl bleibt dann stehen, bricht aber nicht ab. Die einzig nenenswerte kontinuierliche Entropiequelle in einem herkömmlichen Rechner sind Usereingaben (Aus dem Grund soll man z.B. beim Anlegen von TrueCrypt-Volumes wie wild mit dem Curser rumrühren). Und da ein Mensch beim besten Willen nicht anähernd soviel Entropie nachliefern kann wie das System aus /dev/random absaugt verzögert das den Prozess ungemein. Aus der Luft gegriffen würde ich mal vermuten, dass so aus einer Stunde Jahre werden.
Eine Alternative wäre /dev/urandom (@yatpu: Ja, ich habe extra nochmal nachgeschaut um die beiden nicht wieder zu verwechseln. ;) ). Dieses Gerät blockiert nicht wenn die Entropie aufgebraucht ist sondern benutzt einen Pseudozufallszahlengenerator der streng genommen vorhersagbare Zufallszahlen erzeugt. /dev/urandom ist hier daher besser geeignet, wenn auch unwesentlich unsicherer.
Allerdings sollte man bedenken, dass das Erzeugen dieser Pseudozufallszahlen große CPU-Usage erzeugt, während ein Lesen aus /dev/zero im Grunde nur I/O-Load erzeugt. Daher ist gerade auf langsamen Systemen /dev/zero deutlich schneller, da nur die Schreibgeschwindigkeit der HDD hier eine Grenze darstellt.

Der Hintergrund überhaupt Zufallszahlen zu benutzen ist der, dass beim Schreiben von Nullen Restladungen auf den Plattern zurückbleiben könnten die (wenn auch nicht dem HDD-Controller selbst) Aufschluss über die ursprünglichen Daten geben könnten (z.B. in einem Geheimlabor mit Reinraum der NSA oder des Weihnachtsmanns). Wenn man auf dem Level der Sensibilität/Paranoia angelangt ist sollte man mMn aber die HDD eher physisch zerstören als sich auf letztendlich doch unzuverlässige Zufallsalgorithmen zu verlassen.
 
Deswegen sagte ich ja "herkömmliche" Rechner. ;)
Natürlich kann man an jedem analogen Bauteil ein Rauschen abgreifen, teils werden zur Entropiegewinnung sogar spezielle Oszillatoren eingebaut. Aber auf 08/15-Geräten mit Linux-Distribution von der Stange stellen die Nutzereingaben eben den größten Entropielieferanten dar sobald der beim Booten entstandene Pool erschöpft ist.
 
Da dd per Default eine Blockgrösse von 512 Bytes wählt, würde ich folgende Option benutzen, um den Zeitbedarf drastisch zu verkürzen:
Code:
sudo dd if=/dev/zero of=/dev/sda [B]bs=1M[/B]

Um die Restmagnetisierung (nicht -ladung) würde ich mir keinerlei Sorgen machen. Mehrfaches Überschreiben und/oder Zufallszahlen sind unnötiger (Zeit-)Aufwand. Einmal "Nullen" reicht völlig.

--> http://www.heise.de/security/meldung/Sicheres-Loeschen-Einmal-ueberschreiben-genuegt-198816.html
Das hindert freilich die Anbieter von Datenlöschprogrammen nicht, Software feilzubieten, die nach jahrzehntealten, für Disketten entwickelten Sicherheitsstandards Daten bis zu 35-mal überschreibt. Das gibt dem Löschenden das psychologisch wichtige Gefühl es gründlich gemacht zu haben, ist aber reine Zeitverschwendung.
 
Zuletzt bearbeitet:
Paranoia total??? :facepalm:

Wenn die Festplatte mit Nullen überschrieben wird, können wir allesamt miteinander die Daten nicht wiederherstellen oder auch nur eine Ahnung davon erhalten, was auf der Festplatte gespeichert war. Wie hikaru schrieb und ich oben schon erwähnte, muss ein ganz erheblicher Aufwand betrieben werden, um noch irgendwelche Reste von Daten zu rekonstruieren. Aber man könnte die Festplatte ja auch mal aufmachen, um zu gucken, ob da noch Daten sind :whistling:
Wenn ich so sensible Daten auf meiner Festplatte habe, verlässt die höchstens in kleinen Stücken das Haus - ansonsten reicht eimal "nullen" vollkommen aus.

Gruß
Wolfgang

Edit: @linrunner +1
 
Da dd per Default eine Blockgrösse von 512 Bytes wählt, würde ich folgende Option benutzen, um den Zeitbedarf drastisch zu verkürzen:
Code:
sudo dd if=/dev/zero of=/dev/sda [B]bs=1M[/B]
Da die alte IDE-HDD noch 512B-Sektoren hat sollte das keinen Unterschied machen.
Schaden tut es natürlich nicht, aber ich wollte das Kommando einfach halten.

Restmagnetisierung (nicht -ladung)
Dem gängigen Standardmodell zufolge sind Elektrizität und Magnetismus zwei Seiten der selben Medaille, der elektromagnetischen Wechselwirkung. Insofern ist elektrische Ladung schon richtig, denn genau die entsteht in einem Lesekopf bei der Bewegung über die Platteroberfläche.
 
Der Linux-Kernel spricht seit geraumer Zeit alle Massenspeicher als /dev/sdX an. Ich meine das müsste seit etwa 2006 oder 2007 so sein. Dazu gab es erwartungsgemäß heftige Diskussionen auf lkml.org wenn ich mich richtig erinnere. ;)
Das war keine reine Umbenennung, sondern eine Umstellung auf ein anderes, neues Subsystem, welches SATA und PATA gleich abstrahiert - daher beides sdX. Ich kann mich dabei an keine Diskussion erinnern, weil das neue in wesentlichen Punkten einfach besser ist.

Da die alte IDE-HDD noch 512B-Sektoren hat sollte das keinen Unterschied machen.
Schaden tut es natürlich nicht, aber ich wollte das Kommando einfach halten.
Man vergesse den Cache nicht ;)

Dem gängigen Standardmodell zufolge sind Elektrizität und Magnetismus zwei Seiten der selben Medaille, der elektromagnetischen Wechselwirkung. Insofern ist elektrische Ladung schon richtig, denn genau die entsteht in einem Lesekopf bei der Bewegung über die Platteroberfläche.
Ou, warum gibt es dann nur diese verflixten 8 Maxwell-Gleichungen... das hätte man sich auch sparen können ;)
 
Wenn es Zufallszahlen sein sollen:
Code:
sudo shred -vn 1 /dev/sda
"Shred" kümmert sich um das "schreddern" der Daten auf der Festplatte mit Zufallszahlen. -v sorgt dafür, dass dabei gelegentlich ausgegeben wird, wie weit das Ding schon ist (ein großer Vorteil gegenüber dem einfachen dd-Befehl) und "n 1" sorgt dafür, dass nur ein Durchgang gemacht wird.
 
Verstaendnisfrage:
ein simples Formatieren einer HDD mit gparted-cd/beliebiger linux-live-cd laesst DatenRekonstruktion zu, ist also nicht sicher?
Gruss
Martin
 
Verstaendnisfrage:
ein simples Formatieren einer HDD mit gparted-cd/beliebiger linux-live-cd laesst DatenRekonstruktion zu, ist also nicht sicher?
Gruss
Martin

Soweit ich weiß passiert bei einer normalen Formatierung eher ein "Freigeben" der Sektoren und nicht ein Überschreiben. Somit könnte man theoretisch Dateien wiederherstellen. Vergleichbar mit einem Buch, in welchem man zwar das Inhaltsverzeichnis leert, aber die Seiten immer noch beschriftet sind.
Erst wenn man die Daten wirklich überschreibt ist es nicht mehr so einfach die wiederherzustellen.
 
Danke euch allen, hat bereits bestens funktioniert!
Und für welche der vielen Vorschläge hast Du Dich entschieden ?

ein simples Formatieren einer HDD mit gparted-cd/beliebiger linux-live-cd laesst DatenRekonstruktion zu, ist also nicht sicher?
Nein, ist total unsicher (wie xudabit schon angenommen hat).
Die Daten lassen sich in einem zeitlich recht aufwändigen Prozess, der ca. 5 Minuten dauert, rekonstruieren :rolleyes:

Eine weitere sichere Methode ist es den ATA Befehl Secure Erase zu verwenden. Dann löscht der Controller der Platte selber die Daten.
 
Verstaendnisfrage:
ein simples Formatieren einer HDD mit gparted-cd/beliebiger linux-live-cd laesst DatenRekonstruktion zu, ist also nicht sicher?

Nein. Ist wie ein Aktenordner der durch den Schredder gelaufen ist. Die Zusammenhänge fehlen und einige Teile sind verschwunden (überschrieben). Trotzdem können einzelne Fetzen gelesen werden oder sie können mit viel Aufwand wieder zusammengesetzt werden. Die Säcke voll hastig zerrissener Stasi Akten fallen mir ein. Auf einzelnen Fetzen sieht man Satzfragmente die aufschlussreich sein könnten. Mit viel Aufwand hat man ein Puzzleprogramm geschrieben das aus Fotos der Fetzen versucht, soweit vorhanden ein komplettes Blatt zusammen zu setzen.

Bei den hier vorgeschlagenen Verfahren wird jedes einzelne Blatt genommen und alles geschwärzt. Und das dauert natürlich viel länger...
 
Zuletzt bearbeitet:
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben