Linux Linux Server - SSD "ab-ge-raucht" oder doch anderes Problem?

Linux Betriebssystem

Tetradrachm

Member
Themenstarter
Registriert
25 Sep. 2010
Beiträge
526
Servus...

ich bin kein Linux Profi und brauche daher bitte Eure Hilfe. Ich versuche mal alles am besten zu umschreiben, damit Ihr Euch ein Bild machen könnt. Ich habe einen kleinen Rechner gekauft - meines Wissens ist es so ein ARM Rechner - ähnlich dem Raspery - nur jedoch mit größerer Platine (microATX), echten RAM Riegeln, passiv gekühlt. Als Speicher dient eine PCIe NVMe 2 TB SSD. Diesen Rechner betreibe ich als Server - installiert habe ich ein Linux Ubuntu (aktuellste Version).

Erstes Problem.

Dieser kleine Server dient für eine Gruppe von kreativen Künstlern als Workspace hier bei mir. Es sind verschiedene Benutzer eingerichtet, verschiedene Rechte des Zugriffes auf Ordner und freigegebene Netzlaufwerke - was alles einwandfrei funktioniert hat - bis heute Morgen. Seitdem kann ich den "Server" Rechner nicht mehr hoch fahren.

Ich habe Euch mal zwei Bilder angehängt - diese Meldung kam heute Vormittag.

1. Dann habe ich mal gewartet bis heute Nachmittag. Wenn ich den Rechner nun anschalte, dann kommt gar nichts mehr - als nur das Bild des Start-BIOS und dann nur noch ein blinkender Cursor. Sonst gar nichts.

2. Dann habe ich mal testweise die SSD ausgebaut - dann startet wenigstens der Rechner, bringt aber, dass er kein Betriebssystem hat, das er booten kann. Aber immerhin kommt eine Fehlermeldung bei ausgebauter SSD, anstatt wie bei (1) nur der blinkende Cursor.

3. Da ich für mich paar Daten brauche, dachte ich, probiere doch mal aus die SSD in ein T490s zu brauen und zu booten. Dachte das klappt mit Linux so einfach die SSD in einen anderen Rechner und starten. Tut es aber nicht - es kommen Meldungen wie fehlendes ACPI (oder so ähnlich) und ich soll ein manuelles fsck laufen lassen. Aber da traue ich mich erst mal nicht weiter - daher habe ich da jetzt mal nicht weiter gemacht.

* Ok - das ist der Stand des Rechners / Servers mit der SSD. Könnt Ihr bereits da was erkennen was schief gelaufen ist oder läuft?

* Da ich an die Daten heran kommen sollte - überlege ich mir einen PCIe NVMe USB Adapter zu kaufen um die SSD auszulesen. Kann ich die SSD einfach an einen Windows oder Mac Rechner anschließen und die Daten auslesen?

So und jetzt kommt das zweite Problem!

Daten von der SSD auslesen? Hast Du etwa kein Backup Deiner Daten? Doch!

Ich habe an den Linus Rechner / Server eine externe USB HDD angeschlossen. Ubuntu Linux bietet ein eigenes Backup Programm an, dass selbständig die Daten vom Rechner auf ein anderes Medien sichert. Das habe ich auch gemacht! Aber - ich weiß nicht 100% auch seit heute - die externe HDD ist auf einmal leer! Das ist ganz komisch.

Auf der externen HDD gibt es einen Order "linuxserver" (das ist der Rechnername) mit einem TimeStamp vom Dezember 2022. An dem Tag habe ich das erste Mal das Linux Backup Tool gestartet und dabei hat es diesen Ordner erzeugt. Und in diesen Ordner hinein macht das hauseigene Ubuntu Backup Tool ja die Backups. Und ich habe auch immer wieder mal die externe HDD kontrolliert! Und die Ordner waren da! Ich kann nicht sagen ob wirklich immer alles gesichert wurde bis zur letzten Datei - aber unter "linuxserver" waren einzelne Backup Ordner mit meinen ganzen Ordnern und Dateien! Und jetzt - ist nur noch der leere Ordner da!

Also das ein backup nur teilweise gemacht wurde oder einzelne Dateien nicht vorhanden mag alles vorkommen - aber der Linux Server, respektive das Ubuntu backup Programm, löscht doch nicht in dem Haupt-Backup-Ordner auf einmal alle Inhalte!?!

* Entweder Ihr sagt mir jetzt - dass ich mit einem Windows bzw. Mac Rechner auch gar nicht die Ordner und Dateien sehe wenn ich auf die externe HDD anschließe. Das ich dafür Linux benötige.

* Oder ich weiß auch nicht. Man könnte fast meinen - jemand hat auf die externe USB HDD zugegriffen und unter dem Backupordner alle Dateien per Hand gelöscht!? Also ich habe noch nie erlebt, dass ein Backup Programm Ordner und Dateien gelöscht hat - aber den "Ober-Ordner" übrig gelassen hat. Da müsste doch die ganze externe HDD verkorkst sein?



Ok. Ich bitte um Hilfe. Hat jemand Tipps wie ich bei dem Linux Rechner / Server am besten vorgehe? Kann jemand den Log lesen? Kann ich die SSD in ein Thinkpad einbauen zum Testen? Soll ich die interne Linux SSD an einen USB NVMe Adapter anschließen und versuchen mit meinen anderen Rechnern darauf zuzugreifen?

Was ist mit der externen Backup HDD passiert? Kann sich jemand vorstellen was da passiert sein könnte? Dass die SSD heute ausfällt und gleichzeitig auf der externen HDD auf einmal der Oberordner noch da ist aber die Unterordner alle gelöscht - finde ich einen ziemlich komischen Zufall.


DANKE!
 

Anhänge

  • b050b23f-5a7c-485e-b89d-3c84cbd75875.jpg
    b050b23f-5a7c-485e-b89d-3c84cbd75875.jpg
    212,5 KB · Aufrufe: 50
  • bcd82b05-d060-471f-bcbe-63a5b80ede64.jpg
    bcd82b05-d060-471f-bcbe-63a5b80ede64.jpg
    396,6 KB · Aufrufe: 50
Ich wusste wieso ich ihn erst mal laufen lassen wollte.

Direkt nachdem ich
cat /proc/partitions
eingegeben habe, hat sich die sdb - also die Quell SSD - aufgehängt. Und damit auch den Prozess im Terminal abgeschossen. Das "kopieren" wurde abgebrochen und das Terminal reagierte danach nicht mehr.

Klasse. Argh - hätte ich es einfach mal lieder zu Ende laufen lassen.

Ok - ich werde jetzt mal starten und vor dem erneuten Versuch erst mal die Größen anzeigen lassen. Dann werde ich aber wohl doch nochmals versuchen einfach nur die drei Backup Ordner mit rsync auf die Ziel-HDD zu kopieren. Und die Dateien die gehen - die gehen - und was nicht geht - geht halt nicht...
Beitrag automatisch zusammengeführt:

Und, hattest Du wenigstens gestern oder über Nacht noch einen Erfolg?
Die Pfade, die Du bei rsync verwenden wolltest, gibt es nicht. In dem von Dir angehängten Bild sieht man, dass der Einstig /media ist und es von dort weitergeht. Wenn Du einen Dateimanager offen hast, kopiere den Pfad vollständigen Pfad aus diesem, denn dieser Pfad existiert ganz bestimmt. Unter Windows macht man das auch so. Noch besser ist es, die shell zum Auflösen zu verwenden, also:

rsync -av --ignore-errors /media/ <TABTASTE> k <TABTASTE> u.s.w., so lange, bis der gewünschte Pfad vollständig aufgelöst ist.

Einen Denkfehler hast Du noch: Festplattenlaufwerke unter /dev, wie "device", entsprechen niemals Ordnerpfaden. Das ist anders als unter Windows.

Es klappt jetzt - ich habe einfach im FileExplorer den Ordner mit der rechten Maustaste angeklickt und dann "im Terminal öffnen" - dann wird mir im Terminal der komplette Pfad des Quellordners ja angezeigt - den ich einfach kopieren kann. Dann noch das gleiche mit dem Ziel (wobei das ja immer die gleiche HDD ist) und fertig.

Der erste Ordner - wenig Inhalt - hat mit rsync schon geklappt.

Beim zweiten Ordner mit größeren Dateien und vor allem auch Fehlern ist das Ganze ziemlich langsam (wenn er auf einen Fehler trifft - arbeitet er sich ziemlich daran ab). Aber es geht gerade wieder vorwärts.
 
Zuletzt bearbeitet:
wenn /dev/sdb verschunden ist, dann ist der Controller im Eimer. Kühlen kann helfen, aber keine Garantie.
 
Ich mache jetzt erst mal mit "rsync" eine Kopie aller drei Ordner fertig - dann kann ich ja noch bisschen weiter experimentieren.

Der erste Ordner ist durch.
Der zweite Ordner wird auch gerade fleißig kopiert.
Danach noch der dritte Ordner, dann ist das gröbste durch.

Eine Frage - ich habe unter /home/nameA und /home/nameB (und so weiter) noch Ordner, wo ich jetzt aktuell keinen Zugriff habe - wie kann ich die Rechte dieser Ordner so hinbiegen, dass ich auch diese kopieren kann? Wobei ja Lese-Zugriff in dem Fall reichen müsste nehme ich an? Das mache ich dann er erst nachdem die drei Ordner von oben kopiert wurden.


Netter Nebeneffekt der Geschichte - ich habe unheimlich viel über Linux gelernt :D

Denke viele wie ich machen sich so einen Raspery oder Mini-PC Linux Server und haben nur Anwender Ahnung. Linux installiert und Ordner freigeben, das schafft man auch so nebenbei. Aber die letzten Tage waren sehr interessant :D

Und noch ein Nachtrag. Wenn diese Daten weg wären jetzt - würde die Welt nicht unter gehen, weil alles auf dem Linux Server mehr oder weniger nichts ist, was meine (berufliche) Existenz gefährdet. Es wäre nur lästig die Daten zu verlieren. Daher dachte ich auch eine einfache externe USD HDD für das Backup wäre ausreichend. Meine berufliche Tätigkeit und dessen Daten dazu sind mehrfach gesichert. An drei unabhängigen Orten und diese werden mit drei unterschiedlichen Backup Strategien und Tools gesichert.
 
Keine Leserechte von einem Live-System sind ungewöhnlich, da hier quasi der sog. Superuser ausführend Standard ist. Ist auch mit sudo rsync nicht zu kopieren?
Sonst kannst Du Dir noch versuchen, Berechtigungen selber zu vergeben mit "sudo chmod 666 -R /media/...Pfad zum Ordner/"
Probier das aber wirklich erst als letzten Schritt aus, denn hierdurch wird auf die Festplatte geschrieben. Ob es funktioniert, bleibt in jedem Fall fraglich, denn wer nichts lesen darf, darf auch keine Rechte verändern.
 
Keine Leserechte von einem Live-System sind ungewöhnlich, da hier quasi der sog. Superuser ausführend Standard ist. Ist auch mit sudo rsync nicht zu kopieren?
Sonst kannst Du Dir noch versuchen, Berechtigungen selber zu vergeben mit "sudo chmod 666 -R /media/...Pfad zum Ordner/"
Probier das aber wirklich erst als letzten Schritt aus, denn hierdurch wird auf die Festplatte geschrieben. Ob es funktioniert, bleibt in jedem Fall fraglich, denn wer nichts lesen darf, darf auch keine Rechte verändern.

Ok - sobald alle drei "wichtigen" Ordner kopiert sind mache ich es Schritt für Schritt so wie Du gesagt hast. Erst rsync ausprobieren und im letzten Falle mit den Rechten ändern. Danke. melde mich wieder.
 
Keine Leserechte von einem Live-System sind ungewöhnlich, da hier quasi der sog. Superuser ausführend Standard ist.
Erm nein. Ein User inder Gruppe sudo ist Standard im Live-System. Wie du schreibst sollte es mit sudo klappen. Der User ist aber erstmal nicht privilegiert.
 
Ja, das ist klar. Wobei sudo ohne Paßwort... Und was genau ist eigentlich sudo, und welcher User soll das denn sein? Ich setze noch einen drauf: Gescheite Systeme nutzen kein sudo. 😊
 
Mit wessen Privilegien die Befehle ausgeführt werden kann man in /etc/sudoers konfigurieren, aber das wirst du wissen.
 
Danke nochmals an alle Beteiligten, für die ganze Hilfe und Unterstützung! Ich habe soweit die meisten Daten kopieren können - und nebenbei viel über Linux gelernt.


Ich habe noch eine letzte Frage. Ich habe zwei Ordner - wenn ich diese im Dateimanager öffnen will, dann dreht sich nur der Mauszeiger im Kreis. ein Zugriff auf den Inhalt ist also nicht möglich (es wird auch kein Inhalt angezeigt).

Gibt es hier ein kostenloses Datenrettungstool unter Linux - oder was aus der Hausapotheke womit ich versuchen könnte per Tool oder Terminal den Inhalt dieser beiden Ordner - und nur dieser Ordner - teilweise wieder herzustellen? Die Ordner sehe ich ja und sind da - nur auf den Inhalt kann ich nicht zugreifen - aber die Ordner ansprechen.

Danke nochmals.
 
Bei testdisk / photorec fällt mir gerade die laut Doku hoffnungslose Veralterung des Programms auf. Kein ext4, das auch schon seit 15 Jahren verbreitet ist. Dazu verwendet Canon .cr2 Formate, das aufgeführte crw ist bei Canon schon gar nicht mehr gelistet.

Schau vielleicht einmal hier: https://extundelete.sourceforge.net/
 
Wo genau hast du hingeschaut?

TestDisk can
  • ...
  • Locate ext2/ext3/ext4 Backup SuperBlock
  • ...
  • Copy files from deleted FAT, exFAT, NTFS and ext2/ext3/ext4 partitions.
Ansonsten... selbst, wenn etwas nicht explizit da steht (Undelete files from FAT, exFAT, NTFS and ext2 filesystem) heißt das erstmal nicht, dass es ext3/4 nicht kann, sondern dass es nichts hinzuzufügen gibt um diese Dateisysteme zu unterstützen. Ich würde einfach davon ausgehen, dass der Autor das Journal als nicht zwingend erforderlich für undelete Operationen hält und daher ext3 und 4 mit den selben Methoden undeleted, wie ext2. Jedenfalls kann testdisk mit ext4 umgehen.

Zweiter Punkt:
File Formats Recovered By PhotoRec
[...}

Multimedia​

  • ...
  • .cr2 Canon Raw 2 picture (TIFF image)
  • .cr3 Canon Raw v3 (MOV family)
  • .crw Canon Raw picture
  • ...
[...]


Aber anyway: Ich habe td/pr enpfohlen, weil ich es kenne. Du empfielst extundelete, weil du es kennst (hoffe ich). Ergo: Beide Tools werden tun, was man von ihnen erwartet.
 
Zuletzt bearbeitet:
Ok. Ich habe bei der Quelle geschaut:

Wobei debian.org stark nach "nur ein Ausschnitt" aussieht. Auch die 7.1 konnte schon viel viel mehr (entgegen dem Wiki ist AFAIK 7.2 aktuell das Release).
 
OT
Bei Debian wird genauso die Version 7.1.5 angeboten wie be cgsecurity, wo die 7.1 als stabile version geführt wird und die 7.2 als Beta. Die 7.1 ist seit 2019 stabil und kann mit den Dateisystemen bis ext4 locker umgehen.



 
So ein herzliches DANKE an alle hier beteiligten, die mit viel Geduld mir hier geholfen haben!

Ich konnte das herstellen, was ich benötigt habe. Werde nun aber einen kleinen "Mac Server" mir aufbauen - da kenne ich mich mit dem System und den möglichen Optionen bei der mehrfachen Datensicherung einfach besser aus. Aber wie gesagt - nochmals ein ganz dickes Danke an alle hier - ich habe zumindest wieder einiges gelernt dank Euch!
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben