X2xx/s (X200/s-260) X250 - Datenbackup via usb + grsync - Leistung geht in die Knie

  • Ersteller Ersteller flötotto
  • Erstellt am Erstellt am
F

flötotto

Guest
Themenstarter
Guten Tag
Habe aktuell ein Problem mit Backups via usb-Port, egal ob per grsync oder einfacher Transfere.
cpu-Last geht auf > 50 % und die ganze Maschine geht in den TILT-Zustand; d.h. Anwendungen können nicht
mehr ausgeführt werden oder nur zäh.

Ist die cpu zu schwach oder ist das usb-Managment nur zweitklassig?
Oder ist der ram zu klein ( = 4 GB ) ? ( ein 8gb ist gerade im Zulauf, für einen Test )

Die x250 Maschine ist gut - aber die usb-Backuplösung eher mangelhaft.
Welche Lösungen gibt es ? Oder gleich weg damit und einen T470/T480 Apparat anschaffen ?

Sonst ist man mit dem Rechner zufrieden. Aber die USB-Option ist eher mangelhaft.
Es geht hierbei um eine 30 GB Datei, welche von der externen ssd via usb auf den Rechner gezogen werden soll.

Gibt es da anderweitig Erfahrungen ?
 
Der Linux-Kernel überträgt Daten standardmäßig asynchron, d.h. er liest so schnell er kann und schreibt so schnell er kann, auch wenn beide Geschwindigkeiten unterschiedlich sind.
Gibt es zwischen Quelle und Ziel einen Flaschenhals, dann läuft der Lesepuffer voll, welchen letztendlich der RAM darstellt. An diesem Punkt steigt der I/O-Load und das System wird u.U. zäh, weil andere Prozesse auf die Abarbeitung der I/O-Interrupts des Sync-Prozesses warten.
Sobald alle Daten übertragen sind, gibt sich das wieder.

Ich vermute, du liest von der internen SSD, welche je nach Modell 300-1000MB/s liefern sollte. Der Flaschenhals ist entweder das USB-3.0-Interface, welches theoretisch ca. 500MB/s übertragen kann, oder der Controller oder Datenträger deines externen Laufwerks. Kleine 2,5"-HDDs schaffen meist nicht mehr als 60MB/s, USB-Sticks oft noch weniger.
D.h., deine 4GB RAM laufen irgendwann voll. Mit 8GB wird das Problem später auftreten, aber wenn du insgesamt 30GB überträgst, wird es trotzdem auftreten.

Prinzipiell könntest du Quelle und Ziel synchron mounten, aber das hat andere Nebeneffekte die du nicht haben willst.
Realistischer wäre es, dem Sync-Prozess mit "ionice" eine geringere I/O-Priorität zuzuweisen. Der RAM wird immer noch volllaufen, aber da andere Prozesse bevorzugt behandelt werden wird sich der Rest des Systems flüssiger annfühlen.

Die CPU muss zwar den ganzen I/O bewältigen, wartet dabei aber die meiste Zeit auf den Flaschenhals. An der liegt's also nicht.

Ein T/X270 oder neuer könnte über den USB-3.1-Anschluss theoretisch schneller sein und den Flaschenhals möglicherweise ganz vermeiden, vorausgesetzt, der USB-3.0-Controller des X250 ist aktuell der Flaschenhals. Das setzt aber auf jeden Fall eine sehr schnelle externe SSD als Ziel voraus.
Zunächst würde ich beim Zielmedium (Controller und Datenträger) ansetzen, falls du das Problem in Hardware angehen willst.
 
Zunächst würde ich beim Zielmedium (Controller und Datenträger) ansetzen, falls du das Problem in Hardware angehen willst.

Besten dank für die Erklärung.
8gb ram + neuer ext. Controller sind im Zulauf.
Werde dann erneut testen. ( das x250 müsste auf 16 gb ram = 1 x ram-Riegel, erweiterbar sein.
Evtl. holt man sich gleich eine andere T480-Maschine mit 16 Gb ram, wenn es was hilft.
( Dachte mit den neueren intels wäre eine Datenübertragung etwas entspannter - wenn aber
die ganze Maschine in den TILT-Modus geht und nicht mal der Browser bedienbar ist...dann wird
es für den Anwender schon zäh.
Gut, man könnte in der Zwischenzeit einen geschmeidigen Tee trinken gehen -

ps. komisch ist, dass die cpu-Last erst mit knapp 50 %, dümpelt und dann später sogar tiefer
geht. Teste das Verhalten noch auf der ubuntu-Maschine mit 22.04 und auf dem EOS-Knecht.
Evtl. haben die anderen Distributionen ein geschickteres Lastmanagement.
( osx war halt löblich, weil der ganze Transfere weniger via cpu geleitet )

Man wird schon eine Lösung finden
 
ps. komisch ist, dass die cpu-Last erst mit knapp 50 %, dümpelt und dann später sogar tiefer
geht.
Nein, das ist nicht komisch. Was wir im Deutschen oft als "(Aus)Last(ung)" bezeichnen wird im Engliscehn als "CPU-Usage" bezeichnet.
Hier geht es aber um den I/O-Load. Der kann sekundär eine hohe CPU-Usage erzeugen, wenn andere Prozesse immer wieder neue Ressourcen bei der CPU anfragen, die aber gerade nicht liefern kann, weil der I/O-Load hoch ist.

Stell dir vor du stehst in der Schlange an der Supermarktkasse! Die Kassiererin zieht in Windeseile die Waren über den Scanner, aber der Kunde der gerade dran ist kann nicht beim Einpacken mithalten und so muss die Kassiererin immer wieder warten bis die Ablage frei ist. Das ist I/O-Load.
Eine schnellere Kassiererin hilft dir hier nicht. Wenn nun die restlichen Kunden in der Schlange immer wieder der Kassiererin zurufen, sie soll schneller machen, dann beschäftigt sie das zwar und erzeugt so zusätzlich CPU-Usage, aber es hilft nicht. Der Kunde der gerade dran ist muss schneller werden.
Die hohe CPU-Usage am Anfang ist die Zeit in der die CPU (Kassiererin) den Lesepuffer (die Ablage) erstmals voll macht und geht dann zurück, wenn der I/O-Load (Einpacktempo des Kundes) der Flaschenhals wird.
 
Stell dir vor du stehst in der Schlange an der Supermarktkasse! ......, wenn der I/O-Load (Einpacktempo des Kundes) der Flaschenhals wird.

so kann man es auch erklären.
werde dennoch ram + controller testen, evtl. einen 16 gb ram mir holen und dann erneut testen.

Sollte es nicht fruchten, wird man die 13er beerdigen und sich einen T480er Knödel anschaffen.

Der Desktop-pc mit dem quadcore ...macht da weniger Probleme. Ram sind auch nur 8 gb verbaut -
aber der schiebt die Daten recht flott von A nach B....ohne groß Mullen und Knullen.

Vermutlich sind die x2.. Maschinen einfach zu leistungsschwach
 
Über Lan kein Thema?
Sosehr mir meine WD ans Herz gewachsen sind, aber die kommen für alles > 100Mb ans NAS.
 
Über Lan kein Thema?
Sosehr mir meine WD ans Herz gewachsen sind, aber die kommen für alles > 100Mb ans NAS.

NAS, NDAS, usw. hatte man Alles schon. Braucht man aber nicht.
Die wichtigsten Daten passen auf 500GB Speicher.
Multimedia, Musik, usw. hat man das Meiste gelöscht. Der Rest liegt auf
Nexcloud-hostern.
nas wäre aber evtl. eine Lösung ? evtl. so eine kleine 2-bay-Variante ?
mal umschauen ...
 
Ich habe auf meinem X250 ein Backup mit rsync auf eine USB Festplatte. Da dort auch eine Virtuelle Maschine mitgesichert wird habe ich auch Dateien größer 30 GB. Mein System läuft dabei flüssig weiter, aber ich habe auch 16GB RAM.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben