Virtuelle Windows-Maschine unter Linux mit Grafikbeschleunigung

cuco

Moderator
Teammitglied
Themenstarter
Registriert
1 Dez. 2011
Beiträge
7.874
Achtung, wird ein längerer Text ;)

Zuerst die Vorgeschichte:

Schon seit Jahren bastele ich jetzt an meinem Server. Und von Anfang an war der Plan, dass der Server nicht nur Serverdienste übernimmt, sondern auch als Workstation fungieren kann.
Eine Workstation muss performant sein, sollte keine großen Kompromisse eingehen. Dafür sollte sie aber eigentlich nur laufen, wenn sie auch gebraucht wird. Ein Server sollte dagegen immer laufen. Allerdings sollte auch dieser performant sein, so dass er schnell arbeitet, wenn er mal gefordert wird. Viel Zeit idlet er aber auch.

Die erste Version meines Homeservers nutzte daher Windows Server 2008 (R2) als Hauptsystem, dann lief ein auf Fileserver spezialisiertes Linux ("Openfiler") unter vmware Server. Doch ich konnte mein RAID so nicht verschlüsseln, der Support für vmware Server wurde eingestellt, Openfiler hatte einige Bugs bei der Rechteverwaltung und die Serverperformance war nur so naja. Außerdem musste das Workstation-System so dauerhaft laufen, startete sich gelegentlich bei Windows Updates neu, verbot aufgrund restriktiver Serverbestimmungen so einige Anwendungen und das saubere Herunterfahren inkl. der virtuellen Maschine funktionierte auch nicht zuverlässig. Das Durchschleifen echter HDDs an die virtuelle Maschine funktionierte auch nur über Tricks, aber warum sollte mein Fileserver mit virtuellen HDDs arbeiten? Größtes Problem war dann, als eine HDD ausfiel. Dann ließ sich die virtuelle Maschine nicht mehr benutzen, es hagelte Fehlermeldungen von der Virtualisierung. Was bringt einem ein RAID, wenn man dann trotzdem nicht mehr auf seine Daten zugreifen kann?

Seit dem läuft Ubuntu als Hauptsystem auf meinem Server und einige weitere Hardwarewechsel/-aufrüstungen hat mein Server auch hinter sich. Die Leistung ist super, wenn er gefordert wird. WENN. Die meiste Zeit idlet aber alles. Also kam wieder der Gedanke, warum nicht noch eine Workstation inkl. "Gaming"-Möglichkeiten einrichten? Ich habe aber keine Lust, mir jetzt für alle meine Programme Alternativen zu suchen oder mich mit WINE rumzuschlagen, um am Ende doch die Hälfte nicht zum Laufen zu bekommen. Also wieder der Gedanke an die Virtualisierung. Doch wie ein Windows virtualisieren, ohne per VNC mit entsprechendem Lag und fehlender 3D-Beschleunigung zugreifen zu müssen? Inzwischen gibt es neue Möglichkeiten in der Hardware und neue Möglichkeiten in der Software...

Der Plan:
Der Plan ist/war dann, eine virtuelle Maschine unter dem dauerhaft laufenden Linux (Ubuntu) einzurichten, die zum Teil aber exklusiven Zugriff auf echte Hardware bekommt, wie z.B. auf die Grafikkarte. Dank neuer Hardwarevirtualisierungsfunktionen und entsprechender darauf aufbauender Software, sollte die Performance inzwischen gut sein. Wenn es denn funktioniert... Ein paar Versuche hatte ich schon mal mit Hypervisoren gemacht, aber das hatte immer so naja geklappt. Inzwischen sieht das ganze anders aus. Ein Versuch mit vmware ESXi hat geklappt, Xen sah auch gut aus, bin jetzt aber doch wieder bei KVM unter Linux gelandet, das sieht am vielversprechendsten für die Zukunft aus.

Ein Linux soll also nativ auf der Maschine laufen und die Zugriffe auf CPU und RAM verwalten, außerdem die Fileserverdienste bereitstellen. Der größte Teil der Ressourcen soll aber dann bei Bedarf von der "Workstation" genutzt werden können, insbesondere die Grafikkarte.

Die ersten Ergebnisse:
Die ersten Ergebnisse waren ernüchternd. Das Durchreichen von echter Hardware an virtuelle Maschinen sollte zwar mit meiner Hardware funktionieren, in der Praxis klappte es mit der ausgeliehenen Grafikkarte zum Testen aber überhaupt nicht. Das virtuelle System fand die ATI X600 zwar, konnte sie aber nicht initialisieren, Treiber installieren oder irgendwie ansprechen. Doch genau das war ja das wichtigste... Es klappte nicht unter Ubuntu mit KVM, nicht unter ESXi und nicht unter Xen. Eine Recherche im Internet zeigte: Das Durchreichen von Komponenten wird zwar unterstützt, außer das Durchreichen von Grafikkarten. Hier muss das Video-BIOS initialisiert werden, was nicht korrekt abläuft. Aber sollte es hier schon am Ende sein? Die Grafikkarte war natürlich uralt... Also habe ich mir noch eine ausgeliehen, eine ATI HD3850. Schon ein Stück neuer. Und siehe da! Es geht! Ich bekomme Bild von der virtuellen Maschine aus der echten Grafikkarte.

Die jetzige Hardware:
- CPU: Intel Core-i7 3770. Eine der wenigen CPUs, die das nötige VT-d unterstützen. Das können nur die i7-Prozessoren, aber nicht die K-Modelle...
- RAM: derzeit 16GB DDR3-1333, sollen aber noch auf 32GB DDR3-1600 aufgerüstet werden (Hatte ich sogar schon drin, das Kit war leider aber kaputt, memtest fand Fehler). Einige meiner Serverdienste schlucken schon zwischen 8 und 16GB und 8-16GB für die Workstation wären auch nicht schlecht.
- Mainboard: Intel DQ77MK. Ein Mainboard mit möglichst vielen Komponenten von Intel ist immer sinnvoll, da hier die Linux-Unterstützung am einfachsten und besten ist. Außerdem haben Mainboards von Intel den Vorteil, dass sie auch auf die Virtualisierungsfunktionen ausgelegt sind. Bei Mainboards anderer Hersteller kann einem ein schlecht programmiertes BIOS schon mal einen Strich durch die Rechnung machen. Laut Intel haben auch ausschließlich die Q-Chipsätze (Q45, Q57, Q67, Q77) die Intel VT-d-Funktion, die ich für das Durchreichen benötige. Im Internet gibt es aber Berichte, dass der Z77-Chipsatz auch gehen soll.
- Das ganze sollte auch möglichst leise sein, damit der Server in meinem Zimmer stehen und 24 Stunden laufen kann, ohne dass es mir den Schlaf raubt. Entsprechende Kühler von Noctua (3x 140mm Gehäuselüfter, 2x 92mm CPU-Lüfter, alle an "Ultra Low Noise Adaptern) sowie ein gedämmtes Gehäuse mit entkoppelten Festplattenslots (Lian Li V650B in der Caseking-Dämmung-Version) sorgen dafür.
- Auch das Netzteil sollte leise sein und effizient, bei 24 Std. Betrieb macht das eine oder andere Watt schon was aus. Ein be quiet! Straight Power CM BQT E9-CM-480W verrichtet nun seinen Dienst, lässt sich dank Kabelmanagement gut sortieren und ist dank 80+ Gold Zertifizierung sehr effizient (bis 92,5% Wirkungsgrad). Das spart Strom und produziert außerdem weniger Wärme, so dass es dank 135mm "Silent" Lüfter eigentlich unhörbar bleibt.
- Für das Linux Betriebssystem arbeitet schon lange eine Mushkin Chronos 120GB SSD, für das virtuelle Windows ist nun noch eine Samsung 840 Pro 256GB dazugekommen. Im "Datengrab" arbeiten 8x Samsung SpinPoint F4 EcoGreen 2TB HD204UI. Die habe ich glücklicherweise noch vor der Flutkatastrophe bekommen. Im RAID6 bleiben davon 12TB nutzbar. Es sind die Modelle mit 5400rpm, also leise und stromsparend. Angeschlossen sind die HDDs an einem SAS/SATA-Controller, genauer: IBM ServeRAID M1015. Dieser ist recht günstig und hat die gleiche Hardware verbaut wie zwei Modelle von LSI, so dass ich dann den IBM M1015 zu einem LSI 9211-8i "gecrossflasht" habe. Dabei habe ich die IT-Firmware genommen (kein RAID-Funktionalität) und das Controller-BIOS komplett entfernt. Dadurch bootet das System flott und erkennt alle HDDs ohne jegliche Konfiguration einzeln, wie bei einem ganz normalen SATA-Controller. Ich habe also vollen Zugriff auf jeden Sektor und auch auf SMART-Werte usw, was bei RAID-Controllern oft nicht der Fall ist. Das eigentliche RAID erstelle ich dann mit mdadm unter Ubuntu.
- Als Grafikkarte arbeitet (neben der Prozessorgrafik HD4000 für das Linux-Hauptsystem) eine AMD HD7750 für das Windows, genau genommen ist es eine Sapphire Ultimate Radeon HD 7750 mit 1GB GDDR5 und passiver Kühlung. Der Stromverbrauch ist niedrig (braucht nicht mal einen eigenen Stromanschluss), im Leerlauf begnügt sie sich mit ein paar Watt (unterer einstelliger Bereich) und es ist die wohl leistungsfähigste Passiv-Grafikkarte momentan.
- Außerdem sitzt noch eine USV vor dem ganzen, APC Back-UPS Pro 550 BR550GI, die sich bei Stromausfall und Netzschwankungen um die stabile Versorgung und das saubere Herunterfahren kümmert.

Die Software:
Als Hauptsystem läuft Ubuntu 12.10. Der Kernel braucht den Bootparameter "intel_iommu=on" in GRUB, um VT-d zu aktivieren. Das Datengrab wird als Software-RAID mit mdadm zusammengeschaltet. Das ganze System ist komplett mit LUKS verschlüsselt. Die zweite SSD für Windows und das Datengrab-RAID sind ebenfalls mit LUKS verschlüsselt, wobei man mit dem Passwort entschlüsseln kann, aber beim Systemstart wird nach Eingabe des Passworts für das System auch gleich per Schlüsselableitung die zweite SSD und das RAID mit entschlüsselt. Für die Virtualisierung wird KVM benutzt. Dafür nutze ich qemu-kvm, das Verwalten mache ich per grafischer Oberfläche mit dem virt-manager, alles andere ist doch ein ziemliches Gefrickel in den Konfigurationsdateien. Die Komponenten, die durchgeschliffen werden sollen (z.B. die Grafikkarte) dürfen vom Linux nicht benutzt werden. Ich habe zwar Videos gesehen, wo Leute das auch gemacht haben, aber bei mir hat es nicht funktioniert. Daher muss man die Module für die Komponenten blacklisten. Speziell das Modul "radeon" muss für meine Grafikkarte geblacklistet werden. In den BIOS-Einstellungen stelle ich außerdem ein, dass die integrierte Grafik auch laufen soll und die Haupgrafik ist, wenn eine weitere Grafikkarte installiert ist. So nutzt Linux die Prozessorgrafik, im virt-manager kann ich dann das Durchreichen der PCI-Geräte einrichten und die beiden PCI-Geräte, als die sich die Grafikkarte ausgibt, an die virtuelle Maschine weiterreichen. Außerdem lasse ich die USB-Geräte "Maus" und "Tastatur" weiterreichen. So lange der Gast läuft, frieren die beiden also unter Ubuntu ein und stehen dem Gast direkt zur Verfügung. Soweit möglich werden im Gastsystem paravirtualisierte Komponenten genutzt. Das benötigt zwar spezielle Treiber, spart dafür aber Virtualisierungsaufwand und sollte die Performance erhöhen. Die CPU-Konfiguration von qemu-kvm bzw. virt-manager ist auch angepasst und eine Kopie der echten CPU-Einstellungen. Bringt wohl auch Performance, Windows 8 bootet wohl sogar ohne gar nicht. Das sagt auch schon mein Gast-Betriebssystem - es ist Windows 8 Pro mit Media Center. Windows scheint dank "Ballooning-Treiber" auch den nicht genutzten RAM korrekt an das Host-System zurückzugeben! Cool. :)

Das Ergebnis:
Ja, was soll ich sagen? Es läuft :) Und zwar absolut flüssig. Keine Lags, Ruckler, ... da alles dafür zuständige vernünftig virtualisiert bzw. in echter Hardware bereitgestellt wird. Hier mal ein Bild vom Windows Leistungsindex:
leistungsindex.jpg
Verdammt flott für eine virtuelle Maschine mit kompletter Systemverschlüsselung!
AS SSD ist leider nicht sehr aussagekräftig...
as ssd.jpgas ssd2.jpg
Insbesondere die Werte bei sequentiellem Schreiben und Lesen schwanken zwischen 150 und 1500MB/s. Da ein Schreib- und Lesecache (Writeback) in der Virtualisierung eingeschaltet ist, wird dieser die Zugriffe abfangen. Die weiteren Ergebnisse sind aber schon aussagekräftiger und für eine Vollverschlüsselung und erst Recht Virtualisierung eigentlich ziemlich gut!

Weitere Performancemessungen mache ich demnächst mal.

Stromverbrauch (nur Rechner) liegt bei knapp unter 40W mit nur Linux und HDDs im Standby. 62W wenn die HDDs laufen und das System idlet. Läuft Windows (und damit auch die Grafikkarte), komme ich auf ca. 88W. Unter Last steigt der Stromverbrauch auf bis 172W unter Volllast (Furmark & Prime95in Windows). Um die CPU-Temperatur muss man sich quasi nicht kümmern, die der Grafikkarte kommt unter Furmark auch nicht über 65°C nach knapp 20 Minuten Auslastung. Da werde ich vielleicht nochmal ein bisschen übertakten, geht ja direkt im Treiber.
Die CPU-Lüfter dreht je nach Last mit 1030 bis 1130 U/min, die Gehäuselüfter mit 320-400 U/min. Das scheint auszureichen... Die CPU-Cores bleibt auch bei langer Prime-Auslastung unter 75°C, meist unter 65°C. Gehäusetemperatur muss ich nochmal genauer beobachten, insbesondere wenn die passive Grafikkarte noch mitheizt. Derzeit komme ich auf maximal 47°C, so weit also auch ok. Die HDDs sitzen direkt hinter zwei ins Gehäuse blasenden Lüftern und haben angenehm frische 34°C. Lediglich die Mushkin SSD geht auch mal bis 43°C hoch (so ein Hitzkopf ;)). Die Samsung SSD habe ich interessanterweise gerade nicht in der Statistik bzw. sie liefert "not a number" zurück. Vielleicht hat sie keinen Temperatursensor.

Das Ding steht am anderen Ende meines Raumes und ist so leise, dass man ihn fast überhaupt nicht hört. Lediglich die Festplatten kann man trotz Entkopplung und Dämmung noch leise vernehmen. Aber ich bin schon erstaunt, wie leise es geht.

Durchreichen des Firewire-Controllers und der Soundkarte klappt auch (nach blacklisten der dazugehörigen Module in Linux), die Soundkarte und alle angeschlossenen Geräte an Firewire werden also direkt ohne Linux-Umweg von Windows angesprochen. VT-d sei dank :)

[Fortsetzung im nächsten Post, dieser hier wird zu lang und die Forensoftware meckert...]
 
Zuletzt bearbeitet:
Die Probleme:
Leider hat das ganze doch noch so einige Bugs...
- Neustarts machen Probleme bzw. allgemein ein Start, wenn die Maschine schon mal gestartet war. Sehr oft (fast immer) friert das gesamte System dann komplett ein. Ich habe irgendwann auch schon mal in den Logs geschaut, weiß ich gerade aber nicht mehr genau. Meine, das lag am VT-d. Aber genau weiß ich es nicht mehr. Es friert aber wirklich ALLES ein, wusste gar nicht, dass so viel einfrieren kann. Nicht nur, dass sich sowohl im Gast als auch im Hostsystem nichts mehr tut, selbst der Stromverbrauch friert beim letzten Wert ein und nicht mal der Reset-Taster am Rechner funktioniert dann noch (!). Nur 4 Sek. gedrückt halten hilft. Da wie gesagt sogar der Reset-Taster nicht mehr geht, scheint selbst das Mainboard in einen undefinierbaren Zustand zu fallen. Das heißt aber leider, dass man nach dem Herunterfahren der virtuellen Maschine den ganzen Rechner neustarten sollte, bevor man die virtuelle Maschine wieder startet. Vielleicht wird das mit neueren Versionen von KVM bzw. dem Kernel noch besser. KVM ist ja noch recht jung und in der Entwicklung, insbesondere PCIe-Passthrough ist doch eher noch experimentell.
- Windows erkennt nicht, dass es sich um eine SSD handelt. Defragmentierung habe ich schon abgeschaltet. Muss nochmal schauen, was noch so fehlt. TRIM geht so natürlich auch nicht, nicht mal manuelles TRIM mit dem Samsung SSD Magician. Habe auch noch keine Idee, wie ich das lösen kann.
- Wenn die Grafikkarte im PCIe 3.0 x16 Slot steckt, wird der SAS/SATA-Controller im PCIe 2.0 x4 Slot nicht mehr erkannt. Controller-Firmware und Mainboard-BIOS habe ich aktualisiert, ohne Veränderung. Wenn die Grafikkarte nicht drin steckt, wird der Controller in beiden Slots gefunden. Habe jetzt die Grafikkarte im x4-Slot und den Controller im x16-Slot. Das funktioniert komischerweise... Muss ich mich wohl mal hinterklemmen - für mich kann sich das dabei nur um ein BIOS-Problem handeln.
- Die Standard "Cirrus 9MB" Grafik, die eigentlich für die VNC-Verbindung als virtuelle Grafikkarte eingefügt wird, darf ich nicht entfernen. Sonst bootet das System nicht mehr. Keine Ahnung warum. Aber ok, habe ich halt immer noch einen angeblichen 1024x768 Monitor, in den Monitoreinstellungen, dem ich aber kein Bild zuweise.
- Die Grafikkarte darf während der Windows-Installation noch nicht eingefügt sein in der virtuellen Maschine. Sonst bootet Windows nach dem Setup nicht. Erst wenn Windows vollständig installiert ist, darf die Grafikkarte dazukommen.
- Bei einigen Tests habe ich den ganzen USB-3-Controller vom Mainboard an Windows weitergereicht. Alle USB2-Ports des Mainboards waren dann mit Linux verbunden, die USB3-Ports mit voller USB3-Geschwindigkeit mit Windows. Man konnte also anhand des Anschlusses wählen, an welches der beiden Betriebssysteme die USB-Komponenten angeschlossen werden sollen. Das klappt mit dem neuen Mainboard nicht mehr, weil dem USB-3-Controller irgendeine spezielle Reset-Funktion fehlt... Werde jetzt wohl noch einen weiteren USB-3-Controller einbauen, um die Funktionalität wiederherzustellen. Sonst muss ich jede USB-Komponente einzeln und manuell im virt-manager durchreichen, Hot-Plug ist dann nicht...
- Die Beleung des RAMs kann der Taskmanager unter Windows nicht korrekt anzeigen. Vermutlich durch den Ballooning Treiber. Die einzelnen Anwendungen scheinen zu passen, die Gesamtauslastung liegt aber angeblich immer bei 5,9-6,0 GB von 8GB. Egal, wie es wirklich aussieht.
- Nach ca. 2 Stunden Benutzung hatte ich einen Absturz mit "Bluescreen". Fehlercode 0xa0000001. Das Internet sagt, vermutlich ist der Grafiktreiber Schuld. Zufall? Oder wegen der Virtualisierung? Unter Ubuntu gab es gleichzeitig auch einen Fehler, die Verbindung zum Virtualisierungs-Dienst ist abgebrochen, "Fehler beim Aktualisieren der Hardware-Seite: Cannot write data: Datenübergabe unterbrochen (broken pipe)" steht hier noch. Die ganze Maschine lässt sich nicht mal mehr beenden... Eine nächste Stunde Benutzung und ich hab Grafikfehler in Chrome. Entweder ein Defekt der Grafikkarte oder wirklich ein tieferes Treiberproblem. Da sie sich per Screenshot einfangen lassen, schätze ich aber eher, dass es der Treiber ist.
grafikfehler.jpg
- Bei 100% CPU, GPU oder SSD-Auslastung wird das System arg ruckelig... Ruckeliger als normale Systeme auf 100% Auslastung und auch dann noch, wenn man die Prioritäten ändert.


Trotz einiger Bugs ist das für mich die optimale Kombi. Der Server-Teil hat genug Power, um bei größeren Anforderungen auch immer flott zu reagieren. Die potente Hardware braucht sich jetzt aber nicht mehr zu langweilen, weil eben auch noch eine Workstation drauf läuft. Macht Spaß. Und das ganze ist trotz Komplettverschlüsselung mit LUKS noch ziemlich performant.

Wer jetzt sagt: Das ganze ist doch verdammt teuer - ja, ist es. Aber es ist bei mir über die Jahre hinweg immer weiter gewachsen. Inzwischen bastele ich seit fast 5 Jahren an dem Ding und stecke immer mal wieder ein bisschen Geld rein, kaufe neue Komponenten und verkaufe die alten weiter usw. Wer sich so ein Ding "auf einmal" kauft, muss schon einen Batzen Geld auf den Tisch legen.

Vielleicht hat ja jemand Lust, auch mal das ganze auf einem Thinkpad auszuprobieren. Ein T- oder W-Thinkpad mit i7 und dedizierter Grafikkarte könnte das gleiche evtl. auch schaffen!

Bei AMD gibt es solche Funktionen übrigens auch (also mit VT-d vergleichbares). Allerdings kenne ich mich da nicht aus... Übrigens: Intel VT-x hat mit VT-d nichts (direkt) zu tun!
 
Zuletzt bearbeitet:
Ein paar Kommentare meiner Wenigkeit:

a) Dass mit den Intel-Mainboards und der größtmöglichen Linux-Kompatiblität .. naja. DAS stimmt so nicht wirklich. Habe da schon ganz üble Erfahrungen gemacht, deshalb verwend ich inwischen wieder ausschließlich Asus-Mainboards (Tyan gibt's hierzulande ja praktisch nicht mehr, sonst wären die auch bei mir auf der Liste). Wer aber vernünftig up-to-date - besonders was die Sensorik anbelangt - sein möchte, besorgt sich sowieso nen aktuelleren Kernel. Bei Ubuntu gibt's den praktischerweise schon vorkompiliert als Package ;)

Den einzigen "Aufwand", den man selber hat, ist das Durchtesten dieses jeweiligen Kernels und das Update von lm-sensors bzw. des sensor-Pakets (ggf. Neukompilierung aus den aktuellsten Quellen).

b) Zwecks Sound: Wenn du die Kiste ernsthaft nutzen willst, würd ich an deiner Stelle den Pulse Audio-Server entsorgen. Die üblen Probleme, die ich teilweise mit dem Drecksteil hatte und habe (bei starker Belastung bis hin zum Systemfreeze - EGAL auf welchem System), treten auf meiner "plain" GNU/Debian 6.0-Installation nie auf - dort ist auch selbiger Soundserver nicht vorhanden.

c) Virtualisierung: Warum nicht VirtualBox? Das war bis dato die stabilste Lösung. Außerdem kann man die entgegen anderer Annahmen auch komplett "headless" laufen lassen.

cu, w0lf.
 
zu a) Als jemand, der nicht sooo fit mit Linux ist, benutze ich lieber (abgesehen von einem kleinen Kernelexperiment letztens, welches mich aber nicht zum gewünschten Ziel brachte) die Standardkomponenten, die direkt zur Distribution gehören. Ohne modifizierten oder erneuerten Kernel usw. Ich weiß sonst nie, was beim nächsten Update wieder alles kaputtgehen wird :D

zu b) Naja, mein Ubuntu hat ja in dem Sinne eh gar keine Soundkarte mehr zur Verfügung. Die Module dafür stehen alle auf der Blacklist und die Soundkarte wird dann an die virtuelle Maschine weitergereicht. Ok, PulseAudio läuft dann vermutlich trotzdem, sollte aber ja wenig tun, oder? Deaktivieren kann natürlich auch nicht schaden, ich brauche es ja eh nicht.

zu c) KVM soll performanter und stabiler sein als VirtualBox. Ob es wirklich so ist? Das PCIe Passthrough geht aber wohl auch laut Internet. Vielleicht teste ich demnächst nochmal mit Virtual Box im Vergleich zu KVM!
 
zu a) Als jemand, der nicht sooo fit mit Linux ist, benutze ich lieber (abgesehen von einem kleinen Kernelexperiment letztens, welches mich aber nicht zum gewünschten Ziel brachte) die Standardkomponenten, die direkt zur Distribution gehören. Ohne modifizierten oder erneuerten Kernel usw. Ich weiß sonst nie, was beim nächsten Update wieder alles kaputtgehen wird :D

Kernel selber hab ich auch noch nicht gebaut, aber .. ein entspr. Paket runterladen und installieren? Kein Thema :D
Bei der Installation schreibt grub den Verweis zum alten Kernel ja auch in seine Konfiguration, d.h. du kannst, wenn das Teil nicht tut, wie soll, jederzeit nen Neustart in den bisherigen Kernel machen. und via dpkg -r deinstallieren.

Da ich ein sehr paranoider Benutzer bin, lass ich solchen Unfug wie "automatische Updates" erst gar nicht zu, sondern erledige das selbst. Was ich bis jetzt noch nicht gemacht habe, ist, die Kernelversion, d.h. das Paket als solches, zu sperren. Schlaue Anleitungen sagen einem genau, wie das geht. Kann ich bei Interesse mal rauskramen. Die normale "Versionserzwingung" in Synaptic reicht lt. diesen anscheinend nicht aus.

zu c) KVM soll performanter und stabiler sein als VirtualBox. Ob es wirklich so ist? Das PCIe Passthrough geht aber wohl auch laut Internet. Vielleicht teste ich demnächst nochmal mit Virtual Box im Vergleich zu KVM!

kvm .. jain. Meiner Erfahrung nach gilt das sicher für so Virtualisierungsfarmen und V-Server-Kram, aber wenn die Kiste bei dir um die Ecke steht .. VirtualBox zeigt mir zwar manchmal "Session abgebrochen" - wohlgemerkt nach dem regulären Herunterfahren der jeweiligen VM - an, aber das auch nur bei meiner Vista Business - und da crasht offensichtlich nix. Beim Neustart mockiert sich jedenfalls das System in keinster Weise.

cu, w0lf.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben