Achtung, wird ein längerer Text 
Zuerst die Vorgeschichte:
Schon seit Jahren bastele ich jetzt an meinem Server. Und von Anfang an war der Plan, dass der Server nicht nur Serverdienste übernimmt, sondern auch als Workstation fungieren kann.
Eine Workstation muss performant sein, sollte keine großen Kompromisse eingehen. Dafür sollte sie aber eigentlich nur laufen, wenn sie auch gebraucht wird. Ein Server sollte dagegen immer laufen. Allerdings sollte auch dieser performant sein, so dass er schnell arbeitet, wenn er mal gefordert wird. Viel Zeit idlet er aber auch.
Die erste Version meines Homeservers nutzte daher Windows Server 2008 (R2) als Hauptsystem, dann lief ein auf Fileserver spezialisiertes Linux ("Openfiler") unter vmware Server. Doch ich konnte mein RAID so nicht verschlüsseln, der Support für vmware Server wurde eingestellt, Openfiler hatte einige Bugs bei der Rechteverwaltung und die Serverperformance war nur so naja. Außerdem musste das Workstation-System so dauerhaft laufen, startete sich gelegentlich bei Windows Updates neu, verbot aufgrund restriktiver Serverbestimmungen so einige Anwendungen und das saubere Herunterfahren inkl. der virtuellen Maschine funktionierte auch nicht zuverlässig. Das Durchschleifen echter HDDs an die virtuelle Maschine funktionierte auch nur über Tricks, aber warum sollte mein Fileserver mit virtuellen HDDs arbeiten? Größtes Problem war dann, als eine HDD ausfiel. Dann ließ sich die virtuelle Maschine nicht mehr benutzen, es hagelte Fehlermeldungen von der Virtualisierung. Was bringt einem ein RAID, wenn man dann trotzdem nicht mehr auf seine Daten zugreifen kann?
Seit dem läuft Ubuntu als Hauptsystem auf meinem Server und einige weitere Hardwarewechsel/-aufrüstungen hat mein Server auch hinter sich. Die Leistung ist super, wenn er gefordert wird. WENN. Die meiste Zeit idlet aber alles. Also kam wieder der Gedanke, warum nicht noch eine Workstation inkl. "Gaming"-Möglichkeiten einrichten? Ich habe aber keine Lust, mir jetzt für alle meine Programme Alternativen zu suchen oder mich mit WINE rumzuschlagen, um am Ende doch die Hälfte nicht zum Laufen zu bekommen. Also wieder der Gedanke an die Virtualisierung. Doch wie ein Windows virtualisieren, ohne per VNC mit entsprechendem Lag und fehlender 3D-Beschleunigung zugreifen zu müssen? Inzwischen gibt es neue Möglichkeiten in der Hardware und neue Möglichkeiten in der Software...
Der Plan:
Der Plan ist/war dann, eine virtuelle Maschine unter dem dauerhaft laufenden Linux (Ubuntu) einzurichten, die zum Teil aber exklusiven Zugriff auf echte Hardware bekommt, wie z.B. auf die Grafikkarte. Dank neuer Hardwarevirtualisierungsfunktionen und entsprechender darauf aufbauender Software, sollte die Performance inzwischen gut sein. Wenn es denn funktioniert... Ein paar Versuche hatte ich schon mal mit Hypervisoren gemacht, aber das hatte immer so naja geklappt. Inzwischen sieht das ganze anders aus. Ein Versuch mit vmware ESXi hat geklappt, Xen sah auch gut aus, bin jetzt aber doch wieder bei KVM unter Linux gelandet, das sieht am vielversprechendsten für die Zukunft aus.
Ein Linux soll also nativ auf der Maschine laufen und die Zugriffe auf CPU und RAM verwalten, außerdem die Fileserverdienste bereitstellen. Der größte Teil der Ressourcen soll aber dann bei Bedarf von der "Workstation" genutzt werden können, insbesondere die Grafikkarte.
Die ersten Ergebnisse:
Die ersten Ergebnisse waren ernüchternd. Das Durchreichen von echter Hardware an virtuelle Maschinen sollte zwar mit meiner Hardware funktionieren, in der Praxis klappte es mit der ausgeliehenen Grafikkarte zum Testen aber überhaupt nicht. Das virtuelle System fand die ATI X600 zwar, konnte sie aber nicht initialisieren, Treiber installieren oder irgendwie ansprechen. Doch genau das war ja das wichtigste... Es klappte nicht unter Ubuntu mit KVM, nicht unter ESXi und nicht unter Xen. Eine Recherche im Internet zeigte: Das Durchreichen von Komponenten wird zwar unterstützt, außer das Durchreichen von Grafikkarten. Hier muss das Video-BIOS initialisiert werden, was nicht korrekt abläuft. Aber sollte es hier schon am Ende sein? Die Grafikkarte war natürlich uralt... Also habe ich mir noch eine ausgeliehen, eine ATI HD3850. Schon ein Stück neuer. Und siehe da! Es geht! Ich bekomme Bild von der virtuellen Maschine aus der echten Grafikkarte.
Die jetzige Hardware:
- CPU: Intel Core-i7 3770. Eine der wenigen CPUs, die das nötige VT-d unterstützen. Das können nur die i7-Prozessoren, aber nicht die K-Modelle...
- RAM: derzeit 16GB DDR3-1333, sollen aber noch auf 32GB DDR3-1600 aufgerüstet werden (Hatte ich sogar schon drin, das Kit war leider aber kaputt, memtest fand Fehler). Einige meiner Serverdienste schlucken schon zwischen 8 und 16GB und 8-16GB für die Workstation wären auch nicht schlecht.
- Mainboard: Intel DQ77MK. Ein Mainboard mit möglichst vielen Komponenten von Intel ist immer sinnvoll, da hier die Linux-Unterstützung am einfachsten und besten ist. Außerdem haben Mainboards von Intel den Vorteil, dass sie auch auf die Virtualisierungsfunktionen ausgelegt sind. Bei Mainboards anderer Hersteller kann einem ein schlecht programmiertes BIOS schon mal einen Strich durch die Rechnung machen. Laut Intel haben auch ausschließlich die Q-Chipsätze (Q45, Q57, Q67, Q77) die Intel VT-d-Funktion, die ich für das Durchreichen benötige. Im Internet gibt es aber Berichte, dass der Z77-Chipsatz auch gehen soll.
- Das ganze sollte auch möglichst leise sein, damit der Server in meinem Zimmer stehen und 24 Stunden laufen kann, ohne dass es mir den Schlaf raubt. Entsprechende Kühler von Noctua (3x 140mm Gehäuselüfter, 2x 92mm CPU-Lüfter, alle an "Ultra Low Noise Adaptern) sowie ein gedämmtes Gehäuse mit entkoppelten Festplattenslots (Lian Li V650B in der Caseking-Dämmung-Version) sorgen dafür.
- Auch das Netzteil sollte leise sein und effizient, bei 24 Std. Betrieb macht das eine oder andere Watt schon was aus. Ein be quiet! Straight Power CM BQT E9-CM-480W verrichtet nun seinen Dienst, lässt sich dank Kabelmanagement gut sortieren und ist dank 80+ Gold Zertifizierung sehr effizient (bis 92,5% Wirkungsgrad). Das spart Strom und produziert außerdem weniger Wärme, so dass es dank 135mm "Silent" Lüfter eigentlich unhörbar bleibt.
- Für das Linux Betriebssystem arbeitet schon lange eine Mushkin Chronos 120GB SSD, für das virtuelle Windows ist nun noch eine Samsung 840 Pro 256GB dazugekommen. Im "Datengrab" arbeiten 8x Samsung SpinPoint F4 EcoGreen 2TB HD204UI. Die habe ich glücklicherweise noch vor der Flutkatastrophe bekommen. Im RAID6 bleiben davon 12TB nutzbar. Es sind die Modelle mit 5400rpm, also leise und stromsparend. Angeschlossen sind die HDDs an einem SAS/SATA-Controller, genauer: IBM ServeRAID M1015. Dieser ist recht günstig und hat die gleiche Hardware verbaut wie zwei Modelle von LSI, so dass ich dann den IBM M1015 zu einem LSI 9211-8i "gecrossflasht" habe. Dabei habe ich die IT-Firmware genommen (kein RAID-Funktionalität) und das Controller-BIOS komplett entfernt. Dadurch bootet das System flott und erkennt alle HDDs ohne jegliche Konfiguration einzeln, wie bei einem ganz normalen SATA-Controller. Ich habe also vollen Zugriff auf jeden Sektor und auch auf SMART-Werte usw, was bei RAID-Controllern oft nicht der Fall ist. Das eigentliche RAID erstelle ich dann mit mdadm unter Ubuntu.
- Als Grafikkarte arbeitet (neben der Prozessorgrafik HD4000 für das Linux-Hauptsystem) eine AMD HD7750 für das Windows, genau genommen ist es eine Sapphire Ultimate Radeon HD 7750 mit 1GB GDDR5 und passiver Kühlung. Der Stromverbrauch ist niedrig (braucht nicht mal einen eigenen Stromanschluss), im Leerlauf begnügt sie sich mit ein paar Watt (unterer einstelliger Bereich) und es ist die wohl leistungsfähigste Passiv-Grafikkarte momentan.
- Außerdem sitzt noch eine USV vor dem ganzen, APC Back-UPS Pro 550 BR550GI, die sich bei Stromausfall und Netzschwankungen um die stabile Versorgung und das saubere Herunterfahren kümmert.
Die Software:
Als Hauptsystem läuft Ubuntu 12.10. Der Kernel braucht den Bootparameter "intel_iommu=on" in GRUB, um VT-d zu aktivieren. Das Datengrab wird als Software-RAID mit mdadm zusammengeschaltet. Das ganze System ist komplett mit LUKS verschlüsselt. Die zweite SSD für Windows und das Datengrab-RAID sind ebenfalls mit LUKS verschlüsselt, wobei man mit dem Passwort entschlüsseln kann, aber beim Systemstart wird nach Eingabe des Passworts für das System auch gleich per Schlüsselableitung die zweite SSD und das RAID mit entschlüsselt. Für die Virtualisierung wird KVM benutzt. Dafür nutze ich qemu-kvm, das Verwalten mache ich per grafischer Oberfläche mit dem virt-manager, alles andere ist doch ein ziemliches Gefrickel in den Konfigurationsdateien. Die Komponenten, die durchgeschliffen werden sollen (z.B. die Grafikkarte) dürfen vom Linux nicht benutzt werden. Ich habe zwar Videos gesehen, wo Leute das auch gemacht haben, aber bei mir hat es nicht funktioniert. Daher muss man die Module für die Komponenten blacklisten. Speziell das Modul "radeon" muss für meine Grafikkarte geblacklistet werden. In den BIOS-Einstellungen stelle ich außerdem ein, dass die integrierte Grafik auch laufen soll und die Haupgrafik ist, wenn eine weitere Grafikkarte installiert ist. So nutzt Linux die Prozessorgrafik, im virt-manager kann ich dann das Durchreichen der PCI-Geräte einrichten und die beiden PCI-Geräte, als die sich die Grafikkarte ausgibt, an die virtuelle Maschine weiterreichen. Außerdem lasse ich die USB-Geräte "Maus" und "Tastatur" weiterreichen. So lange der Gast läuft, frieren die beiden also unter Ubuntu ein und stehen dem Gast direkt zur Verfügung. Soweit möglich werden im Gastsystem paravirtualisierte Komponenten genutzt. Das benötigt zwar spezielle Treiber, spart dafür aber Virtualisierungsaufwand und sollte die Performance erhöhen. Die CPU-Konfiguration von qemu-kvm bzw. virt-manager ist auch angepasst und eine Kopie der echten CPU-Einstellungen. Bringt wohl auch Performance, Windows 8 bootet wohl sogar ohne gar nicht. Das sagt auch schon mein Gast-Betriebssystem - es ist Windows 8 Pro mit Media Center. Windows scheint dank "Ballooning-Treiber" auch den nicht genutzten RAM korrekt an das Host-System zurückzugeben! Cool.
Das Ergebnis:
Ja, was soll ich sagen? Es läuft
Und zwar absolut flüssig. Keine Lags, Ruckler, ... da alles dafür zuständige vernünftig virtualisiert bzw. in echter Hardware bereitgestellt wird. Hier mal ein Bild vom Windows Leistungsindex:

Verdammt flott für eine virtuelle Maschine mit kompletter Systemverschlüsselung!
AS SSD ist leider nicht sehr aussagekräftig...


Insbesondere die Werte bei sequentiellem Schreiben und Lesen schwanken zwischen 150 und 1500MB/s. Da ein Schreib- und Lesecache (Writeback) in der Virtualisierung eingeschaltet ist, wird dieser die Zugriffe abfangen. Die weiteren Ergebnisse sind aber schon aussagekräftiger und für eine Vollverschlüsselung und erst Recht Virtualisierung eigentlich ziemlich gut!
Weitere Performancemessungen mache ich demnächst mal.
Stromverbrauch (nur Rechner) liegt bei knapp unter 40W mit nur Linux und HDDs im Standby. 62W wenn die HDDs laufen und das System idlet. Läuft Windows (und damit auch die Grafikkarte), komme ich auf ca. 88W. Unter Last steigt der Stromverbrauch auf bis 172W unter Volllast (Furmark & Prime95in Windows). Um die CPU-Temperatur muss man sich quasi nicht kümmern, die der Grafikkarte kommt unter Furmark auch nicht über 65°C nach knapp 20 Minuten Auslastung. Da werde ich vielleicht nochmal ein bisschen übertakten, geht ja direkt im Treiber.
Die CPU-Lüfter dreht je nach Last mit 1030 bis 1130 U/min, die Gehäuselüfter mit 320-400 U/min. Das scheint auszureichen... Die CPU-Cores bleibt auch bei langer Prime-Auslastung unter 75°C, meist unter 65°C. Gehäusetemperatur muss ich nochmal genauer beobachten, insbesondere wenn die passive Grafikkarte noch mitheizt. Derzeit komme ich auf maximal 47°C, so weit also auch ok. Die HDDs sitzen direkt hinter zwei ins Gehäuse blasenden Lüftern und haben angenehm frische 34°C. Lediglich die Mushkin SSD geht auch mal bis 43°C hoch (so ein Hitzkopf
). Die Samsung SSD habe ich interessanterweise gerade nicht in der Statistik bzw. sie liefert "not a number" zurück. Vielleicht hat sie keinen Temperatursensor.
Das Ding steht am anderen Ende meines Raumes und ist so leise, dass man ihn fast überhaupt nicht hört. Lediglich die Festplatten kann man trotz Entkopplung und Dämmung noch leise vernehmen. Aber ich bin schon erstaunt, wie leise es geht.
Durchreichen des Firewire-Controllers und der Soundkarte klappt auch (nach blacklisten der dazugehörigen Module in Linux), die Soundkarte und alle angeschlossenen Geräte an Firewire werden also direkt ohne Linux-Umweg von Windows angesprochen. VT-d sei dank
[Fortsetzung im nächsten Post, dieser hier wird zu lang und die Forensoftware meckert...]

Zuerst die Vorgeschichte:
Schon seit Jahren bastele ich jetzt an meinem Server. Und von Anfang an war der Plan, dass der Server nicht nur Serverdienste übernimmt, sondern auch als Workstation fungieren kann.
Eine Workstation muss performant sein, sollte keine großen Kompromisse eingehen. Dafür sollte sie aber eigentlich nur laufen, wenn sie auch gebraucht wird. Ein Server sollte dagegen immer laufen. Allerdings sollte auch dieser performant sein, so dass er schnell arbeitet, wenn er mal gefordert wird. Viel Zeit idlet er aber auch.
Die erste Version meines Homeservers nutzte daher Windows Server 2008 (R2) als Hauptsystem, dann lief ein auf Fileserver spezialisiertes Linux ("Openfiler") unter vmware Server. Doch ich konnte mein RAID so nicht verschlüsseln, der Support für vmware Server wurde eingestellt, Openfiler hatte einige Bugs bei der Rechteverwaltung und die Serverperformance war nur so naja. Außerdem musste das Workstation-System so dauerhaft laufen, startete sich gelegentlich bei Windows Updates neu, verbot aufgrund restriktiver Serverbestimmungen so einige Anwendungen und das saubere Herunterfahren inkl. der virtuellen Maschine funktionierte auch nicht zuverlässig. Das Durchschleifen echter HDDs an die virtuelle Maschine funktionierte auch nur über Tricks, aber warum sollte mein Fileserver mit virtuellen HDDs arbeiten? Größtes Problem war dann, als eine HDD ausfiel. Dann ließ sich die virtuelle Maschine nicht mehr benutzen, es hagelte Fehlermeldungen von der Virtualisierung. Was bringt einem ein RAID, wenn man dann trotzdem nicht mehr auf seine Daten zugreifen kann?
Seit dem läuft Ubuntu als Hauptsystem auf meinem Server und einige weitere Hardwarewechsel/-aufrüstungen hat mein Server auch hinter sich. Die Leistung ist super, wenn er gefordert wird. WENN. Die meiste Zeit idlet aber alles. Also kam wieder der Gedanke, warum nicht noch eine Workstation inkl. "Gaming"-Möglichkeiten einrichten? Ich habe aber keine Lust, mir jetzt für alle meine Programme Alternativen zu suchen oder mich mit WINE rumzuschlagen, um am Ende doch die Hälfte nicht zum Laufen zu bekommen. Also wieder der Gedanke an die Virtualisierung. Doch wie ein Windows virtualisieren, ohne per VNC mit entsprechendem Lag und fehlender 3D-Beschleunigung zugreifen zu müssen? Inzwischen gibt es neue Möglichkeiten in der Hardware und neue Möglichkeiten in der Software...
Der Plan:
Der Plan ist/war dann, eine virtuelle Maschine unter dem dauerhaft laufenden Linux (Ubuntu) einzurichten, die zum Teil aber exklusiven Zugriff auf echte Hardware bekommt, wie z.B. auf die Grafikkarte. Dank neuer Hardwarevirtualisierungsfunktionen und entsprechender darauf aufbauender Software, sollte die Performance inzwischen gut sein. Wenn es denn funktioniert... Ein paar Versuche hatte ich schon mal mit Hypervisoren gemacht, aber das hatte immer so naja geklappt. Inzwischen sieht das ganze anders aus. Ein Versuch mit vmware ESXi hat geklappt, Xen sah auch gut aus, bin jetzt aber doch wieder bei KVM unter Linux gelandet, das sieht am vielversprechendsten für die Zukunft aus.
Ein Linux soll also nativ auf der Maschine laufen und die Zugriffe auf CPU und RAM verwalten, außerdem die Fileserverdienste bereitstellen. Der größte Teil der Ressourcen soll aber dann bei Bedarf von der "Workstation" genutzt werden können, insbesondere die Grafikkarte.
Die ersten Ergebnisse:
Die ersten Ergebnisse waren ernüchternd. Das Durchreichen von echter Hardware an virtuelle Maschinen sollte zwar mit meiner Hardware funktionieren, in der Praxis klappte es mit der ausgeliehenen Grafikkarte zum Testen aber überhaupt nicht. Das virtuelle System fand die ATI X600 zwar, konnte sie aber nicht initialisieren, Treiber installieren oder irgendwie ansprechen. Doch genau das war ja das wichtigste... Es klappte nicht unter Ubuntu mit KVM, nicht unter ESXi und nicht unter Xen. Eine Recherche im Internet zeigte: Das Durchreichen von Komponenten wird zwar unterstützt, außer das Durchreichen von Grafikkarten. Hier muss das Video-BIOS initialisiert werden, was nicht korrekt abläuft. Aber sollte es hier schon am Ende sein? Die Grafikkarte war natürlich uralt... Also habe ich mir noch eine ausgeliehen, eine ATI HD3850. Schon ein Stück neuer. Und siehe da! Es geht! Ich bekomme Bild von der virtuellen Maschine aus der echten Grafikkarte.
Die jetzige Hardware:
- CPU: Intel Core-i7 3770. Eine der wenigen CPUs, die das nötige VT-d unterstützen. Das können nur die i7-Prozessoren, aber nicht die K-Modelle...
- RAM: derzeit 16GB DDR3-1333, sollen aber noch auf 32GB DDR3-1600 aufgerüstet werden (Hatte ich sogar schon drin, das Kit war leider aber kaputt, memtest fand Fehler). Einige meiner Serverdienste schlucken schon zwischen 8 und 16GB und 8-16GB für die Workstation wären auch nicht schlecht.
- Mainboard: Intel DQ77MK. Ein Mainboard mit möglichst vielen Komponenten von Intel ist immer sinnvoll, da hier die Linux-Unterstützung am einfachsten und besten ist. Außerdem haben Mainboards von Intel den Vorteil, dass sie auch auf die Virtualisierungsfunktionen ausgelegt sind. Bei Mainboards anderer Hersteller kann einem ein schlecht programmiertes BIOS schon mal einen Strich durch die Rechnung machen. Laut Intel haben auch ausschließlich die Q-Chipsätze (Q45, Q57, Q67, Q77) die Intel VT-d-Funktion, die ich für das Durchreichen benötige. Im Internet gibt es aber Berichte, dass der Z77-Chipsatz auch gehen soll.
- Das ganze sollte auch möglichst leise sein, damit der Server in meinem Zimmer stehen und 24 Stunden laufen kann, ohne dass es mir den Schlaf raubt. Entsprechende Kühler von Noctua (3x 140mm Gehäuselüfter, 2x 92mm CPU-Lüfter, alle an "Ultra Low Noise Adaptern) sowie ein gedämmtes Gehäuse mit entkoppelten Festplattenslots (Lian Li V650B in der Caseking-Dämmung-Version) sorgen dafür.
- Auch das Netzteil sollte leise sein und effizient, bei 24 Std. Betrieb macht das eine oder andere Watt schon was aus. Ein be quiet! Straight Power CM BQT E9-CM-480W verrichtet nun seinen Dienst, lässt sich dank Kabelmanagement gut sortieren und ist dank 80+ Gold Zertifizierung sehr effizient (bis 92,5% Wirkungsgrad). Das spart Strom und produziert außerdem weniger Wärme, so dass es dank 135mm "Silent" Lüfter eigentlich unhörbar bleibt.
- Für das Linux Betriebssystem arbeitet schon lange eine Mushkin Chronos 120GB SSD, für das virtuelle Windows ist nun noch eine Samsung 840 Pro 256GB dazugekommen. Im "Datengrab" arbeiten 8x Samsung SpinPoint F4 EcoGreen 2TB HD204UI. Die habe ich glücklicherweise noch vor der Flutkatastrophe bekommen. Im RAID6 bleiben davon 12TB nutzbar. Es sind die Modelle mit 5400rpm, also leise und stromsparend. Angeschlossen sind die HDDs an einem SAS/SATA-Controller, genauer: IBM ServeRAID M1015. Dieser ist recht günstig und hat die gleiche Hardware verbaut wie zwei Modelle von LSI, so dass ich dann den IBM M1015 zu einem LSI 9211-8i "gecrossflasht" habe. Dabei habe ich die IT-Firmware genommen (kein RAID-Funktionalität) und das Controller-BIOS komplett entfernt. Dadurch bootet das System flott und erkennt alle HDDs ohne jegliche Konfiguration einzeln, wie bei einem ganz normalen SATA-Controller. Ich habe also vollen Zugriff auf jeden Sektor und auch auf SMART-Werte usw, was bei RAID-Controllern oft nicht der Fall ist. Das eigentliche RAID erstelle ich dann mit mdadm unter Ubuntu.
- Als Grafikkarte arbeitet (neben der Prozessorgrafik HD4000 für das Linux-Hauptsystem) eine AMD HD7750 für das Windows, genau genommen ist es eine Sapphire Ultimate Radeon HD 7750 mit 1GB GDDR5 und passiver Kühlung. Der Stromverbrauch ist niedrig (braucht nicht mal einen eigenen Stromanschluss), im Leerlauf begnügt sie sich mit ein paar Watt (unterer einstelliger Bereich) und es ist die wohl leistungsfähigste Passiv-Grafikkarte momentan.
- Außerdem sitzt noch eine USV vor dem ganzen, APC Back-UPS Pro 550 BR550GI, die sich bei Stromausfall und Netzschwankungen um die stabile Versorgung und das saubere Herunterfahren kümmert.
Die Software:
Als Hauptsystem läuft Ubuntu 12.10. Der Kernel braucht den Bootparameter "intel_iommu=on" in GRUB, um VT-d zu aktivieren. Das Datengrab wird als Software-RAID mit mdadm zusammengeschaltet. Das ganze System ist komplett mit LUKS verschlüsselt. Die zweite SSD für Windows und das Datengrab-RAID sind ebenfalls mit LUKS verschlüsselt, wobei man mit dem Passwort entschlüsseln kann, aber beim Systemstart wird nach Eingabe des Passworts für das System auch gleich per Schlüsselableitung die zweite SSD und das RAID mit entschlüsselt. Für die Virtualisierung wird KVM benutzt. Dafür nutze ich qemu-kvm, das Verwalten mache ich per grafischer Oberfläche mit dem virt-manager, alles andere ist doch ein ziemliches Gefrickel in den Konfigurationsdateien. Die Komponenten, die durchgeschliffen werden sollen (z.B. die Grafikkarte) dürfen vom Linux nicht benutzt werden. Ich habe zwar Videos gesehen, wo Leute das auch gemacht haben, aber bei mir hat es nicht funktioniert. Daher muss man die Module für die Komponenten blacklisten. Speziell das Modul "radeon" muss für meine Grafikkarte geblacklistet werden. In den BIOS-Einstellungen stelle ich außerdem ein, dass die integrierte Grafik auch laufen soll und die Haupgrafik ist, wenn eine weitere Grafikkarte installiert ist. So nutzt Linux die Prozessorgrafik, im virt-manager kann ich dann das Durchreichen der PCI-Geräte einrichten und die beiden PCI-Geräte, als die sich die Grafikkarte ausgibt, an die virtuelle Maschine weiterreichen. Außerdem lasse ich die USB-Geräte "Maus" und "Tastatur" weiterreichen. So lange der Gast läuft, frieren die beiden also unter Ubuntu ein und stehen dem Gast direkt zur Verfügung. Soweit möglich werden im Gastsystem paravirtualisierte Komponenten genutzt. Das benötigt zwar spezielle Treiber, spart dafür aber Virtualisierungsaufwand und sollte die Performance erhöhen. Die CPU-Konfiguration von qemu-kvm bzw. virt-manager ist auch angepasst und eine Kopie der echten CPU-Einstellungen. Bringt wohl auch Performance, Windows 8 bootet wohl sogar ohne gar nicht. Das sagt auch schon mein Gast-Betriebssystem - es ist Windows 8 Pro mit Media Center. Windows scheint dank "Ballooning-Treiber" auch den nicht genutzten RAM korrekt an das Host-System zurückzugeben! Cool.

Das Ergebnis:
Ja, was soll ich sagen? Es läuft


Verdammt flott für eine virtuelle Maschine mit kompletter Systemverschlüsselung!
AS SSD ist leider nicht sehr aussagekräftig...


Insbesondere die Werte bei sequentiellem Schreiben und Lesen schwanken zwischen 150 und 1500MB/s. Da ein Schreib- und Lesecache (Writeback) in der Virtualisierung eingeschaltet ist, wird dieser die Zugriffe abfangen. Die weiteren Ergebnisse sind aber schon aussagekräftiger und für eine Vollverschlüsselung und erst Recht Virtualisierung eigentlich ziemlich gut!
Weitere Performancemessungen mache ich demnächst mal.
Stromverbrauch (nur Rechner) liegt bei knapp unter 40W mit nur Linux und HDDs im Standby. 62W wenn die HDDs laufen und das System idlet. Läuft Windows (und damit auch die Grafikkarte), komme ich auf ca. 88W. Unter Last steigt der Stromverbrauch auf bis 172W unter Volllast (Furmark & Prime95in Windows). Um die CPU-Temperatur muss man sich quasi nicht kümmern, die der Grafikkarte kommt unter Furmark auch nicht über 65°C nach knapp 20 Minuten Auslastung. Da werde ich vielleicht nochmal ein bisschen übertakten, geht ja direkt im Treiber.
Die CPU-Lüfter dreht je nach Last mit 1030 bis 1130 U/min, die Gehäuselüfter mit 320-400 U/min. Das scheint auszureichen... Die CPU-Cores bleibt auch bei langer Prime-Auslastung unter 75°C, meist unter 65°C. Gehäusetemperatur muss ich nochmal genauer beobachten, insbesondere wenn die passive Grafikkarte noch mitheizt. Derzeit komme ich auf maximal 47°C, so weit also auch ok. Die HDDs sitzen direkt hinter zwei ins Gehäuse blasenden Lüftern und haben angenehm frische 34°C. Lediglich die Mushkin SSD geht auch mal bis 43°C hoch (so ein Hitzkopf

Das Ding steht am anderen Ende meines Raumes und ist so leise, dass man ihn fast überhaupt nicht hört. Lediglich die Festplatten kann man trotz Entkopplung und Dämmung noch leise vernehmen. Aber ich bin schon erstaunt, wie leise es geht.
Durchreichen des Firewire-Controllers und der Soundkarte klappt auch (nach blacklisten der dazugehörigen Module in Linux), die Soundkarte und alle angeschlossenen Geräte an Firewire werden also direkt ohne Linux-Umweg von Windows angesprochen. VT-d sei dank

[Fortsetzung im nächsten Post, dieser hier wird zu lang und die Forensoftware meckert...]
Zuletzt bearbeitet: