Nein, es handelt sich um eine virtuelle Grafikkarte, die nur durch die CPU des Host emuliert wird. Die "reale Grafikkarte" hat keinen Einfluss auf die Grafikleistung der VM.
Nein, es gibt durchaus die Möglichkeit, dass in der VM eine Grafikkarte "angeboten" wird, deren Features nicht komplett emuliert werden müssen, sondern die auf Teile der echten Hardware zurückgreifen. Ich würde das als eine Form der Paravirtualisierung bezeichnen.
Nein, da kommt nichts an, weil die "reale Grafikkarte" des Hosts nur für die Host-Grafik zuständig ist, nicht aber für die VM, wo die virtuelle Grafikkarte durch die CPU emuliert wird.
Nein. Siehe oben.
Ja, das habe ich mir auch schon überlegt, wenn man sich den Optimus-Treiber auf einer Workstation ansieht: Wenn man grafikintensive Anwendungen in einem Window laufen lassen kann, muss das rein theoretisch auch für eine virtuelle Maschine gehen, wenn man den virtuellen Computer in die Liste der Grafik-Anwendungen für dedizierte Grafikkarten in der nVidia-Systemsteuerung aufnimmt. Uns so wird es wahrscheinlich auch gemacht und dann erst lohnt sich auch eine gute Grafikkarte...
Da die Hardware in der VM komplett abgeschottet von der Hardware des Hosts läuft, ist es egal, was man dem Virtualisierer zur Verfügung stellt. Der wiederum muss das dann immer noch an die VM "weitergeben". VMware hat dafür aber eine spezielle virtuelle Grafikkarte plus die eigenen Treiber, die in deren "Gasterweiterungen" (weiß gerade nicht, wie vmware die nochmal genau nennt) stecken. Dann: Siehe oben. Aber einfach nur dem Virtualisierungstool die Grafikkarte per Optimus zu geben ändert gar nichts.
Und was spricht dagegen, eine 3D-Anwendung aus der VM als Renderaufgabe an die dedizierte Grafikkarte zu übergeben? Erst mal nichts, aber das ist nur eine Möglichkeit...
Dagegen spricht, dass das eine spezielle virtualisierte Grafikkarte in der VM und die entsprechenden Funktionen im Virtualisierungstool braucht. "Einfach so" geht das nicht. Klar ist das eine Möglichkeit, aber eine, an der sich die Hersteller solcher Software zum Teile seit Jahren die Zähne ausbeißen - die einen kriegen es besser hin, aber zum Teil nur mit deutlichen Performanceeinbußen, die anderen dagegen nur mit viel Gebastel, aber weniger Einbußen und die anderen kriegen es halt gar nicht hin.
Wenn man nun die gesamte virtuelle Maschine, die ja nichts anderes als eine laufende Software mit Hardware-Emulation ist, komplett als Render-Aufgabe an die dedizierte Grafikkarte übergibt, dann hat man das Grafik-Problem nämlich nicht: Die virtuelle Grafikkarte muss nur die Parameter an die dedizierte Host-Grafikkarte übergeben, diese rendert das komplette Fenster mit der VM und stellt es wie eine gewöhnliche 3D-Anwendung dar.
"nur" - an diesem "nur" beißen sich die Programmierer teilweise seit Jahren die Zähne aus. Speziell die von Typ-1-Hypervisoren, aber auch bei Typ-2-Hypervisoren klappt das zum Teil nur so naja...
Die virtuelle Grafikkarte in der VM muss so "konstruiert werden", dass sie die 3D-Parameter der Anwendung in der VM oder der VM insgesamt an die dedizierte Grafik im Host übergibt. Dann erreicht man die native Grafikleistung des Hosts.
Wie gesagt, das klingt theoretisch gut, aber so einfach ist es eben nicht.
Ein erster Versuch wäre, die VM als 3D-Anwendung in der nVidia-Systemsteuerung anzumelden, aber das ist nicht so einfach, wenn das so nicht vorgesehen ist.
Bringt nichts, siehe oben.
Ein weiteres Problem wäre, ob man die VM im Fenster oder als Vollbild-Anwendung ausführt. Vollbild ist wahrscheinlich einfacher...
Bei einer komplett durchgereichten Grafikkarte: Ja, nur Vollbild. Dann hat der Host aber keine Grafikkarte mehr, was meist zu Problemen führt, weswegen man für solche Lösungen erstens viel Gebastel braucht, zweitens einen Typ-1-Hypervisor (und VMware Workstation ist Typ 2) und drittens mindestens zwei Grafikkarten. Bei durchgereichten Features, über die wir hier reden, geht natürlich auch der Fenstermodus - wenn das Durchreichen von Features denn eben geht. Siehe oben.
Um etwas wissenschaftlicher an die Sache heranzugehen
Oh ja! Bitte! Wissenschaftlich rangehen wäre gut und nicht nur deine Mutmaßungen ohne Ahnung!
Grafikleistung im Host und in der VM verlässlich zu messen. Wenn man dann die erbärmliche Leistung der virtuellen Grafikkarte schwarz auf weiß vor sich hat, versteht man sehr schnell, warum Hersteller von z.B. AutoCad oder Solidworks spezielle Treiber schreiben, damit die 3D-Grafik-Aufgabe an spezielle Grafikkarten auf dem Host ausgelagert wird. Das gilt besonders dann, wenn es sich um einen VM-Server auf LINUX-Basis handelt, der viele WINDOWS-VMs mit Grafikprogrammen beherbergt/hostet, die dann per Stream an entfernte Clients weitergegeben werden.
Du würfelst hier aber auch wieder alles durcheinander, was nichts miteinander zu tun hat, oder?
Das Ganze ist also nicht so einfach, wie es von außen aussieht...
Endlich kommst du mal zu sinnvollen Ergebnissen.
@think_pad: [...] Alter Vater, selten soviel gequirlte Scheiße gehört.
Danke! Leider nur zu wahr - wie so häufig bei think_pad...
Wenn du nicht ansatzweise belegen kannst, was du da schreibst, lasse es bitte unter verunsichere keine User oder rück mit HowTos raus.
+1 von mir. Du tust hier nämlich so, als wäre das alles ganz einfach und du wüsstest genau wie es geht. Jemand der nicht viel Ahnung von dem Thema hat, wird sich jetzt vielleicht deinen Beiträge zu Herzen nehmen und alles mögliche ausprobieren. Bis er irgendwann rausfindet, dass es gar nicht so funktioniert, wie du es schreibst. Den Usern mit weniger Ahnung würde es also viel Zeit sparen, wenn sie die sinnlosen Tipps gar nicht hätten und dir würde es auch Zeit sparen, diese sinnlosen Tipps zu schreiben...
Alles, was Du dazu schön konkret schreibst, stimmt ... und widerspricht in keiner Weise dem, was ich etwas theoretischer dargelegt habe.
Doch. Du stellst Dinge in der Theorie nämlich als total einfach dar, die in der Praxis schwer bis unmöglich sind. Daher hilft hier Praxiswissen weiter, deine theoretischen Überlegungen leider aber nicht.
Ich habe einfach keinen Bock, hier mein Wissen auszubreiten, wenn Leute das Problem nicht ordentlich schildern, sich nicht an der Lösungssuche beteiligen, die Hintergründe nicht wissen wollen, und manchmal nicht mal vernünftig googeln können.
Jetzt wird es frech! Du schreibst diverse Beiträge in diesem Thread, die meist vollkommen inhaltsleer waren, wenn wir den theoretischen Nonsens mal weglassen - und dann sagst du, dass du keine Lust hast, "dein Wissen auszubreiten"? Dann lass es doch auch. Und Schuld sind die "Leute, [die] das Problem nicht ordentlich schildern" oder "die Hintergründe nicht wissen wollen"? Also insbesondere mit den Hintergründen solltest du dich selbst erst noch einmal ausführlich beschäftigen. Und bitte nicht durch "googeln", sondern durch Sammeln von Erfahrungen!
Ich habe einfach keinen Bock, hier mein Wissen auszubreiten, wenn Leute das Problem nicht ordentlich schildern, sich nicht an der Lösungssuche beteiligen, die Hintergründe nicht wissen wollen, und manchmal nicht mal vernünftig googeln können.
Dann sollte man sich aus einem Thread vielleicht einfach heraushalten.
So ist es.
Mit dem Wissen, welches ich mir ergoogelt habe, seit dieser Thread hier besteht, kann ich sagen, dass einige Deiner Aussagen im Thread schlichtweg falsch sind.
Die meisten, um genau zu sein.
Meine Theorie war und ist, dass es zwei Grafik-Parameter gibt: Eine Desktop-Grafikleistung (Auflösung, Farbtiefe, Bildwiederholrate) und eine 3D-Grafikleistung (technische Berechnung). Kann man sehr schön hier sehen: -->
https://de.wikipedia.org/wiki/Windows-Leistungsindex
Will man also die Grafikleistung einer virtuellen Maschine erhöhen, muss man wissen, was man "verbessert" oder "durchreicht", Desktop- oder 3D-Leistung. Das wiederum hängt davon ab, was man in der virtuellen Maschine machen will, was aber von den VM-Nutzern nie gesagt wird. Es hängt also im wesentlichen von der Anwendung in der VM ab, nicht von der VM und seiner Grafikkarte. Das war meine Theorie und die muss ich nicht untermauern, weil sie sicher ist.
Die Theorie ist sicher? Du wirfst hier die nächsten Dinge quer Beet durcheinander, die wenig miteinander zu tun haben.
Ich bin es gewohnt, dass Menschen Zeit brauchen, um das ganze Ausmaß dessen, was man ihnen da so eröffnet, zu begreifen.
Nutz' deine Zeit lieber sinnvoller... Zu begreifen gibt es zumindest hier in diesem Thread noch nicht viel, mit dem was du uns "da so eröffne
t".
Blafoo - du als Moderator solltest deine Ausbrüche trotzdem bitte etwas reduzieren. Das bringt keinem was und versaut den Thread.
Im Grunde genommen gebe ich dir Recht, aber hier stehe ich hinter blaafoo. think_pad fällt schon seit langem immer mal wieder auf, dass er in diversen Threads so tut, als würde er fundiertes Wissen vermitteln, gibt dabei aber sehr viel von sich, was so einfach vorne und hinten nicht zusammenpasst. Das hilft den fragenden Usern nicht, ganz im Gegenteil. Auf nette Hinweise, dass das, was er schreibt, nicht stimmt, kamen selten Reaktionen. Einige Sperren hier im Forum für ihn haben leider auch nicht geholfen. Da muss man dann leider etwas direkter werden und mir platzt auch immer wieder die Hutschnur, wenn ich den Quark lese, der von think_pad manchmal so kommt. Ich würde mich einfach nur freuen, wenn von ihm einfach nichts käme, wenn er sich mit etwas nicht auskennt.