Grafikkarten-Hybrid - jemand Erfahrung?

  • Ersteller Ersteller DiViCe
  • Erstellt am Erstellt am
D

DiViCe

Guest
Themenstarter
Vor Jahren sollte ja mal Hybrid-SLI kommen, was sich offenbar aber nie durchgesetzt hat, deshalb meine Frage, ob es eine manuelle Lösung gibt?

Ich habe mir einen neuen Desktop gebaut mit Haswell und auf dem Mainboard ist eine Onboard-Grafik. Ich würde mir ja noch eine Grafikkarte zum Spielen kaufen, möchte aber nicht den massiven Stromverbrauch in Kauf nehmen, da der Rechner durchgehend laufen soll, aber nur sporadisch gespielt wird.

Ist es irgendwie möglich die "externe" Karte nur dann einzuschalten, wenn wirklich gespielt werden soll? Ich würde dann auch einen extra 120 Hz Monitor daran anschließen.

Onkel Google sagt zwar, dass es prinzipiell möglich ist, aber mir geht es eher um Erfahrungswerte. Ich hätte am liebsten eine Lösung, die mir erlaubt, z. B. ein Spiel zu starten, woraufhin die gute Grafikkarte und der Monitor aktiviert werden, ohne, dass sich die Anzeige auf den Onboard-Monitoren ändert und sich beim Beenden des Spiels das Ganze wieder abschaltet bzw. sich abschalten lässt, ohne den Rest des Systems zu beeinflussen.
 
Ehm, ich mag das vlt. falsch in Erinnerung haben, aber der 1150 schleift doch nur die CPU interne Grafik durch, es gibt an sich kein Mobo mit Onboard-Grafik, und die CPU-Grafik wird abgeschaltet sobald was dediziertes drinhängt. Bitte korrigiert mich wenn ich falsch liege, aber irgendwie ist doch dadurch jede CPU mit Grafik herrlich sinnlos bei "gamer PCs".

Desktop-Optimus wurde u.a. eingestellt. Theoretisch lässt sich da etwas frickeln, ob es den Aufwand wert ist die andere. Moderne Desktop-Karten schalten sich teilweise ohnehin selbst ab, deine Einsparung läge also maximal bei ein paar kWh im Monat.



Interessantes Thema btw., ich war da auch ewig am Suchen.
 
Zuletzt bearbeitet:
Ja, ich meinte ja auch die CPU Grafik. Reicht ja vollkommen aus für reguläre Anwendungen, wie ich an meinem T440s gemerkt habe. Wenn die sich natürlich abschalten würde, sobald ich z. B. eine GTX 770 einbaue, dann würde mein Vorhaben sowieso nicht gehen.

Es kann ja auch sein, dass es sich mittlerweile mit dem Stromverbrauch gebessert hat, aber mein letzter Desktop Rechner, der 2006 gebaut und 2009 aufgerüstet wurde hat mich knapp 50 Euro im Monat Strom gekostet, obwohl er 2/3 davon nur im Idle war und es war nur eine GTX 275 verbaut.

Ist jetzt zwar auch nicht die Welt, aber man hat ja auch noch andere Hobbys und muss das Geld ja nicht verschenken.
 
Moin, noch sone Nachteule :P

Also mein jetziger PC würde mich rechnerisch im 24 Stunden-Betrieb ~8€ im Monat kosten (bei ~45 Watt (Office, Videowiedergabe, Idle, etc), was schon hochangesetzt ist, mit ebenso hochangesetzten 25 Cent pro kwh). Gemessen ab der Steckdose, also auch Verlustleistung inklusive.

Der Stromverbrauch von diversen Desktop-Komponenten ging massiv runter über die letzten jahre.
 
Schichtdienstler :-)

Welche Grafikkarte ist dort verbaut? Mein besagter alter Desktop hatte nämlich 180 Watt im Idle. Dazu eben noch drei Monitore und einen Preis von 24 Cent pro kWh macht halt schon was aus. Mit 100 Watt im Idle wäre ich schon vollkommen zufrieden.
 
Ich schick dir mal ne PM, mit genauerem Aufbau, so als Anreiz.

Die Zeiten von 180 Watt im Idle, gescheiter Aufbau vorrausgesetzt, sind schon lange vorbei :) Auf 200 Watt-Bereiche komme ich höchstens durch Stresstest auf alle Komponenten.
 
Zuletzt bearbeitet:
Ist es wirklich nicht möglich, Optimus auch auf einenem Dekstop zu nutzen? Denn das würde ja sämtliche Vorteile bieten, die der TE haben wollen würde.
 
Desktop-Optimus wurde zwar einst angekündigt, dann aber eingestellt. Wie ich bereits schrieb: dedizierte Desktop-Grafikkarten gehen von selbst in einen low power mode. Frickel-Lösungen wird es sicherlich geben.

(Edit: Falls dir eine gescheite Lösung bekannt ist, immer her damit ^^ Man sollte aber z.B. auch mal Kosten & Nutzen abwägen, z.B. ab wann sich ein i7 mit integrated eher rentiert als ein Xeon mit dedizierter GPU - ich glaube selbst dann ist der Xeon preislich über Jahre noch besser - alles eine Frage des Einsatzzweckes.)
 
Zuletzt bearbeitet:
in den notebooks hängend as display und die grafikausgänge (vga, dvi, hdmi) immer an der intel gpu. die separate gpu speist ihre daten quasi in den puffer der intel grafik die das ganze dann weiter an die grafikausgänge oder das display weiter gibt.

das könnte oder sollte so auch in desktops funktionieren. den sli und crossfire funktionieren ja ähnlich, hier werden ddie daten der slave gpu ja auch über die slibrücke oder den pcie bus auf die masterkarte übertragen die dann beide gpudaten zusammenrechnet und ausgibt.

anderseits verbrauchen heutige grafikkarten im idle so wenig strom das es sich eigentlich nicht mehr rentiert.
 
in den notebooks hängend as display und die grafikausgänge (vga, dvi, hdmi) immer an der intel gpu. die separate gpu speist ihre daten quasi in den puffer der intel grafik die das ganze dann weiter an die grafikausgänge oder das display weiter gibt.
Also bei mir (W530) ist der VGA und DisplayPort hardwareseitig an der K2000M angeschlossen. Im Office-Betrieb wird das Bild von der Intel errechnet und über die K2000M (die in diesem Betriebsfall nicht mal wirklich warm wird) an die Ausgänge abgeben (sofern was angeschlossen ist). Das interne Notebook-Display ist direkt an der Intel angeschlossen.
 
Zuletzt bearbeitet:
dann ist lenovo eine ausnahme, alle consumernotebooks laufen selbst mit separater gpu über die intel hd.

das wäre dann aber auch mist, da so die separate gpu immer laufen muss, wenn was angeschlossen ist ,was ja nicht sinn von optimus ist.
die grafikkarten sind ja mxm board und nicht onboard verlötet, also läuft das ganze mxm board und die separate gpu mindestens im lowpower status.
das sind verschwendete watt, was in ner workstation aber sicher auch nicht wirklich interessiert.

komische konstruktion von lenovo, aber die kombinieren ja auch ne intel hd4600 mit ner gt730m *roll* ^^
 
das wäre dann aber auch mist, da so die separate gpu immer laufen muss, wenn was angeschlossen ist ,was ja nicht sinn von optimus ist.
die grafikkarten sind ja mxm board und nicht onboard verlötet, also läuft das ganze mxm board und die separate gpu mindestens im lowpower status.
das sind verschwendete watt, was in ner workstation aber sicher auch nicht wirklich interessiert.
Wenn ein externer Monitor angeschlossen ist, dann ist auch eine Steckdose da, womit der Energieverbrauch wieder in den Hintergrund rückt. Ich muss allerdings dazu sagen, dass ich schon einmal im Akkubetrieb etwas per DisplayPort angeschlossen habe. Dabei stieg der Energieverbrauch nur ein paar Watt an, weil die K2000M ja nicht wirklich was zu tun hat.
 
Mittlerweile glaube ich allerdings auch nicht mehr daran, dass es viel Sinn macht. Nachdem mir beserene sein System genannt hat und den Verbrauch, war ich echt überrascht.

Ich finde es nach wie vor aber ein interessantes Thema, gerade wenn man eine echte High-End Kiste mit triple SLI oder so baut.
 
Man muss aber auch bedenken das Testseiten hinsichtlich "gaming PCs" häufig absolut merkwürdige builds zusammenbauen. Mal davon abgesehen das Netzteil und Einstellungen einen drastischen Unterschied ausmachen können.

SLI: jede weitere Karte würde halt ihre 10-15 Watt im Idle zusätzlich bentötigen.
 
@ deufel:
lenovo setzt erst mit der neuen generation optimus so um, wie nvidia sich das gedacht hat. daher machen thinkpads mit lenovos optimus-interpretation unter linux auch noch mehr ärger als laptops mit "normalem" optimus. zudem steigen verbrauch und wärmeentwicklung bei verwendung der digitalen monitorausgänge.
die grafikkarten liegen nicht im mxm-format vor, sondern sind aufs board gelötet.
 
ok, ich dachte bei der w-serie wird gesteckt, aber wenn da gelötet wird, fallen wieder ein paar watt weg.

das die k2000m nicht warm wird ist logisch, die gpu ist im niedrigsten modus und verbraucht eigentlich nichts,
da die daten der intel gpu ja in den puffer der nvidia geschleuscht und so an den ausgängen ausgegeben wird.
da muss die nvidia nichts berechnen, muss aber aktiv sein.

ich hatte das auf meinem alten acer, der hatte auch intel hd und ne separate ati 5650m. da war der hdmi scheinbar auch an der ati angeschlossen,
nur wurde die mehr als handwarm wenn man dvd über hdmi an nem tv geschaut hat ^^


bei sli läuft die 2. karte im idle auch mit, warum da nvidia nicht den weg wie amd geht versteh ich nicht.
bei crossfire geht die 2. karte im idle aus, komplett aus.


aber wie schon gesagt, heutige hardware braucht im idle nur noch ne handvoll strom.
mein clevo braucht im idle keine 15w, deshalb fiept das netzteil immer so nervend, das ist halt für 220w ausgelegt ^^
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben