Optimus: Was bringts wirklich

elarei

Well-known member
Themenstarter
Registriert
2 Aug. 2009
Beiträge
3.288
Hallo zusammen,

ausgegliedert aus meinem T430-Review, zwecks Struktur und Ordnung:

T430 Optimus.png

Mich interessiert der Unterschied zwischen Test 2 (Intel HD 4000 [Optimus]) und Test 3 (Intel HD 4000 [BIOS]). Man kann locker 10°C Temperaturdifferenz unter Last und im Idle erkennen, je nachdem, ob die NVS 5400M per Optimus zuschaltbar bleibt oder nicht. Offensichtlich heizt die Nvidia-GPU also selbst dann, wenn sie untätig ist, ganz kräftig mit. Erst wenn sie im BIOS ganz abgeschaltet wird, tut sie das nicht mehr.

Nun fragt sich doch, wie sich das auf den Stromverbrauch auswirkt. Wo der PC warm wird, wird ja immer auch Strom verbraucht. Es fragt sich also, ob ein Optimus-Laptop selbst bei gleicher Nutzung nicht wesentlich mehr Strom schluckt als ein Intel-Laptop.
 
Ganz aus wird sie wohl nicht sein können, eine eGPU kann man ja auch nicht einfach im laufenden Betrieb einstecken und benutzen. Man muss erst neu booten. Keine Ahnung ob das stimmt und übertragbar ist.:(:confused:

Bringen tut Optimus aber auf jeden Fall etwas. Ohne schaffte das T410 nur 2-3h Laufzeit während es mit Optimus etwa 4h erreichte. (Quelle: Notebookcheck)
 
Das ist wirklich eine interessante Entdeckung... ich dachte bis jetzt immer, dass Optimus nahezu so viel (d.h. quasi gleich viel) Strom spart, wie Intel-Only...
 
Hmmm... bin überrascht. Die Idle-Temperaturen der Nvidia-GPU im Optimus-Betrieb erscheinen mir doch etwas hoch. Auch die Tmax der Nvidia unter Last von 93 Grad C ist heftig.
 
Okay, das erste Ergebnis hat es in sich. Ich habe allerdings mit dem Classic Test gearbeitet (der belastet konstant die GPU). Mal gucken was der Readers Test ausspuckt. Im Classic Test sind es jedenfalls mal eben 50% Differenz... :huh:

Klar bringt Optimus eine Verbesserung gegenüber einer daueraktivierten Nvidia-Karte, aber es bringt offensichtlich auch eine krasse Verschlechterung gegenüber einer daueraktivierten Intel-Karte.
 

Anhänge

  • T430 Optimus Stromverbrauch.png
    T430 Optimus Stromverbrauch.png
    23,5 KB · Aufrufe: 56
Zuletzt bearbeitet:
...ja, 93°C für die GPU sind in Notebook-Maßstäben garnichts. (Aber um die geht es hier ja gerade nicht... ;))
 
Nun ja... Wärmeentwicklung erfordert Leistung und somit Energie. Von diesem Standpunkt aus gesehen vielleicht ja doch :).
 
Okay, das erste Ergebnis hat es in sich. Ich habe allerdings mit dem Classic Test gearbeitet (der belastet konstant die GPU). Mal gucken was der Readers Test ausspuckt. Im Classic Test sind es jedenfalls mal eben 50% Differenz...

Wie ist das Diagramm genau gemeint? Einerseits misst Du die Zeit, bis 5,0% der Ladung "verstrichen" sind, zeigst aber in der Mitte unterschiedlich verbrauchte Kapazitäten (in Wh) an... wie darf man das verstehen?


Wärmeentwicklung erfordert Leistung und somit Energie.

Ganz genau, das würde ich auch direkt korrelieren...
 
Wh ist auf die Stunde gerechnet: In einer Stunde verbraucht der Laptop mit diesem Setting 31,5 Wattstunden (die Physiker hier mögen mich korrigieren, ich habe das auch noch nie wirklich verstanden, ich kann es nur ausrechnen :D). Gemessen habe ich aber nur bis 5,0% der Batterieladung verbraucht waren, damit mir nicht extrem langweilig wird. Natürlich wäre eine komplette Messung von 100% bis 0% viel korrekter, aber das macht mir den Akku kaputt und dauert dann bei vier Testdurchgängen auch nen ganzen Tag...

Zum Rechenweg:

Der Akku hat 56Wh Kapazität. 5% = 2,8Wh. Wenn in 5:20 Minuten (=5,333 Minuten) 2,8Wh rausgesaugt werden, dann wird in 60 Minuten 31,5Wh rausgesaugt. (60min/5,333min = 11,25; 11,25*2,8Wh = 31,5Wh)
 
Zuletzt bearbeitet:
Achso, dann verwechselst Du gerade die Einheiten - Wattstunden (Wh) sind eine Einheit der Energiemenge bzw. (Akku)Kapazität ("In einer Stunde hat der Laptop X Wattstunden verbraucht"). Watt dagegen sind Leistung, also "Der Laptop zieht während dem Test X Watt".

Genau anders rum also ;)


Ich gehe also mal davon aus, dass das heissen soll, dass Optimus beim Classic Test im Schnitt 31,5W braucht, und Intel-Only 19,76W?
 
Ja, genau. Ich ändere das in der Grafik. Ich sag ja, in Physik hab ich nie aufgepasst...
 
Ist ja nicht schlimm... Hauptsache man versteht, was Du meinst :D

Bin auf den Reader's Test gespannt... wenn ich es richtig verstanden habe, dürfte der ja überhaupt keine GPU Leistung brauchen?
 
Genau, der zeigt nur in einem Notepad-like Fensterchen den Text von Shakespeares Romeo und Julia an und blättert leider schneller durch, als ich mitlesen kann. :( :)
 
Also, ich bin noch nicht fertig (tatsächlich dauert das ewig - vor allem jetzt mit der BIOS-Intel-Setting).

Aber die Tendenz geht, wenn ich das bisher gemessene überschlage, dahin, dass Optimus-HD4000 fast 100% mehr Saft braucht als BIOS-HD4000 (18,8W zu ca. 10W).
 
Ich sag ja schon immer dass Hybridgrafik eine Fehlkonstruktion ist ... :cursing:
 
naja immer noch besser als nur 'ne diskrete zu haben. Und die switchable Grafik war schlimmer.
 
Das Problem ist ja nicht, dass das nicht perfekt sparsam ist - das Problem ist, dass es so beworben wird, als wär's eine Umschaltmöglichkeit zwischen der Sparsamkeit einer HD4000 und der Brachialleistung einer NVS 5400M. Das ist aber eindeutig und großkalibriger Schwachsinn - der Unterschied ist ja gigantisch (nachdem ich immernoch 0,5% abwarten muss, sind wir schon bei über 100% Unterschied im Reader's Test!).
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben