Optimus: Was bringts wirklich

elarei

Well-known member
Themenstarter
Registriert
2 Aug. 2009
Beiträge
3.288
Hallo zusammen,

ausgegliedert aus meinem T430-Review, zwecks Struktur und Ordnung:

T430 Optimus.png

Mich interessiert der Unterschied zwischen Test 2 (Intel HD 4000 [Optimus]) und Test 3 (Intel HD 4000 [BIOS]). Man kann locker 10°C Temperaturdifferenz unter Last und im Idle erkennen, je nachdem, ob die NVS 5400M per Optimus zuschaltbar bleibt oder nicht. Offensichtlich heizt die Nvidia-GPU also selbst dann, wenn sie untätig ist, ganz kräftig mit. Erst wenn sie im BIOS ganz abgeschaltet wird, tut sie das nicht mehr.

Nun fragt sich doch, wie sich das auf den Stromverbrauch auswirkt. Wo der PC warm wird, wird ja immer auch Strom verbraucht. Es fragt sich also, ob ein Optimus-Laptop selbst bei gleicher Nutzung nicht wesentlich mehr Strom schluckt als ein Intel-Laptop.
 
Könnte aber natürlich auch einfach ein bug sein - ich denke fast das wäre sonst schon früher aufgefallen.
 
Ich hoffe es. Ich hege die Hoffnung auf einen Treiberfehler - aber ich benutze halt den "offiziellen" von Lenovo aus der T430-Matrix ... und mit der Intel-BIOS-Setting komme ich ja auch auf völlig reale Werte. Nur die Optimus-Settings machen wirklich bescheuerte Sachen.

Anbei die bittere Wahrheit aus dem Reader's Test. Kurz und knapp: Optimus-HD4000 verbraucht 120% mehr Strom als BIOS-HD4000.
 

Anhänge

  • T430 Optimus Stromverbrauch Readers.png
    T430 Optimus Stromverbrauch Readers.png
    23,6 KB · Aufrufe: 33
Zuletzt bearbeitet:
Wie sieht es denn im Vergleich mit der Vorgängerserie T x20 bzw. T x10 aus? Diese wurden ja auch mit nVidia Optimus beworben?!

Kann da jemand weiterhelfen? :)
 
Ja, es wäre spannend wenn jemand mit einem 20er Gerät den Reader's Test auch mal machen könnte (ich erkläre auch gern genauer, was man machen muss). Wenn da das gleiche rauskäme, dann habe ich vermutlich recht; wenn das Ergebnis dort deutlich geringer ausfällt, könnten wir Glück haben und es liegt vielleicht am Treiber.
 
Okay, es wird komischer. Jetzt ist die fest eingestellte NVS 5400M auch noch viel sparsamer als Optimus. :facepalm: :huh: :mad: (Und 10°C kühler sind GPU und CPU dabei auch.)

Den Optimus-Test führe ich gleich nochmal durch, da muss einfach was schiefgegangen sein. Oder der Treiber ist richtig scheiße. Oder Optimus ist in den neuen Books echt komisch implementiert (hust).

In Anbetracht der Korrelation der Laufzeit- und Temperaturdifferenzen muss da jedenfalls bei Optimus ein Problem sitzen. Denn eindeutig verbraucht Optimus mehr als beide "Einzelmodi" und wird auch wärmer.
 
Zuletzt bearbeitet:
Hallo,

der extrem hohe Verbrauch mit Optimus lässt sich reproduzieren. Dies ist kein Zufall.

Ich vermute und erhoffe (!) ein Treiberproblem. Alles andere wäre höchstgradig problematisch.

Anbei die letzte Grafik für heute: NVS fest vs. Optimus vs. Intel fest. Drei Stunden investigativer Journalismus reicht dann auch für diese Woche. Gute Nacht!
 

Anhänge

  • T430 Optimus Stromverbrauch Readers.png
    T430 Optimus Stromverbrauch Readers.png
    28,9 KB · Aufrufe: 42
Zuletzt bearbeitet:
Das kann ja eigentlich nicht das Endresultat sein... Nicht mal 3 Stunden Akkulaufzeit mit Optimus im T430? Das W520 hält ohne Probleme 4 durch, wenn man will sind 6-7 drin... Daher muss es eigentlich wirklich eine Treibergeschichte sein und man müsste den Test mal mit einem x20-Modell durchführen. Auch das T420 macht mit 6 Zeller schon die doppelte Laufzeit. Und das müsste auch mit Optimus sein.
 
Zuletzt bearbeitet:
Du kannst gerne mit dem W520 mal den Test durchführen, ist ja im Grunde die gleiche Hardware wie im T420. Einfach den BatteryEater Pro runterladen, den Reader's Test anwerfen, Displayhelligkeit ganz runterregeln, aktuellen Akkustand notieren und dann 2,5 oder 5,0 Prozent raussaugen lassen (aufpassen, dass das Display nicht ausgeht usw). Das machst du einmal mit Optimus und einmal mit BIOS-festgelegter Intelgrafik. Wenn du mir dann die Kapazität des Akkus lt. Energiemanager, die gesaugten Prozent und die beiden Laufzeiten schickst, rechne ich den Rest aus und kann ihn mal mit meinem Wert abgleichen.

Am besten wäre, man könnte jemanden auftreiben, der ein T430/T530 mit Win7 gekauft hat - dann hätte man quasi eine "So soll es sein"-Installation und könnte gucken, obs in der Lenovo-Version besser ist.
 
Okay, es wird komischer. Jetzt ist die fest eingestellte NVS 5400M auch noch viel sparsamer als Optimus. :facepalm: :huh: :mad: (Und 10°C kühler sind GPU und CPU dabei auch.)

Den Optimus-Test führe ich gleich nochmal durch, da muss einfach was schiefgegangen sein. Oder der Treiber ist richtig scheiße. Oder Optimus ist in den neuen Books echt komisch implementiert (hust).

In Anbetracht der Korrelation der Laufzeit- und Temperaturdifferenzen muss da jedenfalls bei Optimus ein Problem sitzen. Denn eindeutig verbraucht Optimus mehr als beide "Einzelmodi" und wird auch wärmer.

Oder es ist einfach nur ein Konfigurationsproblem. Denn dadurch das Optimus, im Gegensatz zur AMD Lösung, Programmabhängig arbeitet und es keine exklusive Umschaltung auf eine Grafikkarte gibt, kann es sein das in Deiner Konfiguration ständig beide Grafikkarten gleichzeitig aktiv sind - daher solltest Du mal die Zuordnungen überprüfen. Bei mir macht es keinen Unterschied ob Intel oder Optimus - der Minimalverbrauch ist immer der gleiche.

VG JNS
 
Hallo,

man kann ja mit dem Tray Icon sehen, ob die Nvidia-Karte was schafft. Wie gesagt, steht die konstant bei 0,0% Load und hat "0 Programme aktiv".
 
Hallo,

okay, das Problem ist gelöst.

Optimus kann nicht damit umgehen, wenn ein Programm häufig die GPU an"pingt", um irgendeinen Wert anzufragen. Denn dann wird ständig die GPU aufgeweckt und wieder eingeschlafen, sodass das jede Menge Strom verbrennt.

Das tun alle Programme, die regelmäßig die GPU ansprechen. Das sind z.B. der Thinkpad Energy Manager oder der Open Hardware Monitor. In meinem Fall hat OHM das verursacht. Ich bin gerade dabei, den Test mit Optimus nochmal ohne OHM durchzuführen, und es sieht aus, als wäre das tatsächlich wesentlich langlebiger. Ergebnisse folgen.

Also: Nicht ganz so skandalös wie gedacht, aber immernoch blöd.
 

Anhänge

  • T430 Optimus Stromverbrauch Readers.png
    T430 Optimus Stromverbrauch Readers.png
    34,3 KB · Aufrufe: 58
Zuletzt bearbeitet:
Ich sag doch: Fehlkonstruktion und zwar durch völlig unnötige, fehleranfällige Komplexität bei Hardware und Treibern. Es wird Zeit, dass die Grafikchipentwickler sich auf den Hosenboden setzen und statt ihren Grips dafür zu verwenden noch mehr Leistung rauszukitzeln (die fast keiner braucht) endlich die Architektur auch für den Niedriglastbereich zu optimieren. So wie Intels Prozessorentwickler das schon vor vielen Jahren getan haben (Pentium M), als sie kurz davor waren in Sachen Stromverbrauch gegen die Wand zu knallen (P4). Genau da sind die Grafikchiphersteller auch angelangt.
 
Nuja, jetzt sind's Abweichungen von wenigen %... damit könnte sogar ich leben, und ich hab beim T520 auf zehntel Watt optimiert ;)
 
Naja, die Abweichungen finde ich nicht problematisch, die sind vermutlich reine Messfehler. Mich ärgert die schlechte Implementierung, dass man keine Temperaturtools laufen lassen kann, ohne die Grafikkarte ständig anzuwerfen. :facepalm:
 
Achso, ja, das ist natürlich schon ne blöde Sache. Beim Energiemanager dürfte das Problem übrigens dieser dämliche Fade-Out Effekt sein, der nach einer Zeit eintritt. Da schießt auch mit iGPU der Verbrauch immer kurz in die Höhe.
 
Nein, das hat nix mit den Effekten zu tun, sondern damit, dass auch der Energiemanager ständig die GPU pollt ("Schläfst du schon?").
 
Ah OK, mal eben die Threads im Lenovo Forum durchgekaut... ist ja mal hart.

Noch ein Grund mehr immer nur Geräte mit großem Kühlkörper, kleiner CPU und Intelgrafik zu kaufen :facepalm:
 
Um mal linrunner beizustimmen:
Manch einer nutzt ein anderes OS als Windows oder mag unter Windows aktuellere Treiber nutzen.
Manch einer mag vielleicht auch einfach nicht hinnehmen, dass beim Optimus Betrieb beide Karten gleichzeitig aktiv sein müssen, da die Nvidia in den Framebuffer der Intel reinrendert.
Somit während Nvidia Karte Last bei Optimus deutlich mehr Verbrauch wie man sieht.
Und zusätzlich natürlich die starke GPU ausgebremst wird, nicht deutlich, aber merklich.

mfg demonicmaniac
 
Das mit den Pentium4 und Pentium M lag eher an ein paar anderen Punkten als der gezielten Entwicklung auf low-power-consumption, wenn ich mich recht entsinne.

Das mit dem Frame-Buffer der Intel-Grafik finde ich etwas strange, wieso machen die das so? Genauso komisch wie die feste Verlötung der digitalen Ausgänge mit der nVidia-Karte, eine Schaltmöglichkeit hier ist nun wahrlich kein Energiefresser oder gigantisch groß umzusetzen...

Egal, was mich eigentlich interessiert: Hat der Energiemanager es inzwischen hinbekommen nicht mehr so exzessiv zu pollen? Auf die hier angegebenen 18W komme ich nicht (ok, Display ist bspw bei Stufe 6), aber trotzdem so im Schnitt 15 (ein Stream läuft, nutzt aber die HD). Ich wechsel öfter mal den Akku (bei längeren Fahrten packe ich den 9-Zeller rein) und da gehen die Ladeschwellen ja gerne verloren, oder?
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben