soo, da ich inzwischen wirklich alles auf Linux habe, was ich brauche (jaaa, sogar Adobe Acrobat und Warcraft III laufen gut), stört mich im Prinzip nur noch eine Sache, die mich daran hindert, Windows Goodbye zu sagen. Die sch*** ATI. Man ist ja leider mit einer Radeon 7500 bestraft den OpenSource-Treiber nutzen zu müssen.
Und mit dem schnorchelt sich die 7500@3D im Idle sagenhafte 3 Watt mehr rein als ohne 3D. Naja, die Graka selber zieht sich den Saft zwar nicht rein, ist aber im Grunde dafür verantwortlich.
Das ganze zum nachlesen:
ohne DRI: http://mitglied.lycos.de/segoii/Verbrauch1.jpg
mit DRI: http://mitglied.lycos.de/segoii/atisux.jpg
Man kann natürlich DRI abschalten wenn mans nicht braucht, nur ist das ne ziemlich umständliche Lösung, da man den X-Server restarten muss.
Die Verbrauchswerte sind unter identischen Bedingungen entstanden (CPU@600MHz im Idle, Displayhelligkeit auf min, GraKa auf 100MHz/100MHz per rovclock getaktet.
Was mich interessieren würde: Haben alle Grakas das Problem mit den hohen Interrupts im 3D-Modus unter Linux? Was ich hier ganz gerne zusammentragen würde ist selbiges für eine Karte, die mit dem aktuellen fglrx läuft (also irgendwas Radeon9600 aufwärts), einmal für ne GMA mit entsprechendem aktuellen Intel-Treiber und einmal mit ner NVidia auf nem aktuellen Treiber. Wäre klasse wenn das machbar wäre. Es reicht ja im Grunde auch, wenn man auf dem Screenshot sieht, dass die CPU trotz 3D-Modus vernünftig idlen kann.
Mit hoher Wahrscheinlichkeit liegts am crappy programmierten DRI. Denn das Abschalten des 3D-Modus im DRI-Treiber selbst bringt nix. Man muss schon den kompletten DRI abschalten um vernünftige Verbrauchswerte zu bekommen.
THX schonmal
sego
Und mit dem schnorchelt sich die 7500@3D im Idle sagenhafte 3 Watt mehr rein als ohne 3D. Naja, die Graka selber zieht sich den Saft zwar nicht rein, ist aber im Grunde dafür verantwortlich.
Das ganze zum nachlesen:
ohne DRI: http://mitglied.lycos.de/segoii/Verbrauch1.jpg
mit DRI: http://mitglied.lycos.de/segoii/atisux.jpg
Man kann natürlich DRI abschalten wenn mans nicht braucht, nur ist das ne ziemlich umständliche Lösung, da man den X-Server restarten muss.
Die Verbrauchswerte sind unter identischen Bedingungen entstanden (CPU@600MHz im Idle, Displayhelligkeit auf min, GraKa auf 100MHz/100MHz per rovclock getaktet.
Was mich interessieren würde: Haben alle Grakas das Problem mit den hohen Interrupts im 3D-Modus unter Linux? Was ich hier ganz gerne zusammentragen würde ist selbiges für eine Karte, die mit dem aktuellen fglrx läuft (also irgendwas Radeon9600 aufwärts), einmal für ne GMA mit entsprechendem aktuellen Intel-Treiber und einmal mit ner NVidia auf nem aktuellen Treiber. Wäre klasse wenn das machbar wäre. Es reicht ja im Grunde auch, wenn man auf dem Screenshot sieht, dass die CPU trotz 3D-Modus vernünftig idlen kann.
Mit hoher Wahrscheinlichkeit liegts am crappy programmierten DRI. Denn das Abschalten des 3D-Modus im DRI-Treiber selbst bringt nix. Man muss schon den kompletten DRI abschalten um vernünftige Verbrauchswerte zu bekommen.
THX schonmal
sego