Hört sich alles absolut NewBee tauglich an.
Was halten die Linux Experten denn von diesem Weg?
Nix.
Bin zwar kein Experte, aber will trotzdem mal erklären warum (zumindest ich das so sehe).
Disclaimer: Achtung, langer Post. Wer das Fazit wissen will, einfach bis zum Ende durchscrollen.
Zunächst einmal muss man sich dreier goldener Kernelgrundsätze bewusst werden:
1. neu ist nicht zwingend besser!
Denn "besser" ist subjektiv!
2. Es gibt keine "optimierten" Kernel!
Es sei denn, man weiss genau wofür es optimiert sein soll (siehe unten)
3. Es gibt keine geheimen Tricks!
Man gibt sich leicht der Hoffnung hin, dass man nur die richtigen Settings finden muss und schon ist alles besser. Das ist Quatsch. Wenn man nur irgendwo das richtige Häkchen setzen müsste, hätten die Developer das sicher getan. Es gibt sicherlich Möglichkteiten Einstellungen zu verändern, aber das ist IMMER ein Kompromiss. Kompatibilität gegen Speicherverbrauch. Geschwindigkeit gegen Stabilität. usw.usw.
Wenn es nicht im neuen Kernel Unterstützung für Sachen gibt, die vorher nicht liefen, gibt es eigentlich keinen Grund für ein Update. Die Gefahr, dass andere Sachen nicht mehr laufen, ist zu groß. Klar, ab und zu mal updaten ist nicht verkehrt, aber "immer neuesten Kernel autocompilieren" ist imho Quatsch. Ich weiss, ich habe diesen Rat früher auch oft gelesen und bin trotzdem aus alter Windows Gewohnheit der Updatemanie verfallen, manche Sachen muss man wohl selber erleben, dass man sie glaubt, man kann sie noch so oft vorgebetet bekommen.
Ich will trotzdem mal versuchen das zu erklären:
Warum nicht ständig updaten?
Die neuesten Powersafe-Geschichten findet man nur in experimental Kernels, nicht im stable, experimental ist immer gefährlich. Das geht zehnmal gut und beim elften update startet der Rechner auf einmal nicht mehr. Das sind normalerweise Probleme die man beheben kann, aber wenn man nicht weiss wie (oder bereit ist die Zeit zu investieren das herauszufinden), sollte man von experimental die Finger lassen. Wenn man stable nimmt, muss man den Kernel selber patchen. Bei jedem Update neu, spricht also eher gegen ständige updates.
Warum nicht autocompile?
Was bringt ein Kernel-update? Funktionen werden verändert, hinzugefügt, entfernt.
Die meisten davon sind wahrscheinlich für den Heimanwender uninteressant, aber um das zu wissen muss man sich jede einzelne Funktion angucken. Wenn man einfach immer nur default nimmt, kann man sich das ganze auch sparen.
Warum nicht precompiled?
Ein Kernel macht zweierlei Dinge (stark vereinfacht):
1. Systemverwaltung.
2. Soft/Hardware-Unterstützung.
zu 1: Es gibt immer verschiedene Wege. Ist der Rechner als Laptop oder als Server gedacht? Hier wurde z.B. der CFS-scheduler genannt. Es stimmt, der ist schneller.
Aaaaber: per default sind z.B. fair scheduling groups aktiviert. Bei Servern ist das sinnvoll, bei Desktops nicht. Wenn man nun irgendeinen precompiled Kernel nimmt, weiss man nicht was aktiviert ist und was nicht.
2. Die meisten Treiber lassen sich im Kernel integrieren. Das gilt aber nicht nur für Treiber (parallel-port, firewire,...), sondern z.B. auch für Dateisysteme (Fat, Fat32, NTFS, NFS, XFS, JFS, ReiserFS,....) und vieles vieles mehr. Alle Treiber die man nicht braucht, kann man rausschmeissen. Jeder precompiled Kernel hat kram drin, den man selbst nie brauchen wird. Das erklärt auch:
Der Stromverbrauch hat sich allerdings auch nicht verändert, genauer: er ist 0,5 Watt höher als vorher mit 2.6.22 Kernel
Das ist nicht nur eine Frage von Patches. Vorher hattest du einen selbstkompilierten Kernel (hoffentlich) einigermaßen optimiert für dein System. Jetzt hast du einen "generic" kernel, sprich einen der dafür gedacht ist auf möglichst vielen unterschiedlichen Rechnern zu laufen. Willst du deinen Kernel optimieren möglichst klein zu sein? Oder möglichst viel Hardware zu unterstützen? Oder möglichst responsive zu sein? Oder möglichst wenig Strom zu verbrauchen?
Wenn du einen precompilierten optimierten Kernel willst, geht das nur, wenn du erstens sicher bist, dass der Ersteller die gleiche Hardware benutzt und zweitens, dass er das gleiche mit dem Rechner vorhat, wie du.
Was sehr wohl geht ist, eine (wie auch immer) optimierte Kernel-config zu übernehmen und anzupassen. Aber um das manuelle anpassen und manuelle konfigurieren kommt man nicht herum.
Im Übrigen interessiert mich das auch einfach aus technischem Interesse. Will auch einschätzen können, wie weit Linux ist im Vergleich zu Vista.
Ich würde sagen ungefähr 18x weiter. Oder 15,3x, je nachdem wie man zählt.
Im Ernst, was willst du denn vergleichen? Es ist immer alles eine Kombination von Kernel-Version, Kernel-konfiguration, Distribution, Desktop-Environment, etc. etc.
Bei den meisten Distributionen muss man sich um Kernel-config nicht kümmern, da wählt man besser die Distribution nach entsprechenden Gesichtspunkten aus.
Soll es möglichst einfach sein? Möglichst hübsch? Möglichst schnell? ....
Linux ist weiter als Vista, weil es viel viel mehr Möglichkeiten gibt. Man kann ein System perfekt auf gewisse Zwecke hin optimieren. Man hat Kontrolle, man hat Sicherheit.
Vista ist weiter als Linux weil es gewisse Sachen (Software oder Hardware) gibt, die nunmal auf Windows zugeschnitten ist und nur mit Windows läuft. Ob das jetzt ein Argument ist Vista zu benutzen, muss wohl jeder selbst entscheiden.
Im Prinzip kann man nur einzelne Distris mit Vista vergleichen, das sagt dann aber nix über Linux allgemein aus. Schon wer OpenSuse mit Ubuntu vergleicht wird ein völlig anderes Bild von "Linux" haben.
Nun endlich das FAZIT:
Ein Kernel kompilieren ist wirklich einfach. Einzelne Optionen verändern auch. Aber Wunder sollte man davon nicht erwarten. Wenn man dann ein perfektes Ergebnis hat, ist das reines Glück. Man KANN den Kernel manuell optimieren. Dafür MUSS man aber wissen was man tut. bzw. bereit sein es herauszufinden. Es ist wirklich keine Hexerei und wenn man sich einmal zurecht findet, geht es auch recht flott. Dann bekommt man auch bessere Ergebnisse als mit default-Kerneln.
ABER
Wenn man die Zeit, die man dafür braucht, als Arbeitszeit rechnet, ist man sehr viel besser damit beraten einfach den Rechner aufzurüsten.
Wenn man Spaß daran hat, aus Rechnern "den letzten Rest" herauszuholen, perfekt. Wenn man sich darüber freut eine alltägliche Aufgabe 1 Minute schneller erledigen zu können, auch wenn sich das nie rechnet, weil man zwei Tage gebraucht hat um die Lösung zu finden, auch gut. Aber wenn man einfach den Rechner benutzen will und einem die Akkuzeit zu kurz ist, ist es doch bedeutend einfacher, einfach einen Ersatzakku zu kaufen.
Das soll nicht heissen, dass Linux nur was für Bastler wäre, im Gegenteil, ich halte es für (inzwischen) bedeutend Benutzer- und vor allem Einsteigerfreundlicher als Windows - aber das weite Feld der Systemoptimierung, das ist sicherlich nur für Bastler.
Sorry für das lange Geschreibsel, aber das musste einfach mal raus
PS: C4 wird tatsächlich im Bios aktiviert, es kann sein, dass es benutzt wird, aber das Powertop es lediglich nicht anzeigt.