[gelöst] Displaygröße Display Panel Größe Notebook - ThinkPad

Hallo Experten,

wo ist technisch der Unterschied von Skalieren und Zoomen?
Verbraucht ein skaliertes System mehr Strom, als wenn ein System die native Auflösung nutzt?

MfG
xsid
 
Was meinst du mit einem skalierten System? Meinst du damit den Skalierungsfaktor, den man bei grafischen Oberflächen vieler Betriebssysteme einstellen kann? Das hat nur bedingt was mit dem Stromverbrauch zu tun.

Beim Skalieren - so wie es die grafischen Benutzeroberflächen machen - geht es darum, daß Objekte auf eine bestimmte Größe auf dem Bildschirm gebracht werden sollen. Typisch dafür wären Schriften oder Bedienelemente wie Knöpfe. Mit dem Skalierungsfaktor sagt man dem Betriebssystem mehr oder minder: nimm für das Zeugs x mal so viele Pixel in x- und y-Richtung wie du normalerweise nehmen würdest.

Problematisch ist dabei, daß manche grafische Oberflächen diese Skalierung bei nicht-ganzzahligen Skalierungsfaktoren (fractional scaling) schlecht umsetzen und dadurch Rechenzeit verschwenden und von Image Blurring betroffen sind. Leider ist da Linux zu nennen, wo das fractional scaling immer noch eine Baustelle ist. Windows hat meines Wissens nach das fractional scaling vernünftig implementiert, MacOS sowieso.

Die Frage für den Stromverbrauch ist eigentlich, für welche Auflösung die Grafikeinheit das Bild generiert. Ganz einfach: mehr Bildpunkte => mehr Rechenaufwand => höherer Stromverbrauch.

Monitore/Displays können nur Bilder in nativer Auflösung darstellen, da sie die einzelnen Pixel ansteuern müssen. Viele Displays können aber ein Bildsignal mit "falscher" Auflösung auf ihre native Auflösung umrechnen. Das wäre dann wohl mit Zoomen gemeint.
Angenommen, du hast ein 4k-Display, betreibst das aber nur mit Full-HD-Auflösung. Dann würde die Grafikeinheit als für Full-HD rendern und anschließend würde das Display dieses Singal auf 4k zoomen. Das braucht weniger Rechenleistung als ein 4k-Bild zu rendern und damit weniger Strom. Dafür sieht dann alles leicht verwaschen aus.

Summa summarum: wenn es dir um Stromverbrauch geht, sind hochauflösende Dispalys von Nachteil. Sie brauchen mehr Rechenleistung und mehr Backlight aufgrund der dichteren Pixelmaske. Dann lieber ein Full-HD-Display. Zoomen ist Sch...., das führt einfach zu einem verwaschenen Bild.
 
Leider ist da Linux zu nennen, wo das fractional scaling immer noch eine Baustelle ist. Windows hat meines Wissens nach das fractional scaling vernünftig implementiert, MacOS sowieso.
Funktioniert bei mir (KDE Plasma mit Wayland unter Fedora) tatsächlich sauber - 150% scale auf 2880x1800px (14"). Hab aber außer Browser, Terminal und File Explorer wenig Software drauf, bin primär Windows User.

In Windows geht es an sich auch gut, aber vereinzelte dumme Software kann's nicht. Einziges Beispiel das ich installiert habe: Autodesk Fusion. Die Dreckssoftware wird komplett verwaschen mit Scaling, sowohl Bedienelemente als auch 3D Workspace. Was für eine ziemlich teure Software mit wöchentlichen bis monatlichen Updates ein wirkliches Armutszeugnis ist, da selbst die meiste Freeware, die teilweise seit Jahren keine Updates mehr hatte, perfekt skaliert.
 
Angenommen, du hast ein 4k-Display, betreibst das aber nur mit Full-HD-Auflösung. Dann würde die Grafikeinheit als für Full-HD rendern und anschließend würde das Display dieses Singal auf 4k zoomen. Das braucht weniger Rechenleistung als ein 4k-Bild zu rendern und damit weniger Strom. Dafür sieht dann alles leicht verwaschen aus.
Wenn du ein Full-HD-Signal (1920x1080) auf 4k (3840x2160) skalierst, dann sieht gar nichts verwaschen aus, denn dann hast du einen ganzzahligen Skalierungsfaktor von "2" sowohl in der Horizontalen als auch in der Vertikalen. Exakt 2x2 Pixel des Monitors stellen dann exakt 1 Pixel des Eingangssignals dar.
 
Die meisten Bildschirme machen da aber trotzdem irgendwas und es wird blurry. Jedenfalls bei Desktop Bildschirmen.
 
Mit 4k-Desktop-Bildschirmen habe ich bisher keine eigene Erfahrung. Ich steuere aber regelmäßig einen 4k-Samsung-Fernseher mit einem Full-HD-Signal an und das sieht nicht schlechter aus als auf einem Full-HD-Fernseher. Jedes 2x2-Pixel ist knackscharf.
 
Funktioniert bei mir (KDE Plasma mit Wayland unter Fedora) tatsächlich sauber - 150% scale auf 2880x1800px (14"). Hab aber außer Browser, Terminal und File Explorer wenig Software drauf, bin primär Windows User.
Jein. Das Problem ist, daß die derzeit verwendeten Toolkits noch kein Fractional Scaling können - mit KDE6 wird Qt-Software das können (wenn alles auf Qt6 umgestellt ist), aber bei GTK-Zeugs steht das wohl noch in den Sternen. Intern wird daher auf 200% gerendert und dann auf runtergerechnet. Ist halt eine Rechenzeit- und Speicherverschwendung und es kann zu Immage Blurring führen.

Image Blurring kann da bei Kanten auftreten und vorallem bei Schriften, da die Rendering Hints nicht passen. Korintenkackern wie mir fällt sowas auf. Andere Leute registrieren das gar nicht. Ich bin immer z.B. wieder verblüfft, daß vielen Studenten Fettdruck in mathematischen Formeln nicht auffällt. Leider hat da aber Fettdruck eine besondere Bedeutung (Vektor vs skalare Größe).


Wenn du ein Full-HD-Signal (1920x1080) auf 4k (3840x2160) skalierst, dann sieht gar nichts verwaschen aus, denn dann hast du einen ganzzahligen Skalierungsfaktor von "2" sowohl in der Horizontalen als auch in der Vertikalen. Exakt 2x2 Pixel des Monitors stellen dann exakt 1 Pixel des Eingangssignals dar.
Du verschenkst damit aber massiv Potential, gerade bei Schriften.
 
Zuletzt bearbeitet:
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben