Irgendwie habe ich gerade einen Denkfehler, bzw. kann mir folgendes nicht erklären:
Mein 32"-Monitor, ein Eizo EV3285, hat ein wunderbares, gestochen scharfes Bild. Die PPI beträgt bei (genau genommen) 31,5" und der Auflösung 3840 x 2160 Pixel => 140 ppi.
Ein altes T540p hat ein ziemlich schlechtes Bild, sehr grob, damit würde ich auf Dauer nicht arbeiten wollen, wenn es auch was besseres gibt. Nun habe ich gerade nachgerechnet, dass das Gerät mit seinen 1920 x 1080 auf 15,6" => auch 140 ppi hat.
Die ppi sollten doch eigentlich der Indikator für die "Schärfe" des Bildes sein, oder nicht?
Kann es sein, dass moderne Displays mit 1920 x 1200 vom Bildeindruck her doch sehr viel besser sind, als ich denke? Oder schaue ich auf den falschen Indikator?
Mein 32"-Monitor, ein Eizo EV3285, hat ein wunderbares, gestochen scharfes Bild. Die PPI beträgt bei (genau genommen) 31,5" und der Auflösung 3840 x 2160 Pixel => 140 ppi.
Ein altes T540p hat ein ziemlich schlechtes Bild, sehr grob, damit würde ich auf Dauer nicht arbeiten wollen, wenn es auch was besseres gibt. Nun habe ich gerade nachgerechnet, dass das Gerät mit seinen 1920 x 1080 auf 15,6" => auch 140 ppi hat.
Die ppi sollten doch eigentlich der Indikator für die "Schärfe" des Bildes sein, oder nicht?
Kann es sein, dass moderne Displays mit 1920 x 1200 vom Bildeindruck her doch sehr viel besser sind, als ich denke? Oder schaue ich auf den falschen Indikator?
Zuletzt bearbeitet:





