@smartworld: Das wird mir jetzt zu technisch, das verstehe ich nicht mehr... Du meinst, es könnte irgendwann in näherer Zukunft Videos geben, die man mit i5 nicht mehr so gut gucken kann, weshalb sich eher i7 empfiehlt? Aber letzten Endes sind mir Youtube, Mediatheken & Co auch nicht soooo wichtig, ich könnte darauf durchaus auch verzichten, gucke wirklich nur gelegentlich.
Videos abspielen (decodieren) ist ein ziemlich rechenintensiver Prozess, weshalb für die gängigsten Codecs (also Formate) eine Hardwarebeschleunigung innerhalb der Grafikkarte vorhanden ist. Das heißt, bestimmte mathematische Berechnungen, welche für die Decodierung in genau dieser Art und Weise notwendig sind, werden durch ganz bestimmte Recheneinheiten direkt auf dem Chip durchgeführt. Fehlen diese Recheneinheiten, so muss der Prozessor diese Berechnungen durchführen, was ihn je nach Format und Auflösung schnell an seine Grenzen bringen kann. Früher hat man das ganz gut bei Laptops gesehen, welche nur dank einer solchen Hardwarebeschleunigung (teils ausgelagert in extra Chipkarten) in der Lage waren DVDs oder YouTube-Videos in vernünftiger Auflösung abzuspielen. Ohne die passenden Treiber für diese Hardware war das dann nur ein geruckel ohne Ende und die CPU war dauerhaft am Anschlag. Ganz so schlimm ist das heute natürlich nicht mehr, aber VP9 soll wohl ein Codec sein, der eine gewisse Zukunft bei YouTube haben dürfte (auch, weil Google die Firma/Technologie dahinter aufgekauft hat). H.265 ist der Nachfolger des sehr verbreiteten H.264 Formats, ohne den wirklich viel nicht funktionieren würde. Aber da dieser Codec lizenzpflichtig ist und die Gebühren viele Hersteller/Anbieter nicht mehr bezahlen wollen (weil es inzwischen eben auch vergleichbar gute kostenfreie Codecs gibt - wie VP9 oder ganz neu AV1), weiß ich nicht, ob dieser wirklich entscheidend die Zukunft prägen wird. Eventuell wirst du aber mal durch eine Kamera oder Handyvideos damit in Berührung kommen. Ich persönlich speichere inzwischen zum Beispiel ganz gerne im H.265 Format meine Videos ab, da diese so weniger Speicher bei gleicher Qualität benötigen.
Also was ich damit eigentlich ausdrücken wollte: eine Hardware basierte Unterstützung von Videocodecs ist auf jeden Fall eine gute Sache und sollte, wenn man im Bereich Medien/Videos unterwegs ist auch nicht gänzlich vernachlässigt werden. Ob das jetzt für dich in den nächsten 5 Jahren eine größere Rolle spielen wird kann ich natürlich nur schwer vorhersagen. Grundsätzlich ist es dank inzwischen ordentlich CPU-Power auch mehr oder weniger Problemlos möglich Videos in einem Format anzuschauen, das nicht hardwareunterstützt dekodiert werden kann (zumindest bei Full-HD). Das wirkt sich dann aber natürlich auf die Akkulaufzeit und die CPU-Auslastung aus. Aber solange du nicht 4K YouTube Videos für dich entdeckst, dir eine Kamera zulegst, die 4K Videos aufnimmt oder sich da etwas fundamental im Streamingbereich ändert (wobei das dann eher AV1 werden dürfte), dürfte das denke ich für dich eine eher untergeordnete Rolle spielen.
Nur da man bei einem Laptop nicht einfach die Grafikkarte wechseln kann sollte man das doch zumindest mit im Hinterkopf haben und wissen, dass es da zwischen den Prozessorgenerationen auch unterschiede in diesem Bereich geben kann. Denn spätestens wenn eine große Plattform (das kann auch Apple oder Android sein) mal vollends auf einen neuen Codec umschwenken sollte wird das ein wichtiger Punkt werden.
Edit: was mir gerade gekommen ist, weil jemand sich hier im Forum beschwert hat, dass bei einer Video-Konferenz die CPU auf 100% geht - hier spielt die Hardwareunterstützung von modernen Codecs natürlich eine ganz besondere Rolle. Denn durch die limitierte Bandbreite setzen die Anbieter gerne auf Codecs, die sehr effizient sind (was mit hohem Rechenbedarf einhergeht) und gleichzeitig muss die Grafikkarte das Bild nicht nur dekodieren, sondern in diesem Format auch enkodieren können (also die andere Richtung --> von raw in codiertes Format). Teilweise sind Formate nämlich nur in die Dekodier-Richtung hardwareunterstützt.
Also ich will dich mit den ganzen Infos hier nicht zu sehr verwirren, sondern dir nur noch ein paar Denkanstöße geben. Ich hab mich jetzt auch nicht im einzelnen damit beschäftigt, welche Codecs die einzelnen Telko-Anbieter genau nutzen (wahrscheinlich meist noch H.264, da dafür die breiteste Unterstützung besteht). Aber um mal ein Beispiel zu geben, dass diese Überlegungen nicht völlig irrelevant sind,
hier mal ein Link zu einer Mitteilung, dass Cisco AV1 in WebEx nutzen möchte, das momentan aber nur auf Desktop-PCs, da Laptops dafür noch nicht leistungsstark genug sind bzw. das einfach zu viel Akku ziehen würde (und eine hardwareunterstützte Dekodierung von AV1 meines Wissens erst bei der 11. Generation von Intel CPUs vorhanden ist)