Startseite » wie man » Warum ist die Monitorauflösung mit vertikaler Auflösung so oft ein Vielfaches von 360?

    Warum ist die Monitorauflösung mit vertikaler Auflösung so oft ein Vielfaches von 360?

    Starren Sie lange genug auf eine Liste von Monitorauflösungen, und Sie werden möglicherweise ein Muster bemerken: Viele der vertikalen Auflösungen, insbesondere von Spielen oder Multimedia-Displays, sind Vielfache von 360 (720, 1080, 1440 usw.). Aber warum genau ist dies das Fall? Ist es willkürlich oder gibt es etwas mehr Arbeit??

    Die heutige Question & Answer-Sitzung wird dank SuperUser zur Verfügung gestellt - einer Unterteilung von Stack Exchange, einer Community-basierten Gruppierung von Q & A-Websites.

    Die Frage

    SuperUser-Leser Trojandestroy bemerkte kürzlich etwas an seiner Anzeigeoberfläche und brauchte Antworten:

    YouTube hat kürzlich die 1440p-Funktionalität hinzugefügt, und zum ersten Mal wurde mir klar, dass alle (die meisten?) Vertikalen Auflösungen ein Vielfaches von 360 sind.

    Liegt das nur daran, dass die kleinste übliche Auflösung 480 × 360 ist und es praktisch ist, mehrere zu verwenden? (Nicht zu bezweifeln, dass Multiples praktisch sind.) Und / oder war, dass die erste sichtbare / bequem große Auflösung, also Hardware (Fernseher, Monitore usw.) mit 360 im Auge stand?

    Wenn wir es weiter machen, warum nicht eine quadratische Auflösung haben? Oder noch etwas Ungewöhnliches? (Vorausgesetzt, es ist üblich genug, dass es sichtbar ist). Ist es nur eine erfreuliche Situation??

    Warum sollte das Display ein Vielfaches von 360 sein??

    Die Antwort

    Der UserUser26129 von SuperUser bietet uns nicht nur eine Antwort auf die Frage, warum das numerische Muster existiert, sondern auch eine Historie des Bildschirmdesigns:

    Okay, es gibt hier ein paar Fragen und viele Faktoren. Resolutionen sind ein wirklich interessantes Gebiet des Marketing von Psychooptik-Meetings.

    Zunächst einmal, warum sind die vertikalen Auflösungen bei youtube ein Vielfaches von 360. Dies ist natürlich nur willkürlich, es gibt keinen wirklichen Grund dafür. Der Grund ist, dass die Auflösung hier nicht der limitierende Faktor für Youtube-Videos ist - die Bandbreite ist. Youtube muss jedes Video, das ein paar Mal hochgeladen wurde, neu codieren und versucht, möglichst wenig Formate / Bitraten / Auflösungen für die Neucodierung zu verwenden, um alle unterschiedlichen Anwendungsfälle abdecken zu können. Für Mobilgeräte mit niedriger Auflösung gibt es 360 × 240, für Mobilgeräte mit höherer Auflösung gibt es 480p und für Computer gibt es 360p für 2xISDN / Multiuser-Festnetztelefone, 720p für DSL und 1080p für schnelleres Internet. Für eine Weile gab es einige andere Codecs als h.264, aber diese werden allmählich eingestellt, wobei h.264 im Wesentlichen den Formatkrieg "gewonnen" hat und alle Computer mit Hardware-Codecs dafür ausgestattet wurden.

    Nun gibt es auch einige interessante Psychooptiken. Wie gesagt: Auflösung ist nicht alles. 720p mit wirklich starker Komprimierung kann und wird bei sehr hoher Bitrate schlechter aussehen als 240p. Aber auf der anderen Seite des Spektrums: Wer mehr Bits mit einer bestimmten Auflösung wirft, macht es nicht magisch besser als irgendwann. Hier gibt es ein Optimum, das natürlich sowohl von der Auflösung als auch vom Codec abhängt. Im Allgemeinen: Die optimale Bitrate ist tatsächlich proportional zur Auflösung.

    Die nächste Frage ist also: Welche Art von Auflösungsschritten ist sinnvoll? Anscheinend brauchen die Leute etwa eine zweifache Erhöhung der Auflösung, um einen deutlichen Unterschied wirklich zu sehen (und bevorzugen). Alles andere als das und viele Leute werden sich einfach nicht mit den höheren Bitraten beschäftigen, sie verwenden ihre Bandbreite lieber für andere Dinge. Dies wurde vor langer Zeit erforscht und ist der Hauptgrund, warum wir von 720 × 576 (415kpix) auf 1280 × 720 (922kpix) und dann wieder von 1280 × 720 auf 1920 × 1080 (2MP) übergegangen sind. Zwischenfälle sind kein realisierbares Optimierungsziel. Und wieder ist 1440P etwa 3,7 MP, eine weitere Steigerung um ~ 2 gegenüber HD. Sie werden dort einen Unterschied sehen. 4K ist der nächste Schritt danach.

    Als nächstes ist diese magische Anzahl von 360 vertikalen Pixeln. Tatsächlich ist die magische Zahl 120 oder 128. Alle Auflösungen sind heutzutage ein Vielfaches von 120 Pixeln. Damals waren sie ein Vielfaches von 128. Dies ist etwas, das gerade aus der LCD-Panel-Industrie hervorgegangen ist. LCD-Bildschirme verwenden sogenannte Linientreiber, kleine Chips, die sich an den Seiten Ihres LCD-Bildschirms befinden und die Helligkeit der einzelnen Subpixel steuern. Aus historischen Gründen gab es aus Gründen, die ich nicht wirklich genau kenne, wahrscheinlich Speicherbeschränkungen. Diese Multiple-of-128- oder Multiple-of-120-Auflösung gab es bereits. Die Industriestandard-Linientreiber wurden zu Treibern mit 360 Zeilenausgängen (1 pro Subpixel). . Wenn Sie Ihren 1920 × 1080-Bildschirm abreißen würden, würde ich Geld auf 16 Line-Treiber oben / unten und 9 auf einer der Seiten setzen. Oh, das ist 16: 9. Ratet mal, wie offensichtlich diese Auflösung war, als 16: 9 "erfunden" wurde..

    Dann gibt es das Problem des Seitenverhältnisses. Dies ist wirklich ein völlig anderes Gebiet der Psychologie, aber es läuft darauf hinaus: Historisch gesehen haben die Menschen geglaubt und gemessen, dass wir eine Art Weitsicht auf die Welt haben. Natürlich glaubten die Menschen, dass die natürlichste Darstellung von Daten auf einem Bildschirm in einem Breitbildmodus erfolgen würde, und hier kam die große anamorphotische Revolution der 60er Jahre zustande, als Filme mit immer breiteren Seitenverhältnissen gedreht wurden.

    Seitdem wurde dieses Wissen verfeinert und größtenteils entlarvt. Ja, wir haben eine Weitwinkelansicht, aber der Bereich, in dem wir tatsächlich scharf sehen können - das Zentrum unserer Vision - ist ziemlich rund. Leicht elliptisch und zusammengedrückt, jedoch nicht mehr als etwa 4: 3 oder 3: 2. Für eine detaillierte Anzeige, z. B. zum Lesen von Text auf einem Bildschirm, können Sie den größten Teil Ihrer Detailvision nutzen, indem Sie einen fast quadratischen Bildschirm verwenden, ähnlich wie die Bildschirme bis Mitte der 2000er Jahre.

    Dies war jedoch nicht so, wie es das Marketing genommen hat. Computer wurden in den vergangenen Jahren vor allem für Produktivität und detaillierte Arbeit eingesetzt, aber als die Computer immer mehr zur Konsumgüter wurden und sich der Computer als Gerät für den Medienkonsum weiterentwickelte, benutzten die Menschen meistens nicht unbedingt ihren Computer für die Arbeit. Sie benutzten es, um Medieninhalte anzusehen: Filme, Fernsehserien und Fotos. Und für diese Art der Betrachtung erhalten Sie den meisten "Eintauchfaktor", wenn der Bildschirm so viel Sicht (einschließlich Ihrer peripheren Sicht) wie möglich ausfüllt. Welches Breitbild bedeutet.

    Aber es gibt noch mehr Marketing. Wenn die Detailarbeit immer noch ein wichtiger Faktor war, kümmerten sich die Leute um die Auflösung. So viele Pixel wie möglich auf dem Bildschirm. SGI verkaufte fast 4K CRTs! Der optimale Weg, um die maximale Pixelmenge aus einem Glassubstrat herauszuholen, besteht darin, ihn so quadratisch wie möglich zu schneiden. 1: 1 oder 4: 3-Bildschirme haben die meisten Pixel pro Zoll der Diagonale. Mit dem zunehmenden Verbrauch von Displays wurde jedoch die Inch-Größe wichtiger als die Anzahl der Pixel. Und dies ist ein völlig anderes Optimierungsziel. Um die Diagonale möglichst groß aus einem Substrat herauszuholen, möchten Sie den Bildschirm so breit wie möglich machen. Zuerst bekamen wir 16:10, dann 16: 9 und es gab mäßig erfolgreiche Panelhersteller, die 22: 9- und 2: 1-Bildschirme (wie Philips) herstellen. Obwohl die Pixeldichte und die absolute Auflösung für ein paar Jahre zurückgingen, stiegen die Zollabmessungen und das verkaufte sich. Warum eine 19 "1280 × 1024 kaufen, wenn Sie eine 21" 1366 × 768 kaufen können? Eh…

    Ich denke, dass hier alle wichtigen Aspekte abgedeckt werden. Es gibt natürlich mehr; Die Bandbreitenbegrenzungen von HDMI, DVI, DP und natürlich VGA spielten eine Rolle. Wenn Sie auf die Zeit vor 2000 zurückgreifen, spielen Grafikspeicher, In-Computer-Bandware und einfach die Grenzen kommerziell verfügbarer RAMDACs eine wichtige Rolle. Aber aus heutiger Sicht geht es um alles, was Sie wissen müssen.


    Haben Sie der Erklärung etwas hinzuzufügen? Ton aus in den Kommentaren. Möchten Sie mehr Antworten von anderen technisch versierten Stack Exchange-Benutzern lesen? Hier geht es zum vollständigen Diskussionsthread.