Startpagina » hoe » Waarom bestaat de schermresolutie 1366 x 768?

    Waarom bestaat de schermresolutie 1366 x 768?

    Als je de neiging hebt om je meer te richten op aspectratio's zoals 16: 9 en 4: 3 als je denkt aan schermresoluties, dan vraag je je misschien af ​​wat er aan de hand is met de populaire laptopschermresolutie 1366 × 768. De SuperUser Q & A-post van vandaag helpt om dingen duidelijk te maken voor een verwarde lezer.

    De Question & Answer-sessie van vandaag komt tot ons dankzij SuperUser - een onderdeel van Stack Exchange, een gemeenschapsgedreven groep van Q & A-websites.

    Foto met dank aan Cheon Fong Liew (Flickr).

    De vraag

    Superuser-lezer meed96 wil weten waarom de schermresolutie 1366 × 768 bestaat:

    Ik weet dat hier een eerdere vraag over bestaat, maar het heeft geen echte antwoorden ondanks dat het 12.400 keer bekeken is (naast het feit dat het is afgesloten). Met dat in gedachten:

    Waarom ter wereld is de schermresolutie 1366 × 768 echt? Het heeft een beeldverhouding van 683: 384, wat het gekste is dat ik ooit heb gehoord toen ik in een 16: 9 wereld woonde.

    Alle schermen en resoluties die ik ken zijn de beeldverhouding van 16: 9. Mijn scherm, 1920 × 1080, is 16: 9. De 720-pixelgrootte is 1280 × 720, wat ook 16: 9 is. De 4K-grootte, 3840 × 2160, is ook 16: 9. Toch is 1366 × 768 683: 384, een schijnbaar wilde breuk met de standaard.

    Ik weet dat er overal genoeg andere oplossingen zijn, maar 1366 × 768 lijkt het grootste deel van de midden geprijsde laptopwereld te domineren en lijkt ook uniek voor de laptopwereld. Waarom niet 1280 × 720 of iets anders als standaard gebruiken voor laptops?

    Waarom bestaat de schermresolutie 1366 x 768??

    Het antwoord

    SuperUser-bijdragers mtone en piernov hebben het antwoord voor ons. Als eerste, mtone:

    Volgens Wikipedia (nadruk van mij):

    • De basis voor deze overigens vreemd ogende resolutie is vergelijkbaar met die van andere 'brede' standaarden - de lijnscan (refresh) -snelheid van de gevestigde 'XGA'-standaard (1024 × 768 pixels, 4: 3-aspect) werd uitgebreid tot vierkante pixels op de steeds populairdere 16: 9 breedbeeldschermverhouding zonder belangrijke signaalveranderingen te moeten uitvoeren anders dan een snellere pixelklok, of andere fabricagewijzigingen dan het uitbreiden van de paneelbreedte met een derde. Omdat 768 niet precies in de "9" -grootte deelt, is de beeldverhouding niet helemaal 16: 9 - dit zou een horizontale breedte van 1365.33 pixels vereisen. Met slechts 0,05% is de resulterende fout echter niet significant.

    Citaten worden niet verstrekt, maar het is een redelijke verklaring. Het is het dichtst bij 16: 9 dat ze konden krijgen door de verticale resolutie van 768 te behouden van 1024 × 768, die veel werd gebruikt voor de productie van vroege 4: 3 LCD-schermen. Misschien heeft dat de kosten helpen verlagen.

    Gevolgd door het antwoord van piernov:

    Op het moment dat de eerste breed-schermen van de computer populair werden, was de gebruikelijke resolutie op 4: 3-panelen 1024 x 768 (de XGA-standaard). Voor eenvoud en compatibiliteit met eerdere versies werd de XGA-resolutie als basis gehouden bij het maken van de WXGA-resolutie (zodat XGA-graphics eenvoudig kunnen worden weergegeven op WXGA-schermen).

    Het uitbreiden van de breedte en het behouden van dezelfde hoogte was ook technisch eenvoudiger omdat u de horizontale verversingssnelheidstiming alleen maar hoeft aan te passen om dit te bereiken. De standaard beeldverhouding voor brede schermen was echter 16: 9, wat niet mogelijk is met 768 pixels, dus de dichtstbijzijnde waarde werd gekozen, 1366 × 768.

    WXGA kan ook verwijzen naar een resolutie van 1360 × 768 (en enkele andere die minder vaak voorkomen), die werd gemaakt om de kosten in geïntegreerde schakelingen te verlagen. 1366 × 768 8-bits pixels zouden iets meer dan 1-MiB nodig hebben om te worden opgeslagen (1024.5KiB), dus dat zou niet passen in een 8-Mbit geheugenchip en je zou een 16-Mbit geheugenchip nodig hebben om een paar pixels. Dat is waarom iets een beetje lager dat 1366 werd gekozen. Waarom 1360? Omdat je het kunt delen door 8 (of zelfs 16), wat veel eenvoudiger is om te verwerken bij het verwerken van grafische afbeeldingen (en zou kunnen leiden tot geoptimaliseerde algoritmen).

    Lees de rest van de interessante discussie door via de onderstaande link!


    Heb je iets toe te voegen aan de uitleg? Geluid uit in de reacties. Wilt u meer antwoorden van andere technisch onderlegde Stack Exchange-gebruikers lezen? Bekijk hier de volledige discussiethread.