Pixel
Im digitale Bildbearbeitung, a Pixel (abgekürzt px), PEL,[1] oder Bildelement[2] ist das kleinste adressierbare Element in a Rasterbild, oder das kleinste adressierbare Element in einem alle Punkte adressierbar Anzeigegerät; Es ist also das kleinste steuerbare Element eines Bildes, das auf dem Bildschirm dargestellt wird.
Jedes Pixel ist a Probe eines Originalbildes; Weitere Proben liefern typischerweise genauere Darstellungen des Originals. Das Intensität von jedem Pixel ist variabel. In Farbbildungssystemen wird eine Farbe typischerweise durch drei oder vier Komponentenintensitäten dargestellt, z. rot, grün und blau, oder Cyan, Magenta, Gelb und Schwarz.
In einigen Kontexten (wie Beschreibungen von Kamerasensoren), Pixel bezieht sich auf ein einzelnes Skalarelement einer Mehrkomponentendarstellung (als a Photossit im Kamerasensorkontext, allerdings senssel wird manchmal verwendet),[3] In noch anderen Kontexten (wie MRT) kann es sich auf eine Reihe von Komponentenintensitäten für eine räumliche Position beziehen.
Etymologie
Das Wort Pixel ist eine Kombination von Pix (von "Bildern", verkürzt auf "Bilder") und El (zum "Element"); ähnliche Formationen mit 'el ' Fügen Sie die Wörter ein Voxel[4] und Texel.[4] Das Wort Pix erschien in Vielfalt Magazin Schlagzeilen im Jahr 1932 als Abkürzung für das Wort Bilder, in Bezug auf Filme.[5] Bis 1938 wurde "Pix" in Bezug auf noch Bilder von Photojournalists verwendet.[6]
Das Wort "Pixel" wurde erstmals 1965 von veröffentlicht Frederic C. Billingsley von Jpl, um die Bildelemente von gescannten Bildern von zu beschreiben Raumsonden Zum Mond und Mars.[7] Billingsley hatte das Wort von Keith E. McFarland unter der Link -Abteilung für allgemeine Präzision in gelernt Palo Alto, der wiederum sagte, er wisse nicht, wo es stammt. McFarland sagte einfach, es sei "zu dieser Zeit in Gebrauch" (ca. 1963).[6]
Das Konzept eines "Bildelements" stammt aus den frühesten Tagen des Fernsehens beispielsweise als "Bildpunkt"(Das deutsche Wort für Pixel, buchstäblich "Bildpunkt") im deutschen Patent von 1888 von Paul Nipkow. Nach verschiedenen Etymologien die früheste Veröffentlichung des Begriffs Bildelement selbst war in Drahtlose Welt Zeitschrift im Jahr 1927,[8] Obwohl es früher in verschiedenen US -Patenten verwendet worden war, die bereits 1911 eingereicht wurden.[9]
Einige Autoren erklären Pixel wie Bildzelle, Bereits 1972.[10] In Grafiken und in Bild- und Videoverarbeitung, PEL wird oft anstelle von verwendet Pixel.[11] Zum Beispiel verwendete IBM es in ihrer technischen Referenz für die Original PC.
Pixilation, geschrieben mit einer Sekunde i, ist eine nicht verwandte Filmemachentechnik, die sich mit den Anfängen des Kinos befindet, in dem Live-Schauspieler von Rahmen rahmen und fotografiert werden, um Stop-Motion-Animation zu erstellen. Ein archaisches britisches Wort, das "Besitz von Geistern (Besitz" bedeutet (Geister (Pixies) ", der Begriff wurde verwendet, um den Animationsprozess seit den frühen 1950er Jahren zu beschreiben; verschiedene Animatoren, einschließlich Norman McLaren und Grant Munro, werden die Popularisierung gutgeschrieben.[12]
Technisch
Ein Pixel ist im Allgemeinen gedacht als die kleinste einzelne Komponente von a digitales Bild. Die Definition ist jedoch sehr kontextsensitiv. Zum Beispiel kann es geben "gedruckte Pixel"In einer Seite oder Pixeln, die von elektronischen Signalen getragen oder durch digitale Werte oder Pixel auf einem Anzeigegerät oder Pixel in einem dargestellt werden Digitalkamera (Photosensorelemente). Diese Liste ist nicht erschöpfend, und je nach Kontext umfassen Synonyme PEL, Probe, Bit, Bit, Dot und Spot. Pixel Kann als Maßeinheit verwendet werden, wie z. B. 2400 Pixel pro Zoll, 640 Pixel pro Linie oder 10 Pixel voneinander entfernt.
Die Maßnahmen Punkte pro Zoll (DPI) und Pixel pro Zoll (PPI) werden manchmal austauschbar verwendet, haben jedoch unterschiedliche Bedeutungen, insbesondere für Druckergeräte, wobei DPI ein Maß für die Druckerdichte des Druckers (z. B. Tintentröpfchen) ist.[13] Beispielsweise kann ein hochwertiges fotografisches Bild mit 600 ppi auf einem 1200-dpi-Tintenstrahldrucker gedruckt werden.[14] Noch höhere DPI -Zahlen, wie die seit 2002 zitierten 4800 DPI, die von Druckerherstellern zitiert werden Auflösung.[15]
Je mehr Pixel zur Darstellung eines Bildes verwendet werden, desto näher kann das Ergebnis dem Original ähneln. Die Anzahl der Pixel in einem Bild wird manchmal als Auflösung bezeichnet, obwohl die Auflösung eine spezifischere Definition aufweist. Pixelzählungen können als einzelne Zahl wie in einer Digitalkamera "Drei-Megapixel" mit nominaler drei Millionen Pixel oder als Zahlenpaar ausgedrückt werden, wie in einem "640 x 480 Display" mit 640 Pixel von Seite zu Seite und 480 von oben nach unten (wie in a VGA Anzeige) und daher eine Gesamtzahl von 640 × 480 = 307.200 Pixel oder 0,3 Megapixel.
Die Pixel oder Farbproben, die ein digitalisiertes Bild bilden (wie z. JPEG Die auf einer Webseite verwendete Datei kann möglicherweise in eins zu eins sein oder nicht Korrespondenz Mit Bildschirmpixeln, je nachdem, wie ein Computer ein Bild anzeigt. Beim Computer ist ein aus Pixel bestehender Bild als a bekannt Bitmap -Bild oder ein Rasterbild. Das Wort Raster entstammt aus Fernsehscannen Muster und wurde häufig verwendet, um ähnlich zu beschreiben Halbton Druck- und Speichertechniken.
Stichprobenmuster
Zur Bequemlichkeit sind Pixel normalerweise in a arrangiert Regelmäßiges zweidimensionales Netz. Durch die Verwendung dieser Vereinbarung können viele gängige Operationen implementiert werden, indem der gleiche Betrieb unabhängig voneinander auf jeden Pixel angewendet wird. Andere Anordnungen von Pixeln sind möglich, wobei einige Stichprobenmuster sogar die Form ändern (oder Kernel) jedes Pixels über das Bild. Aus diesem Grund muss beim Erstellen eines Bildes auf einem Gerät und beim Anzeigen auf einem anderen oder beim Konvertieren von Bilddaten von einem Pixelformat in ein anderes geachtet werden.
Zum Beispiel:
- LCD -Bildschirme Verwenden Sie in der Regel ein gestaffeltes Netz, in dem die roten, grünen und blauen Komponenten an leicht unterschiedlichen Stellen abgetastet werden. Subpixel -Rendering ist eine Technologie, die diese Unterschiede nutzt, um die Darstellung von Text auf LCD -Bildschirmen zu verbessern.
- Die überwiegende Mehrheit der Farbdigitalkameras verwendet a Bayer -Filter, was zu einem regelmäßigen Pixelnetz führt, wo die Farbe von jedem Pixel hängt von seiner Position am Netz ab.
- A Clipmap verwendet ein hierarchisches Stichprobenmuster, wobei die Größe der Größe der Unterstützung von jedem Pixel hängt von seiner Position innerhalb der Hierarchie ab.
- Verrückte Gitter werden verwendet, wenn die zugrunde liegende Geometrie nicht planar ist, wie z. B. Bilder der Erde aus dem Raum.[16]
- Die Verwendung von ungleichmäßigen Gittern ist ein aktiver Forschungsgebiet, der versucht, die traditionelle zu umgehen Nyquist Limit.[17]
- Pixel auf Computermonitoren sind normalerweise "quadratisch" (dh eine gleiche horizontale und vertikale Probenahme -Tonhöhe); Pixel in anderen Systemen sind oft "rechteckig" (dh eine ungleiche horizontale und vertikale Probenahme -Tonhöhe - länglich in Form), wie es sind digitales Video Formate mit vielfältig Seitenverhältnisse, so wie die anamorphes Breitbildschirm Formate der Rec. 601 digitaler Videostandard.
Auflösung von Computermonitoren
Computer können Pixel verwenden, um ein Bild anzuzeigen, häufig ein abstraktes Bild, das a darstellt GUI. Die Auflösung dieses Bildes wird als Anzeigeauflösung bezeichnet und wird durch das bestimmt Grafikkarte des Computers. LCD Monitore verwenden auch Pixel, um ein Bild anzuzeigen und eine Einheimische Auflösung. Jedes Pixel besteht aus Triadenmit der Anzahl dieser Triaden, die die native Auflösung bestimmen. Auf manchen Crt Monitore, die Strahl -Sweep -Rate kann festgelegt werden, was zu einer festen nativen Auflösung führt. Die meisten CRT -Monitore haben keine feste Strahl -Sweep -Rate, was bedeutet, dass sie überhaupt keine native Auflösung haben - stattdessen haben sie eine Reihe von Auflösungen, die gleich gut unterstützt werden. Um die schärfsten Bilder auf einem LCD zu erstellen, muss der Benutzer sicherstellen, dass die Anzeigeauflösung des Computers der nativen Auflösung des Monitors entspricht.
Lösung von Teleskopen
Die in der Astronomie verwendete Pixelskala ist der Winkelabstand zwischen zwei Objekten am Himmel, die ein Pixel auf dem Detektor (CCD- oder Infrarot -Chip) auseinander fallen. Die Skala s gemessen in Radians ist das Verhältnis des Pixelabstands p und Brennweite f der vorhergehenden Optik, s=p/f. (Die Brennweite ist das Produkt der Fokusverhältnis durch den Durchmesser des zugehörigen Objektivs oder des zugehörigen Spiegels.) Weil p wird normalerweise in Einheiten von ausgedrückt ArcSeconds pro Pixel, weil 1 Radian gleich ist 180/π*3600 ≈206,265 ArcSeconds, und weil oft Durchmesser in Millimetern und Pixelgrößen in Mikrometern verabreicht werden, was einen weiteren Faktor von 1.000 ergibt, wird die Formel häufig als zitiert als S = 206p/f.
Bits pro Pixel
Die Anzahl der unterschiedlichen Farben, die durch ein Pixel dargestellt werden können, hängt von der Anzahl der Bits pro Pixel (BPP) ab. Ein 1 BPP -Bild verwendet 1 Bit für jedes Pixel, sodass jedes Pixel entweder ein- oder ausgeschaltet sein kann. Jedes zusätzliche Bit verdoppelt die Anzahl der verfügbaren Farben, sodass ein 2 BPP -Bild 4 Farben haben kann und ein 3 BPP -Bild 8 Farben haben kann:
- 1 BPP, 21 = 2 Farben (Farben (einfarbig)
- 2 BPP, 22 = 4 Farben
- 3 BPP, 23 = 8 Farben
- 4 BPP, 24 = 16 Farben
- 8 BPP, 28 = 256 Farben
- 16 BPP, 216 = 65.536 Farben ("HighColor"))
- 24 BPP, 224 = 16.777.216 Farben ("Wahre Farbe"))
Für Farbtiefe von 15 oder mehr Bits pro Pixel ist die Tiefe normalerweise die Summe der Bits, die jedem der rot-, grün- und blauen Komponenten zugeordnet sind. HighColornormalerweise, normalerweise 16 BPP, hat normalerweise fünf Bits für jeweils rot und blau und sechs Bit für Grün, da das menschliche Auge auf Grüne empfindlicher ist als in den beiden anderen Primärfarben. Für Anwendungen mit Transparenz können die 16 Bits in jeweils fünf Bits von rot, grün und blau unterteilt werden, wobei ein Bit zur Transparenz übrig ist. Eine 24-Bit-Tiefe ermöglicht 8 Bit pro Komponente. Auf einigen Systemen ist 32-Bit-Tiefe verfügbar: Dies bedeutet, dass jedes 24-Bit-Pixel zusätzliche 8 Bit hat, um seine zu beschreiben Opazität (zum Zwecke der Kombination mit einem anderen Bild).
Subpixel
Viele Anzeigen- und Bild-Akquisitionssysteme sind nicht in der Lage, die verschiedenen Anzeigen anzuzeigen oder zu erfassen Farbkanäle an derselben Stelle. Daher ist das Pixelgitter in Einzelfarbenregionen unterteilt, die zu der angezeigten oder erfassten Farbe beitragen, wenn sie in einiger Entfernung betrachtet wird. In einigen Displays wie LCD-, LED- und Plasma-Displays sind diese Einzelfarbenregionen separat adressierbare Elemente, die als bekannt wurden als Subpixel, meist RGB Farben.[18] Zum Beispiel, LCDs Teilen Sie normalerweise jedes Pixel vertikal in drei Subpixel. Wenn das quadratische Pixel in drei Subpixel unterteilt ist, ist jedes Subpixel notwendigerweise rechteckig. In der Display -Industrie -Terminologie werden Subpixel häufig als bezeichnet Pixel, wie sie die grundlegenden adressierbaren Elemente in einem Standpunkt der Hardware und daher sind Pixelschaltungen statt Subpixelschaltungen wird genutzt.
Die meiste Digitalkamera Bildsensoren Verwenden Sie Einzelfarbsensorregionen, z. B. mit der Bayer -Filter Muster und in der Kameraindustrie sind diese als bekannt als Pixel Genau wie in der Display -Branche nicht Subpixel.
Für Systeme mit Subpixeln können zwei verschiedene Ansätze verfolgt werden:
- Die Subpixel können ignoriert werden, wobei Vollfarbpixel als das kleinste adressierbare Bildgebungselement behandelt werden. oder
- Die Subpixel können in die Rendering -Berechnungen einbezogen werden, für die mehr Analyse- und Verarbeitungszeit erforderlich ist, in einigen Fällen jedoch offensichtlich überlegene Bilder erzeugen kann.
Dieser letztere Ansatz wird als als bezeichnet Subpixel -Renderingverwendet Kenntnisse von Pixelgeometrie Um die drei farbigen Subpixel getrennt zu manipulieren, erzeugen eine Erhöhung der scheinbaren Auflösung von Farbanzeigen. Während Crt Displays verwenden rot-grün-blau-maskierte Phosphorbereiche, diktiert durch ein Netzraster, das als Schattenmaske bezeichnet wird. Es würde einen schwierigen Kalibrierungsschritt erfordern, um mit dem angezeigten Pixel-Raster ausgerichtet zu werden, sodass CRTs kein Subpixel-Rendering verwenden.
Das Konzept der Subpixel bezieht sich auf Proben.
Logisches Pixel
In Grafik-, Webdesign- und Benutzeroberflächen kann sich auf ein "Pixel" eher auf eine feste Länge als auf ein echtes Pixel auf dem Bildschirm beziehen, um unterschiedliche Unterschiede aufzunehmen Pixeldichten. Eine typische Definition wie in CSS, ist, dass ein "physisches" Pixel ist 1⁄96 0,26 mm. Wenn Sie dies tun, stellt sicher, dass ein bestimmtes Element als die gleiche Größe angezeigt wird, unabhängig davon, welche Bildschirmauflösung es ansieht.[19]
Es kann jedoch einige weitere Anpassungen zwischen einem "physischen" Pixel und einem logischen Pixel auf dem Bildschirm geben. Da Bildschirme in Differenzentfernungen (Betrachtung eines Telefons, einer Computeranzeige und eines Fernsehgeräts) angesehen werden, wird die gewünschte Länge (ein "Referenzpixel") relativ zu einem Referenzbeobachtungsabstand (28 Zoll (71 cm) in CSS) skaliert. Da die echten Bildschirmpixeldichten selten mehr als 96 dpi sind, wird häufig einige Rundungen angewendet, so dass ein logisches Pixel eine ganzzahlige Menge an tatsächlichen Pixeln ist. Wenn Sie dies tun, werden Artefakte vermieden. Das endgültige "Pixel", das nach diesen beiden Schritten erhalten wurde, wird zum "Anker", dem alle anderen absoluten Messungen (z. B. dem "Zentimeter") basieren.[20]
Arbeitete ein Beispiel mit einem 2160p -Fernseher von 30 Zoll (76 cm), das 56 Zoll (140 cm) vom Betrachter entfernt ist:
- Berechnen Sie die skalierte Pixelgröße als 1⁄96 in × (56/28) = 1⁄48 0,53 mm (Zoll).
- Berechnen Sie den DPI des Fernsehers als 2160 / (30 in / / √9^2 + 16^2 × 16) ≈ 82,61 dpi.
- Berechnen Sie die Real-Pixel-Anzahl pro logischem Pixel als 1⁄48 in × 82,61 dpi ≈ 1,721 Pixel.
Ein Browser verwendet dann die 1,721 × Pixel -Größe oder die Runde zu einem 2 -fach -Verhältnis.
Megapixel
A Megapixel (MP) ist eine Million Pixel; Der Begriff wird nicht nur für die Anzahl der Pixel in einem Bild verwendet, sondern auch für die Ausdruckszahl von Bildsensor Elemente von Digitalkameras oder die Anzahl der Anzeigeelemente von Digitale Anzeigen. Beispielsweise verwendet eine Kamera, die ein Bild von 2048 × 1536 Pixel (3.145.728 fertige Bildpixel) herstellt. Die gemeldete Zahl ist die "effektive" oder "Gesamt" Pixelzahl.[21]
Pixel wird verwendet, um die Auflösung eines Fotos zu definieren. Die Fotoauflösung wird berechnet, indem die Breite und Höhe eines Sensors in Pixel multipliziert wird.
Digitale Kameras verwenden auch photosensitive Elektronik Ladungsgekoppelte Gerät (CCD) oder Komplementäres Metall -Oxid -Semiconductor (CMOS) Bildsensoren, bestehend aus einer großen Anzahl einzelner Sensorelemente, von denen jeweils ein gemessenes Intensitätsniveau aufzeichnet. In den meisten Digitalkameras ist das Sensorarray mit einem gemusterten Farbfilter -Mosaik mit roten, grünen und blauen Regionen in der bedeckt Bayer -Filter Anordnung, damit jedes Sensorelement die Intensität einer einzelnen primären Lichtfarbe aufzeichnen kann. Die Kamera interpoliert die Farbinformationen von benachbarten Sensorelementen durch einen Prozess, der genannt wird Demosaierung, um das endgültige Bild zu erstellen. Diese Sensorelemente werden oft als "Pixel" bezeichnet, obwohl sie nur einen Kanal (nur rot oder grün oder blau) des endgültigen Farbbildes aufnehmen. Somit müssen zwei der drei Farbkanäle für jeden Sensor interpoliert und sogenannt werden N-Megapixel Die Kamera, die ein N-Megapixel-Bild erzeugt, liefert nur ein Drittel der Informationen, die ein Bild derselben Größe von einem Scanner erhalten kann. Daher können bestimmte Farbkontraste unscharfer aussehen als andere, abhängig von der Zuweisung der Primärfarben (Grün hat doppelt so viele Elemente wie rot oder blau in der Bayer -Anordnung).
DXO Labs erfand die Wahrnehmungsmegapixel (P-MPIX) Um die Schärfe zu messen, die eine Kamera erzeugt, wenn sie mit einem bestimmten Objektiv gepaart wird-im Gegensatz zum Abgeordneten, der ein Hersteller für ein Kameraprodukt angibt, das nur auf dem Sensor der Kamera basiert. Der neue P-MPIX behauptet, ein genauerer und relevanterer Wert für Fotografen zu sein, wenn sie bei der Waage der Kameraschärfe berücksichtigen müssen.[22] Ab Mitte 2013 die Sigma 35 mm 1: 1,4 dg HSM -Objektiv auf a montiert Nikon D800 hat das am höchsten gemessene P-Mpix. Mit einem Wert von 23 MP löscht es jedoch immer noch mehr als ein Drittel des 36,3-MP-Sensors des D800.[23] Im August 2019 veröffentlichte Xiaomi den Redmi Note 8 Pro als erste der Welt Smartphone mit 64 MP -Kamera.[24] Am 12. Dezember 2019 veröffentlichte Samsung Samsung A71 mit einer 64 -MP -Kamera.[25] Ende 2019 kündigte Xiaomi das erste Kamera-Telefon mit 108 MP 1/1,33-Zoll über Sensor an. Der Sensor ist größer als die meisten von Brückenkamera mit 1/2,3 Zoll über den Sensor.[26]
Eine neue Methode zum Hinzufügen von Megapixeln wurde in a eingeführt Micro Four Thirds System Die Kamera, die nur einen 16 -MP -Sensor verwendet, aber ein 64 -MP -RAW -Bild (40 MP JPEG) erzeugt, indem zwei Expositionen erstellt werden, wodurch der Sensor um ein halbes Pixel zwischen ihnen verschoben wird. Mit einem Stativ zum Aufnehmen von Multi-Shots in einem Fall werden die mehrere 16 MP-Bilder dann zu einem einheitlichen 64 MP-Bild generiert.[27]
Siehe auch
Verweise
- ^ Foley, J. D.; Van Dam, A. (1982). Grundlagen interaktiver Computergrafiken. Lesen, MA: Addison-Wesley. ISBN 0201144689.
- ^ Rudolf F. Graf (1999). Modernes Wörterbuch der Elektronik. Oxford: Newnes. p. 569. ISBN 0-7506-4331-5.
- ^ Michael Goele (2004). Neue Akquisitionstechniken für echte Objekte und Lichtquellen in Computergrafiken.Bücher auf Nachfrage. ISBN 3-8334-1489-8. Archiviert vom Original am 2018-01-22.
- ^ a b James D. Foley; Andries Van Dam; John F. Hughes; Steven K. Fainer (1990). "Räumlichkeitspartitionierungsdarstellungen; Oberflächendetail". Computergrafik: Prinzipien und Praxis. Die Systems -Programmierreihen. Addison-Wesley. ISBN 0-201-12110-7.
Diese Zellen werden oft genannt Voxel (Volumenelemente), in Analogie zu Pixeln.
- ^ "Online -Etymologie -Wörterbuch". Archiviert vom Original am 2010-12-30.
- ^ a b Lyon, Richard F. (2006). Eine kurze Geschichte von 'Pixel' (PDF). IS & T/Spie Symposium über elektronische Bildgebung. Archiviert (PDF) vom Original am 2009-02-19.
- ^ Fred C. Billingsley, "Processing Ranger and Mariner Photography", in Computerisierte Bildgebungstechniken, Proceedings of Spie, Vol. 0010, S. XV-1–19, Januar 1967 (August 1965, San Francisco).
- ^ Safire, William (2. April 1995). "Modem, ich bin Odem". Auf Sprache. Die New York Times. Archiviert Aus dem Original am 9. Juli 2017. Abgerufen 21. Dezember 2017.
- ^ US 1175313, Alf Sinding-Larsen, "Übertragung von Bildern von beweglichen Objekten", veröffentlicht 1916-03-14
- ^ Robert L. Lillestrand (1972). "Techniken zur Änderungserkennung". IEEE trans. Computer. C-21 (7).
- ^ Lewis, Peter H. (12. Februar 1989). "Compaq schärft seine Videooption". Der Executive Computer. Die New York Times. Archiviert vom Original am 20. Dezember 2017. Abgerufen 21. Dezember 2017.
- ^ Tom Gasek (17. Januar 2013). Frame By Frame Stop Motion: Nicht -traditionelle Ansätze, um Bewegungsanimation zu stoppen. Taylor & Francis. p. 2. ISBN 978-1-136-12933-9. Archiviert Aus dem Original am 22. Januar 2018.
- ^ Derek Doeffinger (2005). Die Magie des Digitaldrucks. Lerchenbücher. p.24. ISBN 1-57990-689-3.
Druckerpunkte pro Zoll Pixel pro Zoll.
- ^ "Experimente mit Pixel pro Zoll (PPI) mit gedruckter Bildschärfe". Clarkvision.com. 3. Juli 2005. Archiviert Aus dem Original am 22. Dezember 2008.
- ^ Harald Johnson (2002). Digitaldruck beherrschen. Thomson -Kurs -Technologie. p. 40. ISBN 1-929685-65-3.
- ^ "Bildregistrierung von verschwommenen Satellitenbildern". staff.utia.cas.cz. 28. Februar 2001. Archiviert Aus dem Original am 20. Juni 2008. Abgerufen 2008-05-09.
- ^ Saryazdi, Saeı̈d; Haese-Coat, Véronique; Ronsin, Joseph (2000). "Bilddarstellung durch eine neue optimale ungleichmäßige morphologische Probenahme". Mustererkennung. 33 (6): 961–977. doi:10.1016/s0031-3203 (99) 00158-2.
- ^ "Subpixel in der Wissenschaft". Dictionary.com. Archiviert Aus dem Original am 5. Juli 2015. Abgerufen 4. Juli 2015.
- ^ "CSS: EM, PX, PT, CM, in ..." W3.org. 8. November 2017. Archiviert Aus dem Original am 6. November 2017. Abgerufen 21. Dezember 2017.
- ^ "CSS -Werte und Einheiten Modul Level 3". www.w3.org.
- ^ "Jetzt ist ein Megapixel wirklich ein Megapixel". Archiviert vom Original am 2013-07-01.
- ^ "Auf der Suche nach neuer Fotosausrüstung? Dxomarks Wahrnehmungs -Megapixel kann Ihnen helfen!". Dxomark. 17. Dezember 2012. archiviert von das Original am 8. Mai 2017.
- ^ "Kameraobjektivbewertungen von dxomark". Dxomark. Archiviert von das Original Am 2013-05-26.
- ^ Anton Shilov (31. August 2019). "Das erste Smartphone der Welt mit einer 64 -MP -Kamera: Xiaomis Redmi Note 8 Pro".
- ^ "Samsung Galaxy A51 und Galaxy A71 wurden angekündigt: Infinity-O-Displays und L-förmige Quad-Kameras". 12. Dezember 2019.
- ^ Robert Triggs (16. Januar 2020). "Xiaomi Mi Note 10 Kamera Bewertung: Die erste 108MP -Telefonkamera". Abgerufen 20. Februar, 2020.
- ^ Damien Demolder (14. Februar 2015). "Bald 40 MP ohne Stativ: Ein Gespräch mit Setsuya Kataoka von Olympus". Archiviert Aus dem Original am 11. März 2015. Abgerufen 8. März, 2015.
Externe Links
- Ein Pixel ist kein kleines Quadrat: Microsoft Memo von Computer Graphics Pionier Alvy Ray Smith.
- "Pixel und ich", 2016 Vortrag von Richard F. Lyon Bei der Computergeschichte Museum
- Quadratische und nicht quadratische Pixel: Technische Informationen zu Pixel -Seitenverhältnissen moderner Videostandards (480i, 576i, 1080i, 720p) sowie Software -Implikationen.
- Wie ein Fernseher in Zeitlupe funktioniert - die langsamen Mo -Leute – Youtube Video von Die langsamen Mo -Jungs