Digitale Bildverarbeitung

Digitale Bildverarbeitung ist die Verwendung von a digitaler Computer herstellen Digitale Bilder durch ein Algorithmus.[1][2] Als Unterkategorie oder ein Feld von digitale SignalverarbeitungDie digitale Bildverarbeitung hat viele Vorteile gegenüber Analoge Bildverarbeitung. Es ermöglicht eine viel größere Reihe von Algorithmen auf die Eingabedaten und kann Probleme wie den Aufbau von vermeiden Lärm und Verzerrung Während der Verarbeitung. Da Bilder über zwei Dimensionen definiert sind (vielleicht mehr), können die digitale Bildverarbeitung in Form von modelliert werden Mehrdimensionale Systeme. Die Erzeugung und Entwicklung der digitalen Bildverarbeitung wird hauptsächlich von drei Faktoren beeinflusst: Erstens die Entwicklung von Computern; Zweitens die Entwicklung der Mathematik (insbesondere die Schöpfung und Verbesserung der diskreten Mathematik -Theorie); Drittens hat die Nachfrage nach einer Vielzahl von Anwendungen in Umwelt, Landwirtschaft, Militär, Industrie und Medizin zugenommen.

Geschichte

Viele der Techniken von digitales Bild Verarbeitung oder digitale Bildverarbeitung, wie sie oft genannt wurde, wurden in den 1960er Jahren entwickelt, bei Glockenlabors, das Jet Propulsion Laboratory, Massachusetts Institute of Technology, Universität von Marylandund einige andere Forschungseinrichtungen mit Anwendung auf Satellitenbilder, Draht-Photo Standardsumwandlung, medizinische Bildgebung, Video Telefon, Charaktererkennungund fotografische Verbesserung.[3] Der Zweck der frühen Bildverarbeitung war es, die Qualität des Bildes zu verbessern. Es zielte darauf an, dass Menschen die visuelle Wirkung von Menschen verbessern. Bei der Bildverarbeitung ist die Eingabe ein Bild von geringer Qualität, und die Ausgabe ist ein Bild mit verbesserter Qualität. Zu den gemeinsamen Bildverarbeitung gehören Bildverbesserung, Wiederherstellung, Codierung und Komprimierung. Die erste erfolgreiche Anwendung war das American Jet Propulsion Laboratory (JPL). Sie verwendeten Bildverarbeitungstechniken wie geometrische Korrektur, Abstufungstransformation, Rauschentfernung usw. Auf den Tausenden von Mondfotos, die 1964 vom Space Detector Ranger 7 zurückgesandt wurden, unter Berücksichtigung der Position der Sonne und der Umgebung des Mondes. Der Einfluss der erfolgreichen Kartierung der Oberflächenkarte des Mondes durch den Computer war ein großer Erfolg. Später wurde eine komplexere Bildverarbeitung an den fast 100.000 Fotos durchgeführt, die das Raumschiff zurücksenden Mond.[4]

Die Verarbeitungskosten waren jedoch mit den Rechenausrüstungen dieser Zeit ziemlich hoch. Dies änderte sich in den 1970er Jahren, als sich die digitale Bildverarbeitung als billigere Computer und dedizierte Hardware vermehrte. Dies führte dazu, dass Bilder in Echtzeit verarbeitet wurden, für einige engagierte Probleme wie z. Fernsehstandard -Konvertierung. Wie allgemeine Computer Sie wurden schneller und übernahmen die Rolle der speziellen Hardware für alle außer den spezialisiertesten und computerintensivsten Vorgängen. Mit den schnellen Computern und Signalprozessoren, die in den 2000er Jahren verfügbar sind, ist die digitale Bildverarbeitung zur häufigsten Form der Bildverarbeitung geworden und wird im Allgemeinen verwendet, da sie nicht nur die vielseitigste Methode, sondern auch die billigste ist.

Bildsensoren

Die Grundlage für die Moderne Bildsensoren ist Metalloxid-Sämiewerk (MOS) Technologie,[5] das stammt aus der Erfindung der Mosfet (MOS-Feldeffekttransistor) durch Mohamed M. Atalla und Dawon Kahng bei Bell Labs 1959.[6] Dies führte zur Entwicklung von Digital Halbleiter Bildsensoren, einschließlich der Ladungsgekoppelte Gerät (CCD) und später die CMOS -Sensor.[5]

Das ladungsgekoppelte Gerät wurde von erfunden von Willard S. Boyle und George E. Smith 1969 bei Bell Labs.[7] Während der Erforschung der MOS -Technologie erkannten sie, dass eine elektrische Ladung die Analogie der magnetischen Blase war und dass sie auf einem winzigen gespeichert werden konnte MOS -Kondensator. Wie es ziemlich einfach war fabrizieren Als eine Reihe von MOS -Kondensatoren in Folge verbanden sie eine geeignete Spannung mit ihnen, damit die Ladung von einem zum nächsten entlanggetreten werden konnte.[5] Der CCD ist eine Halbleiterschaltung, die später im ersten verwendet wurde Digitale Videokameras zum Fernseh-Übertragung.[8]

Das Nmos Active-Pixel-Sensor (APS) wurde von erfunden von Olymp in Japan Mitte der 1980er Jahre. Dies wurde durch Fortschritte in MOs ermöglicht Herstellung von Halbleitervorrichtungen, mit MOSFET -Skalierung kleiner erreichen Mikron und dann Sub-Micron Ebenen.[9][10] Die NMOS -APs wurden 1985 von Tsutomu Nakamuras Team bei Olympus hergestellt.[11] Das CMOs Der Active-Pixel-Sensor (CMOS-Sensor) wurde später von entwickelt von Eric Fossum's Team bei der NASA Jet Propulsion Laboratory 1993.[12] Bis 2007 hatten der Verkauf von CMOS -Sensoren CCD -Sensoren übertroffen.[13]

Bildkompression

Eine wichtige Entwicklung in Digital Bildkompression Technologie war die Diskrete Cosinus -Transformation (DCT), a Verlustige Komprimierung Technik zuerst vorgeschlagen von Nasir Ahmed 1972.[14] Die DCT -Komprimierung wurde zur Grundlage für JPEG, was durch die eingeführt wurde Gemeinsame fotografische Expertengruppe 1992.[15] JPEG komprimiert Bilder auf viel kleinere Dateigrößen und ist die am häufigsten verwendete geworden Bilddateiformat auf der Internet.[16] Der hocheffiziente DCT -Kompressionsalgorithmus war weitgehend für die breite Proliferation von verantwortlich Digitale Bilder und Digitale Fotos,[17] Mit mehreren Milliarden JPEG -Bildern, die jeden Tag ab 2015 produziert werden.[18]

Digitaler Signalprozessor (DSP)

Elektronisch Signalverarbeitung wurde durch die breite Einführung von revolutioniert MOS -Technologie in den 1970ern.[19] MOS -integrierte Schaltung Technologie war die Grundlage für den ersten Single-Chip Mikroprozessoren und Mikrocontroller In den frühen 1970er Jahren,[20] und dann der erste Single-Chip digitaler Signalprozessor (DSP) Chips Ende der 1970er Jahre.[21][22] DSP -Chips wurden inzwischen in der digitalen Bildverarbeitung häufig verwendet.[21]

Das Diskrete Cosinus -Transformation (DCT) Bildkompression Der Algorithmus wurde in DSP -Chips weit verbreitet, wobei viele Unternehmen DSP -Chips basierend auf DCT -Technologie entwickeln. DCTs werden weit verbreitet für Codierung, decodieren, Videocodierung, Audiocodierung, Multiplexing, Kontrollsignale, Signalisierung, Analog-Digital-Konvertierung, Formatierung Luminanz und Farbunterschiede und Farbformate wie z. Yuv444 und Yuv411. DCTs werden auch für Codierungsvorgänge verwendet, wie z. Bewegungsschätzung, Bewegungskompensation, Zwischenrahmen Vorhersage, Quantisierung, Wahrnehmungsgewichtung, Entropie -Codierung, variable Codierung und Bewegungsvektorenund decodierende Operationen wie der inverse Betrieb zwischen verschiedenen Farbformaten (Yiq, Yuv und RGB) Für Anzeigezwecke. DCTs werden auch häufig für verwendet Hochdefinitionsfernseher (HDTV) Encoder/Decoder -Chips.[23]

Medizinische Bildgebung

1972 erfand der Ingenieur des britischen Unternehmens Emi Housfield das Röntgen-Computertomographie-Gerät für die Kopfdiagnose, die normalerweise als CT (Computertomographie) bezeichnet wird. Die CT-Kernmethode basiert auf der Projektion des menschlichen Kopfabschnitts und wird vom Computer verarbeitet, um das Querschnittsbild zu rekonstruieren, das als Bildrekonstruktion bezeichnet wird. 1975 entwickelte EMI erfolgreich ein CT -Gerät für den gesamten Körper, das ein klares tomografisches Bild verschiedener Teile des menschlichen Körpers erhielt. 1979 gewann diese diagnostische Technik den Nobelpreis.[4] Die digitale Bildverarbeitungstechnologie für medizinische Anwendungen wurde in die aufgenommen Space Foundation Space Technology Hall of Fame im Jahr 1994.[24]

Aufgaben

Die digitale Bildverarbeitung ermöglicht die Verwendung von viel komplexeren Algorithmen und kann daher sowohl eine ausgefeiltere Leistung bei einfachen Aufgaben als auch die Implementierung von Methoden bieten, die mit analogen Mitteln unmöglich wären.

Insbesondere ist die digitale Bildverarbeitung eine konkrete Anwendung von und eine praktische Technologie basierend auf:

Einige Techniken, die in der digitalen Bildverarbeitung verwendet werden, umfassen:

Digitale Bildtransformationen

Filterung

Digitale Filter werden verwendet, um digitale Bilder zu verwischen und zu schärfen. Die Filterung kann durchgeführt werden von:

  • Faltung mit spezifisch gestaltet Kerne (Filterarray) in der räumlichen Domäne[25]
  • Maskierende Frequenzregionen in der Frequenzdomäne (Freency)

Die folgenden Beispiele zeigen beide Methoden:[26]

Filter Typ Kernel oder Maske Beispiel
Original Bild Affine Transformation Original Checkerboard.jpg
Räumliche Tiefpass Spatial Mean Filter Checkerboard.png
Räumliche Hochpass Spatial Laplacian Filter Checkerboard.png
Fourier -Darstellung Pseudo-Code:

Image = Checkerboard

F = Fourier -Transformation des Bildes

Bild anzeigen: Protokoll (1+Absolutwert (f))

Fourier Space Checkerboard.png
Fourier Tiefpass Lowpass Butterworth Checkerboard.png Lowpass FFT Filtered checkerboard.png
Fourier Highpass Highpass Butterworth Checkerboard.png Highpass FFT Filtered checkerboard.png

Bildpolsterung in Fourier -Domänenfilterung

Bilder werden normalerweise gepolstert, bevor sie in den Fourier -Raum umgewandelt werden, die Hochpass gefiltert Die folgenden Bilder veranschaulichen die Folgen verschiedener Polstertechniken:

Null gepolstert Wiederholte Kante gepolstert
Highpass FFT Filtered checkerboard.png Highpass FFT Replicate.png

Beachten Sie, dass der Hochpassfilter im Vergleich zur wiederholten Kantenpolster zusätzliche Kanten anzeigt.

Beispiele für Filtercode

MATLAB -Beispiel für die räumliche Domäne Hochpassfilterung.

img=Schachbrett(20);  % Schachbrett generieren % ************************************************************ ****** Klaplace= [0 -1 0; -1 5 -1;  0 -1 0];  % Laplace -Filterkernel X=Conv2(img,Klaplace);  % conpolve test img mit   % 3x3 Laplace -Kernel Zahl() Ich binshow(X, [])  % zeigen Laplace gefiltert Titel("Laplace -Kantenerkennung") 

Affine -Transformationen

Affine -Transformationen Aktivieren Sie grundlegende Bildtransformationen einschließlich Skalierung, Drehen, Übersetzen, Spiegel und Scher, wie in den folgenden Beispielen gezeigt wird:[26]

Transformationsname Affine Matrix Beispiel
Identität Checkerboard identity.svg
Betrachtung Checkerboard reflection.svg
Skala Checkerboard scale.svg
Drehen Checkerboard rotate.svg wo θ = π/6 = 30 °
Scheren Checkerboard shear.svg

Um die affine Matrix auf ein Bild anzuwenden, wird das Bild in Matrix konvertiert, in der jeder Eintrag der Pixelintensität an diesem Ort entspricht. Anschließend kann jeder Pixel -Standort als Vektor dargestellt werden, der die Koordinaten dieses Pixels im Bild [x, y] angibt, wobei x und y die Zeile und die Spalte eines Pixels in der Bildmatrix sind. Auf diese Weise kann die Koordinate mit einer affine Transformationsmatrix multipliziert werden, die die Position ergibt, dass der Pixelwert im Ausgabebild kopiert wird.

Um jedoch Transformationen zu ermöglichen, die Translationstransformationen erfordern, 3 dimensional Homogene Koordinaten wird gebraucht. Die dritte Dimension wird normalerweise auf eine Konstante ungleich Null gesetzt, normalerweise 1, so dass die neue Koordinate [x, y, 1] ist. Auf diese Weise kann der Koordinatenvektor mit einer 3 -mal 3 -Matrix multipliziert werden, wodurch Übersetzungsverschiebungen ermöglicht werden. Die dritte Dimension, die die Konstante 1 ist, ermöglicht also die Übersetzung.

Da die Matrixmultiplikation assoziativ ist, können mehrere affine Transformationen zu einer einzelnen Affine -Transformation kombiniert werden, indem die Matrix jeder einzelnen Transformation in der Reihenfolge multipliziert wird, in der die Transformationen durchgeführt werden. Dies führt zu einer einzelnen Matrix, die, wenn sie auf einen Punktvektor angewendet wird, das gleiche Ergebnis liefert wie alle einzelnen Transformationen, die nacheinander am Vektor [x, y, 1] durchgeführt werden. Somit kann eine Sequenz von Affine -Transformationsmatrizen auf eine einzelne Affine -Transformationsmatrix reduziert werden.

Beispielsweise ermöglichen 2 dimensionale Koordinaten nur eine Drehung um den Ursprung (0, 0). 3 dimensionale homogene Koordinaten können jedoch verwendet werden, um zuerst jeden Punkt auf (0, 0) zu übersetzen, dann die Rotation durchzuführen und zuletzt den Ursprung (0, 0) wieder zum ursprünglichen Punkt (das Gegenteil der ersten Übersetzung) zu übersetzen. Diese 3 -affine -Transformationen können zu einer einzelnen Matrix kombiniert werden, wodurch sich die Drehung um jeden Punkt im Bild umdrehen.[27]

Bild -Denoising mit Morphologie

Mathematische Morphologie ist geeignet, um Bilder zu beengen. Strukturelement sind wichtig in Mathematische Morphologie.

In den folgenden Beispielen geht es um Strukturierung von Elementen. Die Denoise -Funktion, das Bild als ich und das Strukturelement wie B werden wie unten und Tabelle angezeigt.

z.B.

Dilatation definieren (i, b) (i, j) = . Dilatation (i, b) = d (i, b)

D (i ', b) (1,1) =

Erosion definieren (i, b) (i, j) = . Lassen Sie Erosion (i, b) = e (i, b)

E (i ', b) (1,1) =

Nach der Dilatation Nach Erosion

Eine Öffnungsmethode ist einfach zuerst Erosion und dann eine Dilatation, während die Schließmethode umgekehrt ist. In Wirklichkeit können das d (i, b) und e (i, b) durch implementiert werden Faltung

Strukturelement Maske Code Beispiel
Original Bild Keiner Verwenden Sie MATLAB, um das Originalbild zu lesen
Original = Imread('szene.jpg'); Bild = RGB2GRAY(Original); [r, c, Kanal] = Größe(Bild); se = logisch[1 1 1 ; 1 1 1 ; 1 1 1])); [p, q] = Größe(se); Halfh = Boden(p/2); halbw = Boden(q/2); Zeit = 3;  % Deno -mal mit aller Methode beenoisieren 
Original Lotus
Erweiterung Verwenden Sie MATLAB, um zu erweitern
Imwrite(Bild, "szene_dil.jpg") Extractmax = Nullen(Größe(Bild), Klasse(Bild)); zum i = 1 : Zeit   Dil_image = Imread('szene_dil.jpg');   zum col = (halbw + 1): (c - halbw)   zum die Zeile = (Halfh + 1) : (r - Halfh)   dpointd = die Zeile - Halfh;   Dpointu = die Zeile + Halfh;   Dpointl = col - halbw;   dpointr = col + halbw;   Dneighbor = Dil_image(dpointd:Dpointu, Dpointl:dpointr);   Filter = Dneighbor(se);   Extractmax(die Zeile, col) = Max(Filter);   Ende   Ende   Imwrite(Extractmax, "szene_dil.jpg"); Ende 
Denoising -Bild mit Dilatationsmethode
Erosion Verwenden Sie MATLAB zur Erosion
Imwrite(Bild, 'szene_ero.jpg'); Extraktmin = Nullen(Größe(Bild), Klasse(Bild)); zum i = 1: Zeit   ERO_IMAGE = Imread('szene_ero.jpg');   zum col = (halbw + 1): (c - halbw)   zum die Zeile = (Halfh +1): (r -Halfh)   nach unten zeigen = die Zeile-Halfh;   aufzeigen = die Zeile+Halfh;   Pointleft = col-halbw;   Pointright = col+halbw;   Nachbar = ERO_IMAGE(nach unten zeigen:aufzeigen,Pointleft:Pointright);   Filter = Nachbar(se);   Extraktmin(die Zeile, col) = Mindest(Filter);   Ende   Ende   Imwrite(Extraktmin, "Szene_ero.jpg"); Ende 
Lotus free erosion.jpg
Öffnung Verwenden Sie das Öffnen von Matlab
Imwrite(Extraktmin, "Szene_opening.jpg") Extraktopen = Nullen(Größe(Bild), Klasse(Bild)); zum i = 1 : Zeit   Dil_image = Imread('szene_opening.jpg');   zum col = (halbw + 1): (c - halbw)   zum die Zeile = (Halfh + 1) : (r - Halfh)   dpointd = die Zeile - Halfh;   Dpointu = die Zeile + Halfh;   Dpointl = col - halbw;   dpointr = col + halbw;   Dneighbor = Dil_image(dpointd:Dpointu, Dpointl:dpointr);   Filter = Dneighbor(se);   Extraktopen(die Zeile, col) = Max(Filter);   Ende   Ende   Imwrite(Extraktopen, "Szene_opening.jpg"); Ende 
Lotus free opening.jpg
Schließen Verwenden Sie MATLAB zum Schließen
Imwrite(Extractmax, "szene_closing.jpg") extrahieren = Nullen(Größe(Bild), Klasse(Bild)); zum i = 1 : Zeit   ERO_IMAGE = Imread('szene_closing.jpg');   zum col = (halbw + 1): (c - halbw)   zum die Zeile = (Halfh + 1) : (r - Halfh)   dpointd = die Zeile - Halfh;   Dpointu = die Zeile + Halfh;   Dpointl = col - halbw;   dpointr = col + halbw;   Dneighbor = ERO_IMAGE(dpointd:Dpointu, Dpointl:dpointr);   Filter = Dneighbor(se);   extrahieren(die Zeile, col) = Mindest(Filter);   Ende   Ende   Imwrite(extrahieren, "szene_closing.jpg"); Ende 
Denoising -Bild mit Schließmethode

Um die Denoising -Methode auf ein Bild anzuwenden, wird das Bild in Graustufen konvertiert. Eine Maske mit der Denoising -Methode ist eine logische Matrix mit . Die Denoising -Methoden beginnen in der Mitte des Bildes mit der Hälfte der Höhe, der Hälfte der Breite und der Bildgrenze der Zeilenzahl, der Spaltennummer. Nachbar ist ein Block im Originalbild mit der Grenze [der Punkt unter der Mitte: Der Punkt oben, der Punkt links von der Mitte: Der Punkt rechts von der Mitte]. Faltung Nachbarn und Strukturelement und dann das Zentrum durch ein Minimum an Nachbarn ersetzen.

Nehmen Sie zum Beispiel die Schlussmethode.

Dilatation zuerst

  1. Lesen Sie das Bild und konvertieren Sie es mit MATLAB in Graustufen.
    1. Holen Sie sich die Größe eines Bildes. Die Zeilenzahlen und Spaltenzahlen der Rückgabewert sind die Grenzen, die wir später verwenden werden.
    2. Strukturierungselemente hängen von Ihrer Dilatation oder Erosionsfunktion ab. Das Minimum des Nachbarn eines Pixels führt zu einer Erosionsmethode und das Maximum des Nachbarn führt zu einer Dilatationsmethode.
    3. Legen Sie die Zeit für Dilatation, Erosion und Schließen fest.
  2. Erstellen Sie eine Nullmatrix mit der gleichen Größe wie das Originalbild.
  3. Dilatation zuerst mit Strukturierungsfenster.
    1. Das Strukturierungsfenster beträgt 3*3 Matrix und Faltung
    2. Für die Schleife extrahieren Sie das Minimum mit dem Fenster aus Zeilenbereich [2 ~ Bildhöhe - 1] mit Spaltenbereich [2 ~ Bildbreite - 1]
  4. Füllen Sie den Mindestwert an die Nullmatrix und speichern Sie ein neues Bild
    1. Für die Grenze kann es noch verbessert werden. Da in der Methode eine Grenze ignoriert wird. Polsterelemente können angewendet werden, um mit Grenzen umzugehen.

Dann Erosion (nehmen Sie das Dilatationbild als Eingabe)

  1. Erstellen Sie eine Nullmatrix mit der gleichen Größe wie das Originalbild.
  2. Erosion mit Strukturfenster.
    1. Das Strukturierungsfenster beträgt 3*3 Matrix und Faltung
    2. Für die Schleife extrahieren Sie das Maximum mit dem Fenster aus Zeilenbereich [2 ~ Bildhöhe - 1] mit Spaltenbereich [2 ~ Bildbreite - 1]
  3. Füllen Sie den Maximalwert an der Nullmatrix und speichern Sie ein neues Bild
    1. Für die Grenze kann es noch verbessert werden. Da in der Methode die Grenze ignoriert wird. Polsterelemente können angewendet werden, um mit Grenzen umzugehen.
  4. Die Ergebnisse sind wie oben angezeigt

Anwendungen

Digitalkamera -Bilder

Digitale Kameras enthalten im Allgemeinen spezielle digitale Bildverarbeitungshardware - entweder dedizierte Chips oder zusätzliche Schaltkreise für andere Chips -, um die Rohdaten von ihren zu konvertieren Bildsensor in ein farbkorrigiert Bild in einem Standard Bilddateiformat. Zusätzliche Nachverarbeitungstechniken erhöhen die Kantenschärfe oder die Farbsättigung, um natürlichere Bilder zu erzeugen.

Film

Westworld (1973) war der erste Spielfilm, der die digitale Bildverarbeitung verwendete Pixellate Fotografie, um den Standpunkt eines Androids zu simulieren.[28] Die Bildverarbeitung wird auch stark verwendet, um die zu produzieren Chroma Key Wirkung, der den Hintergrund von Schauspielern durch natürliche oder künstlerische Landschaften ersetzt.

Gesichtserkennung

Gesichtserkennungsprozess

Gesichtserkennung kann mit implementiert werden mit Mathematische Morphologie, Diskrete Cosinus -Transformation die normalerweise DCT und horizontal genannt wird Projektion (Mathematik).

Allgemeine Methode mit featurenbasierter Methode

Die merkmalsbasierte Methode der Gesichtserkennung besteht darin, Hautton, Kantenerkennung, Gesichtsform und Merkmal eines Gesichts (wie Augen, Mund usw.) zu verwenden, um die Gesichtserkennung zu erreichen. Der Hautton, die Gesichtsform und alle einzigartigen Elemente, die nur das menschliche Gesicht haben, können als Merkmale beschrieben werden.

Prozesserklärung

  1. Extrahieren Sie bei einer Charge von Gesichtsbildern zunächst den Hautton -Bereich, indem Sie Gesichtsbilder ausprobieren. Der Hautton -Bereich ist nur ein Hautfilter.
    1. Strukturelle Ähnlichkeit Indexmess (SSIM) kann angewendet werden, um Bilder zum Extrahieren des Hauttons zu vergleichen.
    2. Normalerweise sind HSV- oder RGB -Farbräume für den Hautfilter geeignet. Z.B. HSV -Modus, der Hautton -Bereich beträgt [0,48,50] ~ [20,255,255]
  2. Nach dem Filtern von Bildern mit Hautton werden Morphologie und DCT verwendet, um Geräusche zu entfernen und fehlende Hautbereiche zu füllen.
    1. Öffnungsmethode oder Schließmethode kann verwendet werden, um fehlende Haut aufzufüllen.
    2. DCT soll das Objekt mit Ton-ähnlicher Haut vermeiden. Da menschliche Gesichter immer eine höhere Textur haben.
    3. Sobel -Operator oder andere Operatoren können angewendet werden, um die Gesichtskante zu erkennen.
  3. Um menschliche Merkmale wie die Augen zu positionieren, hilft es mit der Projektion und finden Sie den Höhepunkt des Histogramms der Projektion, um das Detailfunktion wie Maus, Haare und Lippen zu erhalten.
    1. Die Projektion projiziert nur das Bild, um die Hochfrequenz zu sehen, die normalerweise die Funktionsposition ist.

Verbesserung der Bildqualitätsmethode

Die Bildqualität kann durch Kamera-Schwingung, Überexposition, Graustufenverteilung zu zentralisiert und Rauschen usw. beeinflusst werden. Zum Beispiel kann das Rauschenproblem durch gelöst werden Glättung Methode, während das Problem des Graustufenverteilung durch verbessert werden kann durch Histogrammausgleich.

Glättung Methode

Wenn es in der Zeichnung eine unzufriedene Farbe gibt, nimmt man etwas Farbe um unzufriedene Farbe und durchschnittlich. Dies ist eine einfache Möglichkeit, sich die Glättungsmethode zu überlegen.

Glättungsmethode kann mit Maske und implementiert werden Faltung. Nehmen Sie zum Beispiel das kleine Bild und die Maske wie unten.

Bild ist

Maske ist

Nach Faltung und Glättung, Bild ist

OBEREVING -Bild [1, 1], Bild [1, 2], Bild [2, 1] und Bild [2, 2].

Das Originalbildpixel ist 1, 4, 28, 30. Nach der Glättungsmaske wird das Pixel 9, 10, 9, 9.

neues Bild [1, 1] = * (Bild [0,0]+Bild [0,1]+Bild [0,2]+Bild [1,0]+Bild [1,1]+Bild [1,2]+Bild [2,0] +Bild [2,1]+Bild [2,2])

neues Bild [1, 1] = Boden (Boden ( * (2+5+6+3+1+4+1+28+30)) = 9

neues Bild [1, 2] = floor ({{ * (5+6+5+1+4+6+28+30+2)) = 10

neues Bild [2, 1] = Boden (Boden ( * (3+1+4+1+28+30+73+3+2)) = 9

neues Bild [2, 2] = Boden (Boden ( * (1+4+6+28+30+2+3+2+2)) = 9

Histogrammmethode Graustufe

Im Allgemeinen ein Graustufehistogramm aus einem Bild wie unten. Das Ändern des Histogramms in eine gleichmäßige Verteilung eines Bildes ist normalerweise das, was wir genannt haben Histogrammausgleich.

Abbildung 1
Figur 2

In diskreten Zeit ist der Bereich des Graustufehistogramms (Siehe Abbildung 1) Während der Bereich der gleichmäßigen Verteilung ist (Siehe Abbildung 2). Es ist klar, dass sich der Bereich nicht ändert, also wird sich also nicht ändern .

Aus der einheitlichen Verteilung die Wahrscheinlichkeit von ist während

In kontinuierlicher Zeit ist die Gleichung .

Darüber hinaus ist die Graustufe -Histogramm -Methode basierend auf der Definition einer Funktion wie das Finden einer Funktion Das erfüllt f (p) = q.

Verbesserungsmethode Ausgabe Vor der Verbesserung Verfahren Nach Verbesserung
Glättungsmethode Lärm

Mit Matlab, Salz & Pfeffer mit 0,01 Parameter wird zugesetzt
zum Originalbild, um ein lautes Bild zu erstellen.

Helmet with noise.jpg
  1. Lesen Sie Bild und konvertieren Sie das Bild in Graustufen
  2. Faltung des Grayale -Bildes mit der Maske
  3. Das Denoisebild ist das Ergebnis von Schritt 2.
Helmet without noise.jpg
Histogrammausgleich Graustufenverteilung zu zentralisiert
Cave scene before improvement.jpg
Beziehen Sie sich auf die Histogrammausgleich
Cave scene after improvement.jpg

Siehe auch

Verweise

  1. ^ Chakravort, Pragnan (2018). "Was ist ein Signal? [Vorlesungen]". IEEE Signal Processing Magazine. 35 (5): 175–177. Bibcode:2018ispm ... 35..175c. doi:10.1109/msp.2018.2832195. S2CID 52164353.
  2. ^ Gonzalez, Rafael (2018). Digitale Bildverarbeitung. New York, NY: Pearson. ISBN 978-0-13-335672-4. OCLC 966609831.
  3. ^ Azriel Rosenfeld, Bildverarbeitung nach Computer, New York: Academic Press, 1969
  4. ^ a b Gonzalez, Rafael C. (2008). Digitale Bildverarbeitung. Woods, Richard E. (Richard Eugene), 1954- (3. Aufl.). Upper Saddle River, N.J.: Prentice Hall. S. 23–28. ISBN 9780131687288. OCLC 137312858.
  5. ^ a b c Williams, J. B. (2017). Die Elektronikrevolution: Erfindung der Zukunft. Springer. S. 245–8. ISBN 9783319490885.
  6. ^ "1960: Transistor des Metalloxid -Halbleiters (MOS) demonstriert". Der Siliziummotor. Computergeschichte Museum. Archiviert Aus dem Original am 3. Oktober 2019. Abgerufen 31. August 2019.
  7. ^ James R. Janiesick (2001). Wissenschaftliche Ladungsgeräte. Spie Press. S. 3–4. ISBN 978-0-8194-3698-6.
  8. ^ Boyle, William S; Smith, George E. (1970). "Gebühren gekoppte Halbleitergeräte". Bell -System. Technik. J. 49 (4): 587–593. doi:10.1002/j.1538-7305.1970.tb01790.x.
  9. ^ Fossum, Eric R. (12. Juli 1993). "Aktive Pixelsensoren: Sind CCDS -Dinosaurier?". In Blouke, Morley M. (Hrsg.). Ladungsgekoppelte Geräte und optische Festkörper-Sensoren III III. Verfahren des Spie. Vol. 1900. S. 2–14. Bibcode:1993spie.1900 .... 2f. Citeseerx 10.1.1.408.6558. doi:10.1117/12.148585. S2CID 10556755.
  10. ^ Fossum, Eric R. (2007). "Aktive Pixelsensoren". S2CID 18831792. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  11. ^ Matsumoto, Kazuya; et al. (1985). "Ein neuer MOS-Phototransistor, der in einem nicht zerstörerischen Auslesemodus arbeitet". Japanisches Journal of Applied Physics. 24 (5a): L323. Bibcode:1985Jajap..24L.323m. doi:10.1143/jjap.24.l323. S2CID 108450116.
  12. ^ Fossum, Eric R.; Hondongwa, D. B. (2014). "Eine Überprüfung der festgestellten Fotodiode für CCD- und CMOS -Bildsensoren". IEEE Journal der Electron Devices Society. 2 (3): 33–43. doi:10.1109/jeds.2014.2306412.
  13. ^ "Der Verkauf von CMOS-Bildsensor bleibt auf rekordverdächtigem Tempo". IC -Erkenntnisse. 8. Mai 2018. Archiviert Aus dem Original am 21. Juni 2019. Abgerufen 6. Oktober 2019.
  14. ^ Ahmed, Nasir (Januar 1991). "Wie ich mich mit der diskreten Cosinus -Transformation ausgedacht habe". Digitale Signalverarbeitung. 1 (1): 4–5. doi:10.1016/1051-2004 (91) 90086-Z. Archiviert Aus dem Original am 10. Juni 2016. Abgerufen 10. Oktober 2019.
  15. ^ "T.81-Digitale Komprimierung und Codierung von ständigen Standbildern-Anforderungen und Richtlinien" (PDF). Ccitt. September 1992. Archiviert (PDF) Aus dem Original am 17. Juli 2019. Abgerufen 12. Juli 2019.
  16. ^ "Das JPEG -Bildformat erklärt". Bt.com. BT -Gruppe. 31. Mai 2018. Archiviert Aus dem Original am 5. August 2019. Abgerufen 5. August 2019.
  17. ^ "Was ist ein JPEG? Das unsichtbare Objekt, das Sie jeden Tag sehen". Der Atlantik. 24. September 2013. Archiviert Aus dem Original am 9. Oktober 2019. Abgerufen 13. September 2019.
  18. ^ Baraniuk, Chris (15. Oktober 2015). "Kopierschutz könnte zu JPEGs kommen". BBC News. Archiviert Aus dem Original am 9. Oktober 2019. Abgerufen 13. September 2019.
  19. ^ Grant, Duncan Andrew; Gowar, John (1989). Power MOSFETs: Theorie und Anwendungen. Wiley. p. 1. ISBN 9780471828679. Der Metalloxid-Sämiener-Field-Effect-Transistor (MOSFET) ist das am häufigsten verwendete aktive Gerät in der sehr großen Integration digitaler integrierter Schaltungen (VLSI). In den 1970er Jahren revolutionierten diese Komponenten die elektronische Signalverarbeitung, Steuerungssysteme und Computer.
  20. ^ Shirriff, Ken (30. August 2016). "Die überraschende Geschichte der ersten Mikroprozessoren". IEEE -Spektrum. Institut für Elektro- und Elektronikingenieure. 53 (9): 48–54. doi:10.1109/mspec.2016.7551353. S2CID 32003640. Archiviert Aus dem Original am 13. Oktober 2019. Abgerufen 13. Oktober 2019.
  21. ^ a b "1979: Single Chip Digital Signal Processor eingeführt". Der Siliziummotor. Computergeschichte Museum. Archiviert Aus dem Original am 3. Oktober 2019. Abgerufen 14. Oktober 2019.
  22. ^ Taranovich, Steve (27. August 2012). "30 Jahre DSP: Von einem Kinderspielzeug bis 4G und darüber hinaus". Edn. Archiviert Aus dem Original am 14. Oktober 2019. Abgerufen 14. Oktober 2019.
  23. ^ Stanković, Radomir S.; Astola, Jaakko T. (2012). "Erinnerungen an die frühen Arbeiten in DCT: Interview mit K. R. Rao" (PDF). Nachdrucke aus den frühen Tagen der Informationswissenschaften. 60. Archiviert (PDF) Aus dem Original am 13. Oktober 2019. Abgerufen 13. Oktober 2019.
  24. ^ "Space Technology Hall of Fame: Inducted Technologies/1994". Space Foundation. 1994. archiviert von das Original am 4. Juli 2011. Abgerufen 7. Januar 2010.
  25. ^ Zhang, M. Z.; Livingston, A. R.; Asari, V. K. (2008). "Eine Hochleistungsarchitektur für die Umsetzung der 2-D-Faltung mit symmetrischen Quadrant-Kerneln". Internationales Journal für Computer und Anwendungen. 30 (4): 298–308. doi:10.1080/1206212x.2008.11441909. S2CID 57289814.
  26. ^ a b Gonzalez, Rafael (2008). Digitale Bildverarbeitung, 3.. Pearson Hall. ISBN 9780131687288.
  27. ^ Haus, Keyser (6. Dezember 2016). Affine -Transformationen (PDF). Clemson. Grundlagen von physikalisch basierten Modellierung und Animation. A K Peters/CRC Press. ISBN 9781482234602. Archiviert (PDF) vom Original am 30. August 2017. Abgerufen 26. März 2019.
  28. ^ Eine kurze, frühe Geschichte der Computergrafik im Film Archiviert 17. Juli 2012 bei der Wayback -Maschine, Larry Yaeger, 16. August 2002 (letzte Update), abgerufen am 24. März 2010 abgerufen

Weitere Lektüre

  • Solomon, C.J.; Breckon, T.P. (2010). Grundlagen der digitalen Bildverarbeitung: Ein praktischer Ansatz mit Beispielen in Matlab. Wiley-Blackwell. doi:10.1002/9780470689776. ISBN 978-0470844731.
  • Wilhelm Burger; Mark J. Burge (2007). Digitale Bildverarbeitung: Ein algorithmischer Ansatz mit Java. Springer. ISBN 978-1-84628-379-6.
  • R. Fisher; K Dawson-Howe; A. Fitzgibbon; C. Robertson; E. Trucco (2005). Wörterbuch für Computer Vision und Bildverarbeitung. John Wiley. ISBN 978-0-470-01526-1.
  • Rafael C. Gonzalez; Richard E. Woods; Steven L. Eddins (2004). Digitale Bildverarbeitung mit MATLAB. Pearson Ausbildung. ISBN 978-81-7758-898-9.
  • Tim Morris (2004). Computer Vision und Bildverarbeitung. Palgrave Macmillan. ISBN 978-0-333-99451-1.
  • Tyagi Vipin (2018). Verständnis der digitalen Bildverarbeitung. Taylor und Francis CRC Press. ISBN 978-11-3856-6842.
  • Mailand Sonka; Vaclav Hlavac; Roger Boyle (1999). Bildverarbeitung, Analyse und Maschinenaufwand. PWS Publishing. ISBN 978-0-534-95393-5.
  • Rafael C. Gonzalez (2008). Digitale Bildverarbeitung. Prentice Hall. ISBN9780131687288

Externe Links