DE69833999T2 - Verfahren zur automatischen erkennung menschlicher augen in digitalbildern - Google Patents

Verfahren zur automatischen erkennung menschlicher augen in digitalbildern Download PDF

Info

Publication number
DE69833999T2
DE69833999T2 DE69833999T DE69833999T DE69833999T2 DE 69833999 T2 DE69833999 T2 DE 69833999T2 DE 69833999 T DE69833999 T DE 69833999T DE 69833999 T DE69833999 T DE 69833999T DE 69833999 T2 DE69833999 T2 DE 69833999T2
Authority
DE
Germany
Prior art keywords
computer program
program product
human eyes
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69833999T
Other languages
English (en)
Other versions
DE69833999D1 (de
Inventor
Jiebo c/o Eastman Kodak Company Rochester Luo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE69833999D1 publication Critical patent/DE69833999D1/de
Application granted granted Critical
Publication of DE69833999T2 publication Critical patent/DE69833999T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Description

  • Die Liste im Anhang der Beschreibung dieses Patents enthält Unterlagen, für die Urheberrechtsschutz beansprucht wird. Der Inhaber des Urheberrechts hat keine Einwände gegen die Faksimile-Reproduktion eines der Patentdokumente oder der Patentbeschreibung, wie in den Akten des US-Patent- und Markenamtes hinterlegt, behält sich aber alle sonstigen Rechte vor.
  • Die vorliegende Erfindung betrifft allgemein den Bereich der digitalen Bildverarbeitung und insbesondere das Lokalisieren von Objekten in einem Digitalbild.
  • Die Identifizierung von Objekten in einem Bild ist Bestandteil einer Vielzahl von Bildverarbeitungsfunktionen. Beispielsweise wird zur Korrektur von roten Augen in Bildern das menschliche Auge lokalisiert, und der unerwünschte rote Teil in dem Auge wird durch eine ästhetisch ansprechendere Farbe ersetzt. In der „KODAK" Digitaldruckstation wird das Bild an einem berührungsempfindlichen Bildschirm angezeigt, wobei ein Auge wiederholt berührt wird, um den roten Bereich des Auges bei jeder Berührung weiter zu vergrößern. Der rote Bereich des Auges wird dann identifiziert, indem nach roten Pixeln in dem während des Vergrößerungsprozesses definierten Bereich gesucht wird, und die identifizierten roten Pixel werden durch eine vorbestimmte Farbe ersetzt, um dem Bild ein ästhetisch ansprechenderes Aussehen zu verleihen. Der Vorgang wird anschließend für das andere Auge wiederholt.
  • Ein ein neurales Netz betreffendes Verfahren zur Lokalisierung menschlicher Augen wird beschrieben in Learning An Example Selection for Object and Pattern Recognition, The AI-Lab, MIT von K. K. Sung, November 1995. Dieses Verfahren beschreibt das Trainieren eines neuralen Netzes zur Erkennung von Augen mit akzeptabler Verzerrung aus einer vorgewählten Augenvorlage. Der Bediener verzerrt die ursprüngliche Augenvorlage wiederholt, wobei sämtliche Variationen, die aus dem Verzerren des Auges erzeugt werden, entweder als akzeptabel oder als inakzeptabel markiert werden. Die verzerrten Muster, d.h. die Trainingsaugen, und die zugehörigen Markierungsinformationen werden in das neurale Netz eingespeist. Dieser Trainingsprozess wird wiederholt, bis das neurale Netz eine zufriedenstellende Erkennungsleistung für die Trainingsbilder erzielt hat. Somit sind mehrere mögliche Abwandlungen des Auges in dem trainierten neuralen Netz gespeichert. Die Lokalisierung eines Auges erfolgt durch Einspeisung eines Bereichs des Bildes in das neurale Netz, um zu bestimmen, ob eine erwünschte Ausgabe, d.h. eine Übereinstimmung, auftritt; alle Übereinstimmungen werden als ein Auge identifiziert.
  • Die in der Technik bekannten und verwendeten Verfahren zur Identifizierung von Augen sind zwar zufriedenstellend, jedoch nicht ohne Nachteil. Das mit einem berührungsempfindlichen Bildschirm arbeitende Verfahren erfordert eine konstante menschliche Interaktion durch wiederholtes Berühren des berührungsempfindlichen Bildschirms, um das Auge zu vergrößern und ist daher etwas arbeitsaufwändig. Das ein neurales Netz umfassende Verfahren erfordert ein umfassendes Training und beinhaltet zudem einen rechenintensiven Abstimmungsprozess, weil eine ausführliche Suche nach allen möglichen Größen und Ausrichtungen des Auges durchgeführt werden muss.
  • Chow G. et al. beschreiben in "Towards a System for Automatic Facial Feature Detection", Pattern Recognition, US, Pergamon Press Inc., Elmsford, N.Y., Band 26, Nr. 12, 1. Dezember 1993, Seite 1739-1755, XP000420368 ISSN 0031-3203 ein Gesichtsmerkmal-Erkennungssystem und ein Computerprogramm, in dem Talbereiche eines Bildes ermittelt werden. Zur Ermittlung einer Vielzahl von Orten, die eine gewünschte Übereinstimmung eines Objekts mit der Vorlage aufweisen, wird eine Vorlagenübereinstimmungsprüfung durchgeführt. Es wird eine Prüfung durchgeführt, um zu ermitteln, ob zwei potenzielle Augenkandidaten an Orten infrage kommen, die aus den Talbereichen bestimmt worden sind. Das System und Computerprogramm umfassen in unterschiedlichen Modulen das Bestimmen eines Neigungswinkels und eines Maßes eines Kandidatenauges, basierend auf der Ausrichtung eines Vektors, der zwei Kandidatenaugen verbindet.
  • Saber, E. et al. beschreiben in "Face detection and facial feature extraction using color, shape and symmetry-based cost functions", Proceedings of the International Conference on Pattern Recognition, 25. August 1996, XP002097369, ein Kontextmodell, in dem Orte von Kandidatenaugen in Bezug auf eine Ellipse geprüft werden, die einen Näherungswert eines Gesichts darstellt. Das Modell umfasst eine Kostenfunktion, in der ein Vektor zwischen zwei Kandidatenaugen mit einer horizontalen Linie verglichen wird.
  • Sobottka, K. et al. beschreiben in „Face Localization and Facial Feature Extraction Based on Shape and Color Information", Proceedings of the International Conference on Image Processing (ICIP), US, New York, USA, IEEE, 1996, Seite 483-486, XP000704075 ISBN: 0-7803-3259-8 ein weiteres Verfahren zur Gesichtsmerkmalserkennung.
  • Es besteht daher Bedarf nach Verbesserungen des Verfahrens zur Lokalisierung von Objekten in einem Bild, um die zuvor beschriebenen Nachteile zu überwinden.
  • Die vorliegende Erfindung löst eines oder mehrere der vorstehend genannten Probleme. Nach einem Aspekt der vorliegenden Erfindung betrifft die Erfindung ein Computerprogrammprodukt zum Lokalisieren eines ersten und zweiten Aufnahmegegenstandes in Form menschlicher Augen, wobei jeder Aufnahmegegenstand im Wesentlichen dieselben physikalischen Eigenschaften aufweist und das Verhältnis zwischen dem Abstand des ersten und zweiten Aufnahmegegenstandes in Form menschlicher Augen und der Größe eines jeden Aufnahmegegenstandes in Form menschlicher Augen im Wesentlichen unveränderlich ist, mit einem computerlesbaren Speichermedium mit einem darauf gespeicherten Computerprogramm zum Ausführen der Schritte: (a) Bestimmen eines potentiellen Hauttonbereichs in einem Bild; (b) Bestimmen von Grundbereichen im Bild; (c) Ausführen eines Abgleichs im Bild unter Verwendung einer Vorlage (Template) in einer Nachbarschaft der Grundbereiche innerhalb der Hauttonbereiche zum Bestimmen einer Vielzahl von Orten, die einen erwünschten Abgleich des Aufnahmegegenstandes in Form menschlicher Augen bezüglich der Vorlage ergeben; und (d) Finden der besten zwei Orte von Aufnahmegegenständen in Form menschlicher Augen durch Berechnen von Bewertungskriterien einzeln oder in Kombination für eine Vielzahl von Nachweiskriterien, wobei das Berechnen der Bewertungskriterien oder Gütemaße das Messen des Unterschieds zwischen einer Ausrichtung einer einen ersten und einen zweiten Aufnahmegegenstand in Form menschlicher Augen verbindenden Linie und einer durchschnittlichen Ausrichtung der Aufnahmegegenstände in Form menschlicher Augen als einem der Nachweiskriterien umfasst.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Auffindung von Objekten in einem Bild bereitzustellen, das die zuvor beschriebenen Probleme löst.
  • Der vorliegenden Erfindung liegt zudem die Aufgabe zugrunde, ein Verfahren zur automatischen Auffindung von Objekten in einem Bild bereitzustellen.
  • Der vorliegenden Erfindung liegt zudem die Aufgabe zugrunde, ein Verfahren zur Ermittlung der physischen Größe der zu findenden Objekte bereitzustellen.
  • Der vorliegenden Erfindung liegt zudem die Aufgabe zugrunde, ein Verfahren zur Ermittlung der physischen Ausrichtung der zu findenden Objekte bereitzustellen.
  • Die vorliegende Erfindung weist den Vorteil auf, dass ein effizientes Verfahren zur Lokalisierung von Objekten in einem Bild bereitgestellt wird.
  • Ein Merkmal der vorliegenden Erfindung besteht darin, eine Größe jedes Objekts anhand der Form und Größe des Bereichs zu ermitteln, in dem sich die Objekte potenziell befinden.
  • Ein Merkmal der vorliegenden Erfindung besteht darin, eine Ausrichtung jedes Objekts anhand der Form und Ausrichtung des Bereichs zu ermitteln, in dem sich die Objekte potenziell befinden.
  • Ein Merkmal der vorliegenden Erfindung besteht darin, zwei (oder eine Gruppe) von Objekten anhand der Vielzahl von Bewertungskriterien oder Gütemaßen auf der Grundlage des vorherigen Wissens um die Beziehung zwischen dem ersten und zweiten Objekt zu bestimmen.
  • Die Erfindung wird im folgenden anhand in der Zeichnung dargestellter Ausführungsbeispiele näher erläutert. Es zeigen:
  • 1 eine perspektivische Ansicht eines Computersystems zur Implementierung der vorliegenden Erfindung;
  • 2a ein Diagramm zur Darstellung des von der vorliegenden Erfindung verwendeten Suchverfahrens;
  • 2b ein detailliertes Diagramm zur Darstellung des zonengestützten Kreuzkorrelationsprozesses;
  • 3 ein detailliertes Diagramm zur Darstellung des Hauterkennungsprozesses;
  • 4 ein detailliertes Diagramm zur Darstellung des Talbereichserkennungsprozesses;
  • 5 eine Ansicht der Zonenpartition der erfindungsgemäßen Vorlage;
  • 6 eine Darstellung zur Paarzuordnung von Augenkandidaten;
  • 7 eine Darstellung der Verifikationsprozedur für den Abstand zwischen den Augen und die Ausrichtungen der beiden Augen;
  • 8 eine Darstellung zum Abgleichen des Auge-Auge-Profils;
  • 9 eine Darstellung der Bewertungsfunktion; und
  • 10 eine Darstellung des Gesichts- und des Mundrahmens.
  • Im folgenden wird die vorliegende Erfindung in dem bevorzugten Ausführungsbeispiel als Softwareprogramm beschrieben. Fachleuten ist selbstverständlich klar, dass sich ein Äquivalent einer derartigen Software auch in Form von Hardware konstruieren lässt.
  • Im vorliegenden Zusammenhang kann ein computerlesbares Speichermedium beispielsweise magnetische Speichermedien, wie Magnetplatten (z.B. Disketten) oder Magnetband umfassen, optische Speichermedien, wie optische Platte, optisches Band oder maschinenlesbaren Code, Halbleiterspeichervorrichtungen, wie RAM (Random Access Memory) oder ROM (Read Only Memory) oder jede andere physische Vorrichtung oder jedes andere Medium, das zur Speicherung eines Computerprogramms geeignet ist.
  • 1 zeigt ein Computersystem zur Implementierung der vorliegenden Erfindung. Zwar wird hier das Computersystem 10 zur Veranschaulichung eines bevorzugten Ausführungsbeispiels gezeigt, aber die vorliegende Erfindung ist nicht auf das gezeigte Computersystem 10 beschränkt, sondern kann mit jedem elektronischen Verarbeitungssystem verwendet werden. Das Computersystem 10 umfasst eine mikroprozessorgestützte Einheit 20 zum Empfangen und Verarbeiten von Softwareprogrammen sowie zur Durchführung anderer Verarbeitungsfunktionen. Ein berührungsempfindliches Display 30 ist elektronisch mit der mikroprozessorgestützten Einheit 20 verbunden, um benutzerbezogene Informationen in Verbindung mit der Software anzuzeigen und um Benutzereingaben über die Berührung des Bildschirms zu empfangen. Eine Tastatur 40 ist ebenfalls mit der mikroprozessorgestützten Einheit 20 verbunden, damit ein Benutzer Informationen an die Software übergeben kann. Als Alternative zur Verwendung der Tastatur 40 als Eingabegerät ist eine Maus 50 verwendbar, um ein Auswahlelement 52 am Display 30 zu bewegen und eine Position auszuwählen, an der sich das Auswahlelement 52 mit der Position überlagert, wie in der Technik bekannt ist.
  • Ein Compact-Disk-Lesespeicher (CD-ROM) 55 ist mit der mikroprozessorgestützten Einheit 20 verbunden, um Softwareprogramme zu empfangen und um eine Einrichtung zur Eingabe der Softwareprogramme und anderer Informationen in die mikroprozessorgestützte Einheit 20 über eine Compact Disk 57 bereitzustellen, die typischerweise ein Softwareprogramm umfasst. Ein Softwareprogramm kann sich auch auf einer Diskette 61 befinden, die zur Eingabe des Softwareprogramms in die mikroprozessorgestützte Einheit 20 eingelegt wird. Wie in der Technik bekannt ist, ist die mikroprozessorgestützte Einheit 20 zudem zur internen Speicherung des Softwareprogramms programmierbar. Ein Drucker 56 ist mit der mikroprozessorgestützten Einheit 20 verbunden, um eine Hardcopy der Ausgabe des Computersystems 10 zu erstellen.
  • Bilder können zudem am Display 30 über eine Personal-Computer-Karte 62 (PC-Karte), die vormals als PCMCIA-Karte (Personal Computer Memory Card International Association) bekannt war, angezeigt werden, die in der Karte 62 ausgebildete, digitalisierte Bilder enthält. Die PC-Karte 62 wird in die mikroprozessorgestützte Einheit 20 eingesteckt, um das Bild am Display 30 visuell darzustellen.
  • 2a zeigt ein Ablaufdiagramm eines erfindungsgemäßen Softwareprogramms. Vor Erörterung der Details des Ablaufprogramms sei darauf hingewiesen, dass ein Teil des Programms zwar das Erkennen menschlicher Haut beinhaltet, dass aber bei entsprechender Modifizierung des Programms auch tierische Haut erkennbar ist, wie Technikern selbstverständlich klar sein wird. Das Programm wird initiiert S2, und die Erkennung menschlicher Haut wird durchgeführt, um eine Hautkarte S4 zu erstellen.
  • 3 zeigt ein detailliertes Ablaufdiagramm zur Erstellung der Hautkarte S4. Diesbezüglich wird ein Farbbild in die mikroprozessorgestützte Einheit 20 mithilfe bekannter Mittel eingegeben S4a, beispielsweise mit einer PC-Karte, und in einen Farbraum konvertiert S4b, vorzugsweise in einen LST-Farbraum. Die Bildcodewerte werden dann quantifiziert S4c, um die Gesamtzahl von Histogramm-Bins zu reduzieren. Ein dreidimensionales (3D) Histogramm wird für das typische 3-Kanal-Farbbild erstellt S4d. Dieses 3D-Histogramm wird geglättet S4e, um das Rauschen zu entfernen, worauf die Spitzen in dem 3D-Histogramm geortet werden S4f. Bin-Clustering wird durch Zuweisung einer Spitze zu jedem Bin des Histogramms S4g durchgeführt. Für jedes Pixel in dem Farbbild wird ein Wert basierend auf dem Bin zugewiesen, der der Farbe des Pixels entspricht S4h. Verbundene Bereiche, die eine Mindestzahl von Pixeln aufweisen (MinNoPixels), vorzugsweise 50 Pixel, wobei auch andere Werte verwendbar sind, werden dann markiert S4i. Die größte zulässige Zahl von Bereichen ist MaxNoRegions S4i, vorzugsweise 20 Bereiche, obwohl auch andere Werte verwendbar sind.
  • Anhand der mittleren, transformierten Farbkomponentenwerte der menschlichen Haut und der mittleren Farbwerte eines gegebenen Bereichs wird eine Hautwahrscheinlichkeit Pskin für jeden markierten Bereich S4j berechnet. Einem Bereich, in dem Pskin größer als SkinThreshold ist S4k, und zwar um vorzugsweise 0,7, wird eine eindeutige Markierung zugeordnet, wobei auch andere Werte verwendbar sind. Alle Pixel, die keine Haut darstellen, werden auf null gesetzt. Wenn sich zwei oder mehr Hautbereiche berühren, werden sie zu einem einzigen Hautbereich S41 zusammengefasst.
  • Wie in 4 gezeigt, empfängt das Programm die Hautkartendaten und führt eine bekannte elliptische Ausgleichstechnik für jeden verbundenen Hautbereich durch. Das Seitenverhältnis und die Kompaktheit der ausgleichenden Ellipse wurde gemessen, um Hautbereiche von unregelmäßiger Formgebung zurückzuweisen. Das Seitenverhältnis ist als das Verhältnis der langen zu den kurzen Achsen definiert, und die Kompaktheit ist als das Verhältnis der von der ausgleichenden Ellipse eingeschlossenen Fläche zu der Fläche des gesamten Hautbereichs definiert. Wenn das Seitenverhältnis der ausgleichenden Ellipse größer als drei ist, oder wenn die Kompaktheit kleiner als 0,9 ist, wird sie zurückgewiesen. Wie in 2a gezeigt, bestimmt das Programm eine programmseitig geschätzte Größe und Ausrichtung der Augen S6 gemäß der in jedem verbliebenen Hautbereich ausgleichenden Ellipse anhand der folgenden Gleichung, die grafisch in 4 dargestellt ist: s = b/4wobei b die Länge der kleineren Achse der ausgleichenden Ellipse in Pixeln ist, und wobei s die ermittelte Größe oder Länge des Auges in Pixeln ist.
  • Zudem wird eine geschätzte Winkelausrichtung des Auges aus der Ausrichtung der ausgleichenden Ellipse erzeugt S6, wie in 4 gezeigt. Hierbei liegt die Annahme zugrunde, dass die beiden Augen ausgerichtet sind, so dass jedes Auge ungefähr die gleiche Ausrichtung hat wie die Ausrichtung der kleineren Achse der ausgleichenden Ellipse. Dieser Winkel, der als θ bezeichnet wird, liegt zwischen der kleineren Achse und einer horizontalen Linie. Ein Unterbild wird für jeden Hautbereich extrahiert S8. Es sei darauf hingewiesen, dass von dieser geschätzten Augengröße die Auflösung des extrahierten Unterbildes derart abgeändert ist, dass die Augen in dem Bild ungefähr dieselbe Größe wie die Augenvorlage haben S8. Wie in 6 gezeigt, hat eine bestimmte Augenvorlage eine Auflösung von 19 Pixeln horizontal und 13 Pixeln vertikal. Diese Auflösungsänderung oder Neubemaßung ermöglicht es, die Augen in den Bildern mit derselben Auflösung einer Vorlage und gegen dieselbe Menge von Strukturdetails abzugleichen, wie nachstehend detailliert beschrieben wird. Alternativ hierzu kann ein Satz von Vorlagen mit unterschiedlichen Detailmengen entworfen werden, wobei die Auflösung des Bildes unverändert bleibt. Eine derartige alternative Konstruktion lässt sich von einschlägigen Fachleuten ohne Schwierigkeiten verwirklichen.
  • Wie in 2a gezeigt, wird eine Talbereichserkennung durchgeführt, um eine Talbereichskarte für jedes extrahierte Unterbild zu erzeugen S10. Der Zweck der Talbereichs erkennung besteht darin, flache Hautbereiche aus weiteren Betrachtungen zu entfernen. 5 zeigt, dass die Talbereichserkennung aus einer Vielzahl von Schritten besteht. Zunächst wird eine Glättungsoperation durchgeführt, um Rauschen und möglicherweise kleine Spitzlichter im Auge oder auf Brillengläsern zu beseitigen, vorzugsweise unter Verwendung eines morphologischen Öffnens, gefolgt von einem morphologischen Schließen S10a. Die Talbereiche in dem geglätteten Bild werden identifiziert, vorzugsweise als Ausgabe der Differenz zwischen einem morphologisch geschlossenen Bild und dem Bild selbst S10b. Der Codewert dieses Ausgabebildes stellt die Konfidenz des Vorhandenseins eines Talbereichs dar. Eine Medianfilterungsoperation wird an das erstellte Talbereichsbild angelegt, um Rauschen und lange, dünne Strukturen in dem Bild zu reduzieren S10c. Im Allgemeinen befinden sich in langen, dünnen Strukturen des Talbereichsbildes keine Augen. Zudem entspricht der absolute Codewert in dem Talbereichsbild nicht unbedingt der Wahrscheinlichkeit einer Augenhöhle. Lokale Maxima in dem verarbeiteten Talbereichsbild werden verstärkt, und zwar vorzugsweise mithilfe der Differenz zwischen dem Talbereichsbild und dessen morphologisch geschlossener Version S10d. Das Ergebnis von S10d wird mit dem Ergebnis der Texturunterdrückung S10e kombiniert sowie mit anderen Hemmungsmechanismen S10f, beispielsweise der „Rötung" des Auges im Falle der Unterdrückung roter Augen anhand einer logischen AND-Operation S10g.
  • Nach S10g werden Pixel mit Codewerten, die größer als ein vorbestimmter Schwellenwert sind, auf eins gesetzt, andernfalls auf null. Somit wird eine binäre Talbereichskarte erstellt S10h. Eine Maskierungskarte zur Lenkung der nachfolgenden Suche wird an dem Schnittpunkt der Hautbereichskarte und der Talbereichskarte S12 erzeugt.
  • Die Kreuzkorrelation zwischen der Vorlage und dem Bild wird berechnet, indem sequenziell das mittlere Pixel der Vorlage zu jedem Pixel in der Suchmaskenkarte jedes Hautbereichs bewegt wird, und indem eine bestimmte Art einer zonenbasierten Kreuzkorrelation an jeder Pixellage durchgeführt wird, um das mittlere Pixel des Auges S14 zu bestimmen, wie nachstehend detailliert erläutert wird.
  • Wie in 2b gezeigt, wird eine zonenbasierte Kreuzkorrelation S14 initialisiert S14a. Eine Vorlage wird dann abgerufen und normalisiert S14b, wenn sie nicht bereits in einem normali sierten Zustand gespeichert ist. Wie in 6 gezeigt, wird die Vorlage vorzugsweise erzeugt, indem eine Vielzahl von Augen abgetastet und deren entsprechende Pixelwerte in Beziehung gesetzt werden, beispielsweise indem man die mittleren Werte an jedem Pixelort heranzieht. Die Vorlage wird dann in vier Unterbereiche unterteilt, die das Augenlid, die Iris und die beiden Augenwinkel darstellen. Um die Vorlage zu normalisieren, wird der mittlere Pixelwert für das gesamte Vorlagenbild von jedem Pixelwert subtrahiert und der resultierende Pixelwert wird durch die Standardabweichung des gesamten Vorlagenbildes dividiert, um einen normalisierten Pixelwert zu erhalten. Die resultierende Vorlage hat somit einen mittleren Wert von null und eine Varianz von eins.
  • Wie in 2b gezeigt und wenn der Mittelpunkt der Vorlage am Pixelort von Interesse liegt, umfasst die zonenbasierte Kreuzkorrelation zuerst das Extrahieren eines Blocks aus dem Bild, wobei dessen Mittelpunkt am aktuellen Pixel liegt und dessen Größe/Ausrichtung gleich der Vorlage ist S14c, dann das Normalisieren des extrahierten Bildblocks S14d, das Berechnen der Kreuzkorrelation zwischen jedem Unterbereich des extrahierten Blocks und dessen Gegenstück in der Vorlage, wobei das Pixel des Bildes in der Mitte des Unterbereichs S14e liegt, was nachfolgend als zonenbasierte Korrelation bezeichnet wird. Wenn die Kreuzkorrelation für jede Unterzone einen vorbestimmten Schwellenwert erfüllt oder überschreitet, vorzugsweise einen Wert von 0,5, wird die Kreuzkorrelation mit der gesamten Vorlage auf dieselben Pixel von Interesse durchgeführt S14f, welche nachfolgend als vollständige Korrelation bezeichnet wird. Wenn ein Schwellenwert, vorzugsweise 0,7, erneut erfüllt wird, speichert das Programm den Korrelationswert und die Größe/Ausrichtung der Vorlage vorübergehend in einem Puffer S14h. Wenn die Kreuzkorrelation für eine oder mehrere Unterzonen den Schwellenwert verfehlt, oder wenn die Kreuzkorrelation für die gesamte Vorlage den Schwellenwert verfehlt, wird die Kreuzkorrelation an dem Pixel von Interesse auf „0" gesetzt, und die zugehörige Größe/Ausrichtung wird auf „N/A" gesetzt S14i. Das Programm fährt dann mit dem nächsten Pixelort in der Suchmaskenkarte fort S14l, um die zuvor beschriebenen teilweisen und vollständigen Korrelationsoperationen zu wiederholen, wenn es sich nicht um das letzte Pixel mit einem Maskenwert von ungleich null in dem betreffenden Hautbereich handelt.
  • Die zuvor beschriebene, zonenbasierte Korrelation und vollständige Korrelation wird wiederholt, indem die Vorlage für eine Vielzahl von Größen im Bereich der ermittelten Größe (auf steigend und absteigend) und indem eine Vielzahl von Ausrichtungen um die ermittelte Ausrichtung (im Uhrzeigersinn und entgegen dem Uhrzeigersinn) variiert wird, um die Größe und Ausrichtung des Auges S14j neu zu definieren. Ein derartiges Vergrößern und Verkleinern der Vorlagengröße/Ausrichtung lässt sich von einschlägigen Fachleuten ohne Schwierigkeiten verwirklichen. Die Verfeinerung umfasst die zuvor beschriebenen Schritte S14c-S14i. Wenn eine oder mehrere vollständige Korrelationswerte an einem Pixelort von Interesse einen Wert oberhalb des Schwellenwerts ergeben, wählt das Programm den größten Korrelationswert in dem temporären Puffer sowie die korrespondierende Vorlagengröße/Ausrichtung, die zur Erzielung des größten Werts verwendet wurde und stellt diesen in den Speicher S14k. Zum besseren Verständnis sei darauf hingewiesen, dass die zuvor beschriebene Abwandlung der Vorlagengröße der weiteren Verfeinerung der ermittelten Größe des Auges aus Gleichung 1 dient, und dass die Größe/Ausrichtung der bestübereinstimmenden Vorlagenabwandlung wiederum die genaue Größe/Ausrichtung des tatsächlichen Auges bezeichnet.
  • Beispielsweise wird die Vorlagengröße um 10% und um 10% vergrößert. Wenn der größte Korrelationswert aus der Vorlage mit der Auflösung 19 × 13 stammt, wird die ermittelte Größe des Auges nicht angepasst. Wenn eine der anderen Auflösungen den höchsten Korrelationswert erzeugt, wird die ermittelte Größe des Auges so angepasst, dass sie der Vorlagengröße entspricht, die den höchsten Korrelationswert erzeugt. Desgleichen wird die Vorlagenausrichtung um 10 Grad vergrößert und um 10 Grad verkleinert. Wenn ein oder mehrere vollständige Korrelationswerte an einem Pixelort von Interesse einen Wert oberhalb des Schwellenwerts ergeben, wählt das Programm den größten Korrelationswert in dem temporären Puffer sowie die korrespondierende Vorlagenausrichtung, die zur Erzielung des größten Werts verwendet wurde und stellt diesen in den Speicher. Wenn der größte Korrelationswert aus der Vorlage mit der ursprünglich ermittelten Ausrichtung stammt, wird die ermittelte Ausrichtung des Auges nicht angepasst. Wenn eine der anderen Auflösungen den höchsten Korrelationswert erzeugt, wird die ermittelte Ausrichtung des Auges so angepasst, dass sie der Vorlagenausrichtung entspricht, die den höchsten Korrelationswert erzeugt.
  • Wie bereits erwähnt, schreitet das Programm dann zum nächsten von der Suchmaske identifizierten Pixelort fort, um die zuvor beschriebene zonenbasierte und vollständige Korrelation S141l zu wiederholen, nachdem die Größe und Ausrichtung für das Pixel von Interesse verfeinert worden sind S14k.
  • Das Programm fährt fort, die wahrscheinlichsten Kandidaten aus der Vielzahl von Spitzenkorrelationspunkten in jedem Fenster als mittleres Pixel des Auges zu prüfen S16-S24. Die Spitzenpunkte werden als die Punkte lokalisiert, die eine maximale vollständige Korrelationswertung aufweisen S16. Die Orte dieser Spitzen werden in einem Puffer gespeichert S18. Wie in 6 gezeigt, wird eine Vielzahl von Verifizierungsschritten verwendet. Die Schritte umfassen das Abstimmen bekannter Eigenschaften über ein Augenpaar mit allen Kombinationen der während der Korrelation ausgewählten Pixel, wobei eine Bewertungstechnik verwendet wird (Gütemaß), um das wahrscheinlichste Paar von Orten für die Augenmitte zu wählen.
  • In dem ersten Schritt aus 2a und 6 werden alle Kombinationen von Pixeln als mögliche Kandidaten in dem betreffenden Hautbereich ausgewählt S20. Mit anderen Worten wird jedes Pixel mit allen anderen Spitzenpixeln in demselben Hautbereich gepaart. Wie in 7 gezeigt, wird dann die Winkelausrichtung bestimmt, also der Winkel zwischen der Linie, die zwischen den beiden Pixeln von Interesse und einer horizontalen Linie durch einen der Punkte gebildet wird, vorzugsweise das linke Pixel. Wenn die Winkelausrichtung nicht innerhalb von zehn Grad der geschätzten Winkelausrichtung in S14c liegt, wird das Paar als mögliche Kandidaten für den Mittelpunkt beider Augen gestrichen. Wenn die Ausrichtung innerhalb von fünf Grad der geschätzten Winkelausrichtung liegt, wird das Paar zusammen mit einer bestimmten Wertung gespeichert.
  • Zudem wird der Abstand zwischen den beiden Augenkandidaten bestimmt, siehe 7. Wenn der Abstand nicht proportional zur Größe der Augen gemäß der Kenntnis über menschliche Gesichter ist, wird das Paar als mögliche Kandidaten für den Mittelpunkt beider Augen gestrichen. Wenn das Verhältnis innerhalb von 20% des normalen Verhältnisses liegt, wird das Paar zusammen mit einer bestimmten Wertung gespeichert.
  • Wie in 8 gezeigt, umfasst der nächste Schritt die Pixel entlang einer horizontalen Linie durch die beiden Pixel in einer möglichen Kombination. Eine Kurve von Codewerten, abgetragen gegen den Pixelort für jede Kombination, hat die in 8 dargestellte Form. Wenn die Form wesentlich abweicht, wird das Paar als mögliche Kandidaten für den Mittelpunkt beider Augen gestrichen; wenn sie nicht wesentlich abweicht, wird das Paar zusammen mit einer bestimmten Wertung gespeichert. Die Abweichung wird vorzugsweise durch das Verhältnis des mittleren Spitzenpunktes und des Mittelwerts der beiden Talbereichspunkte bestimmt, obwohl Fachleute selbstverständlich auch andere geeignete Maße der Abweichung bestimmen können.
  • 10 zeigt alle Kombinationen, die auf Symmetrie geprüft werden. Dies umfasst die Messung des Abstands zwischen allen Kombinationen und, auf halbem Wege dazwischen, die Suche nach Symmetrie auf beiden Seiten des Bildes durch vertikal durch diesen Punkt auf halbem Wege gelegene Pixel. Der Bereich von Interesse, der das Gesicht enthält, hat vorzugsweise die doppelte Breite des Abstands zwischen den Augen und die dreifache Höhe des Abstands zwischen den Augen. Der Gesichtsbereich wird in zwei Hälften geteilt – die linke Seite und die rechte Seite gemäß den Positionen der Augen. Die Symmetrie wird vorzugsweise durch die Korrelation zwischen der linken Seite und dem Spiegelbild auf der rechten Seite bestimmt, obwohl Fachleute selbstverständlich auch andere geeignete Symmetriemaße bestimmen können. Wenn eine Symmetrie zwischen den beiden Seiten besteht, werden das Paar und seine Wertung wieder gespeichert; wenn keine Symmetrie besteht, wird das Paar als möglicher Kandidat für den Mittelpunkt beider Augen gestrichen.
  • Alle Kombinationen werden auch auf ihre zentrale Lage innerhalb des extrahierten Unterbildes oder der ausgleichenden Ellipse geprüft. Ein bevorzugtes Maß einer solchen zentralen Lage ist als der Abstand zwischen den Mittelpunkten der beiden Objekte und der Hauptachse der ausgleichenden Ellipse definiert, obwohl Fachleute selbstverständlich auch andere geeignete Abweichungsmaße bestimmen können.
  • Wie in 10 gezeigt, wird das Bild dann auf das Vorhandensein eines Mundes an einer geschätzten Position geprüft. Das Programm sucht nach drei oder vier parallelen Linien (Kanten) innerhalb eines rechteckigen Rahmens, dessen Breite gleich dem Abstand zwischen den Augen ist, und einem vorbestimmten Abstand zu dem analysierten Pixelpaar. Der Abstand beträgt das 1,2-fache des Abstands zwischen den Kandidatenpaaren, obwohl Fachleute selbstverständlich auch andere geeignete Abstandswerte oder ähnliche Kriterien bestimmen können. Wenn die Linien (Kanten) vorhanden sind, werden das Paar und dessen Wertung gespeichert; wenn nicht, wird das Paar als möglicher Kandidat gestrichen.
  • Die Kombinationen werden dann auf kombinierte Korrelation der beiden Kandidaten geprüft. Die kombinierte Korrelation ist die Summe der vollständigen Korrelationswerte an den beiden Kandidatenpositionen. Wenn die kombinierte Korrelation über einem vorbestimmten Schwellenwert liegt, werden das Paar und dessen Wertung gespeichert; wenn nicht, wird das Paar als möglicher Kandidat gestrichen.
  • Das wahrscheinlichste Paar ist das Paar mit den höchsten kumulativen Wertungen S22. Die endgültige Position der Augen wird durch dieses Paar bestimmt S24. Die Prozesse von S8-S24 werden für den nächsten identifizierten Hautbereich wiederholt, bis der letzte Hautbereich verarbeitet ist.
  • Die Form der Bewertungsfunktionen für jedes der vorstehend beschriebenen Gütemaße wird in 9 dargestellt. Wenn eine Kombination den Schwellenwert eines bestimmten Gütemaßes verfehlt, wird ihr bei dieser Bewertungsfunktion zwar ein großer Penalty- oder Straffaktor zugewiesen, aber sie kann zur weiteren Betrachtung erhalten bleiben, statt – wie zuvor beschrieben – gestrichen zu werden. Wenn ein Gütemaß x in Bezug auf den Schwellenwert T0 zufriedenstellend ist, liegt die Ausgabe der Bewertungsfunktion, die gleichzeitig die Eingabe für den Bewertungsakkumulator darstellt, in Nähe eines normalisierten Maximalwerts von 1,0. Wenn x den Schwellenwert verfehlt, wird ein steigendes Strafmaß zugewiesen, je nachdem, wie stark x verfehlt wurde. Der Vorteil der Verwendung einer derartigen Bewertungsfunktion liegt in der höheren Robustheit, wenn ein Kandidatenpaar den Schwellenwert verfehlt, andererseits aber die höchste kumulative Wertung erhalten hat.
  • Ein in (gleich welcher Sprache) geschriebenes Computerprogramm zur Durchführung der Schritte der vorliegenden Erfindung ist in Anhang A enthalten.
  • Weitere Merkmale der Erfindung sind nachfolgend aufgeführt.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites menschliches Auge ist und worin das Berechnen des Verhältnisses das Berechnen eines Abstands zwischen dem ersten und zweiten Auge umfasst, um einem früheren anthropologischen Modell zu genügen.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites menschliches Auge ist und worin das Berechnen des Profils das Vorbestimmen eines Modells eines Auge-zu-Auge-Profils umfasst und das Bestimmen eines tatsächlichen Profils aus dem Bild sowie das Berechnen einer Anpassungsgüte zwischen dem tatsächlichen Profil und dem Modellprofil.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites menschliches Auge ist und worin das Berechnen der Symmetrie das Berechnen der Symmetrie zwischen der ersten und zweiten Hälfe eines Gesichtsfensters umfasst, das durch die Augenpositionen bestimmt ist.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites menschliches Auge ist und worin das Berechnen des Nachweises des Mundes das Berechnen der Stärke und Ausrichtung der Kanten innerhalb eines Mundfensters umfasst, das durch die Augenpositionen bestimmt ist.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites menschliches Auge ist und worin das Berechnen der zentralen Lage das Berechnen eines Abstands von einem Mittelpunkt zwischen dem ersten und zweiten Auge zu einer Hauptachse des bestimmten Hautbereichs umfasst.
  • Computerprogrammprodukt, worin das erste und zweite Objekt ein erstes und zweites Auge ist und worin das Berechnen einer kombinierten Korrelationswertung die Summenbildung der einzelnen Korrelationswertungen umfasst, die aus der in Schritt (g) erzielten Übereinstimmung erzielt wurde.
  • Computerprogrammprodukt mit dem Schritt des Normalisierens der Vorlage zur Maximierung der Abstimmungsrobustheit.
  • Computerprogramm-Produkt mit zudem dem Schritt des Erzeugens eines Bildblocks mit derselben Größe und Ausrichtung wie die Vorlage.
  • Computerprogrammprodukt mit zudem dem Schritt des Normalisierens des Bildblocks zur Maximierung der Abstimmungsrobustheit.
  • Computerprogrammprodukt mit zudem dem Schritt des Extrahierens einzelner Unterzonen in der Vorlage und in dem Bildblock und des Durchführens der Kreuzkorrelation für jede entsprechende Unterzone.
  • Computerprogrammprodukt mit zudem dem Schritt des Berechnens einer umfassenden Kreuzkorrelationswertung für den Bildblock, wenn die Kreuzkorrelationswertung für jede Unterzone einen Schwellenwert übersteigt.
  • ANHANG
    Figure 00170001
  • Figure 00180001
  • Figure 00190001
  • Figure 00200001
  • Figure 00210001

Claims (10)

  1. Computerprogramm-Produkt zum Lokalisieren eines ersten und zweiten Aufnahmegegenstandes in Form menschlicher Augen, wobei jeder Aufnahmegegenstand im Wesentlichen die selben physikalischen Eigenschaften aufweist und das Verhältnis zwischen dem Abstand des ersten und zweiten Aufnahmegegenstandes in Form menschlicher Augen und der Größe eines jeden Aufnahmegegenstandes in Form menschlicher Augen im Wesentlichen unveränderlich ist, mit einem computerlesbaren Speichermedium mit einem darauf gespeicherten Computerprogramm zum Ausführen der Schritte: a) Bestimmen (S4) eines potentiellen Hauttonbereichs in einem Bild; b) Bestimmen (S10) von Grundbereichen im Bild; c) Ausführen (S14) eines Abgleichs im Bild unter Verwendung einer Vorlage (Template) in einer Nachbarschaft der Grundbereiche innerhalb der Hauttonbereiche zum Bestimmen einer Vielzahl von Orten, die einen erwünschten Abgleich des Aufnahmegegenstandes in Form menschlicher Augen bezüglich der Vorlage ergeben; und d) Finden (S22) der besten zwei Orte von Aufnahmegegenständen in Form menschlicher Augen durch Berechnen von Bewertungskriterien einzeln oder in Kombination für eine Vielzahl von Nachweiskriterien, wobei das Berechnen der Bewertungskriterien das Messen des Unterschieds zwischen einer Ausrichtung einer einen ersten und einen zweiten Aufnahmegegenstand in Form menschlicher Augen verbindenden Linie und einer durchschnittlichen Ausrichtung der Aufnahmegegenstände in Form menschlicher Augen als einem der Nachweiskriterien umfasst.
  2. Computerprogramm-Produkt nach Anspruch 1, mit einem der Schritte oder beiden Schritten e) Bestimmen einer geschätzten Größe sowohl des ersten als auch des zweiten Aufnahmegegenstandes auf der Grundlage einer Form und einer Größe eines bestimmten Hauttonbereichs oder f) Bestimmen einer geschätzten Ausrichtung sowohl des ersten als auch des zweiten Aufnahmegegenstandes auf der Grundlage der Form und der Ausrichtung des bestimmten Hauttonbereichs.
  3. Computerprogramm-Produkt nach Anspruch 4, worin das Ausführen eines Abgleichs die Verwendung einer Kreuzkorrelation zur Identifikation der gewünschten Orte umfasst.
  4. Computerprogramm-Produkt nach Anspruch 1, worin die Bewertungskriterien einen oder mehrere Faktoren umfassen, die ausgewählt sind aus der Gruppe bestehend aus der Ausrichtung, dem Größenverhältnis, dem Profil, der Symmetrie und der zentralen Lage zweier Aufnahmegegenstände in Form menschlicher Augen im Abgleich gegenüber der Vorlage, und worin das Berechnen den Schritt des Bestimmens zweier Orte umfasst, die ein bestmöglich kombiniertes Nachweiskriterium ergeben.
  5. Computerprogramm-Produkt nach Anspruch 4, worin das Berechnen des Größenverhältnisses die Berechnung eines Abstands zwischen dem ersten und zweiten Aufnahmegegenstand in Form menschlicher Augen umfasst, um einem früheren anthropologischen Modell zu genügen.
  6. Computerprogramm-Produkt nach Anspruch 5, worin der Schritt des Berechnens des Profils das Vorbestimmen eines Modells eines Auge-zu-Auge Profils umfasst und das Bestimmen eines tatsächlichen Profils des Bildes sowie das Berechnen einer Anpassung zwischen dem tatsächlichen Profil und dem Modellprofil.
  7. Computerprogramm-Produkt nach Anspruch 1, worin die Nachweiskriterien einen oder mehrere Faktoren umfassen, ausgewählt aus der Gruppe bestehend aus der Ausrichtung, dem Größenverhältnis, dem Profil, der Symmetrie, dem Nachweis des Mundes, der zentralen Lage und dem kombinierten Korrelationsgrad.
  8. Computerprogramm-Produkt nach Anspruch 1, mit dem Schritt des Erzeugens eines Bildblocks mit der selben Größe und Ausrichtung wie die Vorlage.
  9. Computerprogramm-Produkt nach Anspruch 8, mit dem Schritt des Normierens mindestens der Vorlage oder des Bildblocks zum Maximieren der Stabilität des Abgleichs.
  10. Computerprogramm-Produkt nach Anspruch 9, mit folgenden Schritten: Extrahieren einzelner Subzonen sowohl in der Vorlage wie auch im Bildblock; Ausführen einer Querverbindung für jede entsprechende Subzone; und Berechnen eines umfassenden Kreuzkorrelationsgrades für den Bildblock, wenn die Auswertung des Kreuzkorrelationsgrades für jede Subzone einen Schwellenwert übersteigt.
DE69833999T 1997-08-29 1998-08-15 Verfahren zur automatischen erkennung menschlicher augen in digitalbildern Expired - Lifetime DE69833999T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US920844 1997-08-29
US08/920,844 US6151403A (en) 1997-08-29 1997-08-29 Method for automatic detection of human eyes in digital images

Publications (2)

Publication Number Publication Date
DE69833999D1 DE69833999D1 (de) 2006-05-18
DE69833999T2 true DE69833999T2 (de) 2007-01-25

Family

ID=25444502

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69833999T Expired - Lifetime DE69833999T2 (de) 1997-08-29 1998-08-15 Verfahren zur automatischen erkennung menschlicher augen in digitalbildern

Country Status (4)

Country Link
US (1) US6151403A (de)
EP (1) EP0899680B1 (de)
JP (1) JP4744655B2 (de)
DE (1) DE69833999T2 (de)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6373968B2 (en) * 1997-06-06 2002-04-16 Oki Electric Industry Co., Ltd. System for identifying individuals
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7352394B1 (en) 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
JPH11175699A (ja) * 1997-12-12 1999-07-02 Fuji Photo Film Co Ltd 画像処理装置
JP3271750B2 (ja) * 1998-03-05 2002-04-08 沖電気工業株式会社 アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置
US6285410B1 (en) * 1998-09-11 2001-09-04 Mgi Software Corporation Method and system for removal of flash artifacts from digital images
JP2001101429A (ja) * 1999-09-28 2001-04-13 Omron Corp 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US6718051B1 (en) * 2000-10-16 2004-04-06 Xerox Corporation Red-eye detection method
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US6920237B2 (en) 2000-12-19 2005-07-19 Eastman Kodak Company Digital image processing method and computer program product for detecting human irises in an image
US6895112B2 (en) * 2001-02-13 2005-05-17 Microsoft Corporation Red-eye detection based on red region detection with eye confirmation
US7174034B2 (en) * 2001-04-13 2007-02-06 Seiko Epson Corporation Redeye reduction of digital images
US7092554B2 (en) * 2001-05-01 2006-08-15 Eastman Kodak Company Method for detecting eye and mouth positions in a digital image
US6859550B2 (en) * 2001-05-31 2005-02-22 Seho Oh Robust method for image feature estimation
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US6980691B2 (en) * 2001-07-05 2005-12-27 Corel Corporation Correction of “red-eye” effects in images
US7063264B2 (en) 2001-12-24 2006-06-20 Digimarc Corporation Covert variable information on identification documents and methods of making same
EP1288859A1 (de) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
US7133070B2 (en) * 2001-09-20 2006-11-07 Eastman Kodak Company System and method for deciding when to correct image-specific defects based on camera, scene, display and demographic data
US7058209B2 (en) 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
US7324246B2 (en) * 2001-09-27 2008-01-29 Fujifilm Corporation Apparatus and method for image processing
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US7694887B2 (en) 2001-12-24 2010-04-13 L-1 Secure Credentialing, Inc. Optically variable personalized indicia for identification documents
WO2003055638A1 (en) 2001-12-24 2003-07-10 Digimarc Id Systems, Llc Laser etched security features for identification documents and methods of making same
EP1353516A1 (de) * 2002-04-08 2003-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. Verfahren und Vorrichtung zum Erfassen bzw. Verfolgen einer oder mehrerer Farbzonen in einem Bild oder einer Bildsequenz
AU2003221894A1 (en) 2002-04-09 2003-10-27 Digimarc Id Systems, Llc Image processing techniques for printing identification cards and documents
US7872670B2 (en) * 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US7824029B2 (en) 2002-05-10 2010-11-02 L-1 Secure Credentialing, Inc. Identification card printer-assembler for over the counter card issuing
US7035462B2 (en) * 2002-08-29 2006-04-25 Eastman Kodak Company Apparatus and method for processing digital images having eye color defects
EP1413972B1 (de) * 2002-10-24 2008-10-22 L-1 Identity Solutions AG Prüfung von Bildaufnahmen von Personen
US7804982B2 (en) * 2002-11-26 2010-09-28 L-1 Secure Credentialing, Inc. Systems and methods for managing and detecting fraud in image databases used with identification documents
EP1431810A1 (de) * 2002-12-16 2004-06-23 Agfa-Gevaert AG Verfahren zur automatischen Bestimmung von Farbdichte-Korrekturwerten für die Wiedergabe von digitalen Bilddaten
EP1614064B1 (de) 2003-04-16 2010-12-08 L-1 Secure Credentialing, Inc. Dreidimensionale datenspeicherung
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7336821B2 (en) 2006-02-14 2008-02-26 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7536036B2 (en) * 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7587085B2 (en) 2004-10-28 2009-09-08 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US20050031224A1 (en) * 2003-08-05 2005-02-10 Yury Prilutsky Detecting red eye filter and apparatus using meta-data
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7333653B2 (en) * 2003-08-29 2008-02-19 Hewlett-Packard Development Company, L.P. Detecting and correcting redeye in an image
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8090157B2 (en) * 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US20050063568A1 (en) * 2003-09-24 2005-03-24 Shih-Ching Sun Robust face detection algorithm for real-time video sequence
US7835572B2 (en) * 2003-09-30 2010-11-16 Sharp Laboratories Of America, Inc. Red eye reduction technique
JP4396387B2 (ja) * 2004-05-13 2010-01-13 オムロン株式会社 画像補正装置
US20060008169A1 (en) * 2004-06-30 2006-01-12 Deer Anna Y Red eye reduction apparatus and method
FR2880969B1 (fr) * 2005-01-20 2007-06-15 Sagem Dispositif pour detecter des yeux rouges sur une image et dispositif d'impression d'image mettant en oeuvre ce procede
JP4405942B2 (ja) * 2005-06-14 2010-01-27 キヤノン株式会社 画像処理装置およびその方法
JP4498224B2 (ja) * 2005-06-14 2010-07-07 キヤノン株式会社 画像処理装置およびその方法
JP4420459B2 (ja) * 2005-06-14 2010-02-24 キヤノン株式会社 画像処理装置およびその方法
US7747071B2 (en) * 2005-10-27 2010-06-29 Hewlett-Packard Development Company, L.P. Detecting and correcting peteye
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
KR101299074B1 (ko) 2006-03-03 2013-08-30 허니웰 인터내셔널 인코포레이티드 홍채 인코딩 시스템
GB2450024B (en) 2006-03-03 2011-07-27 Honeywell Int Inc Modular biometrics collection system architecture
JP4738488B2 (ja) 2006-03-03 2011-08-03 ハネウェル・インターナショナル・インコーポレーテッド 画像品質メトリックを有する虹彩認識システム
GB2448653B (en) 2006-03-03 2011-03-23 Honeywell Int Inc Single lens splitter camera
US7787664B2 (en) * 2006-03-29 2010-08-31 Eastman Kodak Company Recomposing photographs from multiple frames
EP2033142B1 (de) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US8103061B2 (en) * 2006-10-02 2012-01-24 Johnson & Johnson Consumer Companies, Inc. Method and apparatus for identifying facial regions
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2010520567A (ja) 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
DE102007050568A1 (de) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Verfahren und Einrichtung zur Objekterkennung in einem Bild
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8391596B2 (en) * 2007-10-17 2013-03-05 Qualcomm Incorporated Effective red eye removal in digital images without face detection
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US20090202175A1 (en) * 2008-02-12 2009-08-13 Michael Guerzhoy Methods And Apparatus For Object Detection Within An Image
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
AU2011224051B2 (en) * 2011-09-14 2014-05-01 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US9456187B1 (en) 2012-06-01 2016-09-27 Amazon Technologies, Inc. Edge-based pose detection
US10528853B1 (en) * 2012-06-29 2020-01-07 Amazon Technologies, Inc. Shape-Based Edge Detection
JP6188453B2 (ja) 2013-06-28 2017-08-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016529612A (ja) * 2013-08-02 2016-09-23 エモティエント インコーポレイテッド 画像情動コンテンツに基づくフィルタ及びシャッター
KR101673701B1 (ko) * 2014-11-24 2016-11-07 현대자동차주식회사 눈 검출장치 및 방법
CN112561787B (zh) * 2020-12-22 2024-03-22 维沃移动通信有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8905926D0 (en) * 1989-03-15 1990-04-25 British Aerospace Target aim point location
US5128711A (en) * 1989-04-28 1992-07-07 Fuji Photo Film Co., Ltd. Apparatus for recording position information of principal image and method of detecting principal image
US5063603A (en) * 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
WO1992002000A1 (en) * 1990-07-17 1992-02-06 British Telecommunications Public Limited Company A method of processing an image
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5450504A (en) * 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
IT1257073B (it) * 1992-08-11 1996-01-05 Ist Trentino Di Cultura Sistema di riconoscimento, particolarmente per il riconoscimento di persone.
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method

Also Published As

Publication number Publication date
EP0899680A3 (de) 2000-04-12
JPH11149559A (ja) 1999-06-02
US6151403A (en) 2000-11-21
EP0899680A2 (de) 1999-03-03
EP0899680B1 (de) 2006-03-29
JP4744655B2 (ja) 2011-08-10
DE69833999D1 (de) 2006-05-18

Similar Documents

Publication Publication Date Title
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE69333094T2 (de) Vorrichtung zum Extrahieren von Merkmalen eines Gesichtsbildes
DE69922752T2 (de) Verfahren zum Detektieren eines menschlichen Gesichtes
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
EP1413972B1 (de) Prüfung von Bildaufnahmen von Personen
DE60123378T2 (de) Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen
DE602004008984T2 (de) Verfahren zur Erkennung von farbigen Objekten in digitalen Bildern
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
EP1119822B1 (de) Verfahren und system zur personenerkennung mit modellbasierter gesichtsfindung
DE60037919T2 (de) Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür
DE602004002180T2 (de) Objekterkennung
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
EP0780002B1 (de) Verfahren und vorrichtung zur rekonstruktion von in rasterform vorliegenden linienstrukturen
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
DE4406020C1 (de) Verfahren zur automatisierten Erkennung von Objekten
DE112011101927T5 (de) Semantisches Parsen von Objekten in Videos
DE602004002837T2 (de) Objekterkennung
DE102016122649B3 (de) Biometrisches Verfahren
DE102017216821A1 (de) Verfahren zur Erkennung einer Objektinstanz und/oder Orientierung eines Objekts
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE69935705T2 (de) Gerät und Verfahren zum Bildvergleich

Legal Events

Date Code Title Description
8364 No opposition during term of opposition