DE60207863T2 - Vorrichtung und Verfahren zur Gesichtserkennung - Google Patents

Vorrichtung und Verfahren zur Gesichtserkennung Download PDF

Info

Publication number
DE60207863T2
DE60207863T2 DE60207863T DE60207863T DE60207863T2 DE 60207863 T2 DE60207863 T2 DE 60207863T2 DE 60207863 T DE60207863 T DE 60207863T DE 60207863 T DE60207863 T DE 60207863T DE 60207863 T2 DE60207863 T2 DE 60207863T2
Authority
DE
Germany
Prior art keywords
section
recognition
person
identification information
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60207863T
Other languages
English (en)
Other versions
DE60207863D1 (de
Inventor
Hironori 1-1-1 Shibaura Dobashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE60207863D1 publication Critical patent/DE60207863D1/de
Application granted granted Critical
Publication of DE60207863T2 publication Critical patent/DE60207863T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

  • Diese Erfindung bezieht auf eine Vorrichtung zur Gesichtserkennung, welche das Gesichtsbild einer Person zum Sicherheitsmanagement oder Ähnlichem erkennt, und auf eine Durchlasskontrollvorrichtung, die den Durchlass eines Passanten unter Verwendung der Vorrichtung zur Gesichtserkennung kontrolliert.
  • Die Vorrichtung zur Gesichtserkennung wird dazu verwendet, das Gesichtsbild einer Person für das Sicherheitsmanagement oder Ähnliches zu erkennen. Ein Beispiel der bekannten Vorrichtung zur Gesichtserkennung ist in der japanischen Patentanmeldung KOKAI Veröffentlichung Nr. 2001-5836 beispielsweise offenbart. Bei der Vorrichtung zur Gesichtserkennung, die in der japanischen Patentanmeldung KOKAI Veröffentlichung Nr. 2001-5836 offenbart ist, werden Merkmalsinformationsdaten der Gesichtsbilder von registrierten Personen im Voraus entsprechend zu Identifikationsinformationsdaten in einem Nachschlagewerk registriert. Eine zu erkennende Person, welche die Vorrichtung zur Gesichtserkennung verwendet, gibt ihre eigene Identifikationsinformation ein (wie z.B. eine ID Nummer). Dann spezifiziert die Vorrichtung zur Gesichtserkennung Merkmalsinformation in dem Nachschlagewerk, welche der eingegebenen Identifikationsinformation durch die zu erkennende Person entspricht, und gibt das Gesichtsbild der zu erkennenden Person ein. Nach dem Spezifizieren der Merkmalsinformation, welche der Identifikationsinformation entspricht, und dem Eingeben des Gesichtsbilds der zu erkennenden Person ordnet die Vorrichtung zur Gesichtserkennung Merkmalsinformation, die aus dem eingegebenen Gesichtsbild extrahiert wird, zu der Merkmalsinformation zu, die in dem Nachschlagewerk spezifiziert ist, basierend auf der Identifikationsinformation, und führt das Erkennungsverfahren für das Gesichtsbild der zu erkennenden Person durch.
  • Somit wird in der bekannten Vorrichtung zur Gesichtserkennung ein Verfahren verwendet, um der zu erkennenden Person zu erlauben, ihre eigene Identifikationsinformation einzugeben und spezifizierte Registrierinformation (Merkmalsinformation), die in dem Nachschlagewerk registriert ist, wird verwendet. Beispielsweise wird in der bekannten Vorrichtung zur Gesichtserkennung, die in der japanischen Patentanmeldung KOKAI Veröffentlichung Nr. 2001-5836 offenbart ist, Identifikationsinformation der zu erkennenden Person unter Verwendung eines Tasteneingabeabschnitts, wie z.B. einer Tastatur oder eines Kartenlesers, eingegeben. Ferner wird bei der bekannten Vorrichtung zur Gesichtserkennung Registrierinformation in dem Nachschlagewerk spezifiziert und das Gesichtsbild der zu erkennenden Person wird unter Verwendung des Bildeingabeabschnitts eingegeben, nachdem die Eingabe der Identifikationsinformation durch die zu erkennende Person abgeschlossen ist.
  • US Patent Nr. 6,045,039 offenbart eine Vorrichtung zur Gesichtserkennung gemäß dem Oberbegriff von Anspruch 1.
  • Bei der bekannten Vorrichtung zur Gesichtserkennung benötigt es eine lange Zeit, bis das Erkennungsergebnis ausgegeben wird, da die Registrierinformation in dem Nachschlagewerk spezifiziert wird, nachdem das Eingeben der Identifikationsinformation durch die zu erkennende Person vollständig abgeschlossen ist.
  • Entsprechend ist es eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur Gesichtserkennung, eine Durchlasskontrollvorrichtung, ein Gesichtsbilderkennungsverfahren und ein Durchlasskontrollverfahren vorzusehen, welche die Verarbeitungszeit vom Beginn der Eingabe der Identifikationsinformation durch die zu erkennende Person bis das Erkennungsergebnis ausgegeben wird, verringern können.
  • Diese Aufgabe wird durch die Vorrichtung zur Gesichtserkennung von Anspruch 1, die Durchlasskontrollvorrichtung von Anspruch 5, das Verfahren zur Gesichtserkennung nach Anspruch 6 und das Durchlasskontrollverfahren nach Anspruch 8 gelöst.
  • Zusätzliche Ausführungsformen der vorliegenden Erfindung sind in den Unteransprüchen angegeben.
  • Die Erfindung kann vollständiger aus der folgenden detaillierten Beschreibung verstanden werden, wenn diese in Verbindung mit den beigefügten Zeichnungen gelesen wird, in denen:
  • 1 ein Konfigurationsdiagramm ist, das schematisch die Konfiguration einer Vorrichtung zur Gesichtserkennung gemäß einer ersten Ausführungsform zeigt;
  • 2 eine Seitenansicht ist, welche das Verhältnis zwischen einem ersten Beleuchtungsabschnitt und einer Kamera zeigt;
  • 3 eine Draufsicht ist, welche das Verhältnis zwischen dem ersten Beleuchtungsabschnitt und der Kamera zeigt;
  • 4 eine Ansicht ist, welche ein Beispiel eines Gesichtsbildes, das unter Verwendung des ersten Beleuchtungsabschnitts zu fotografieren ist, zeigt;
  • 5 eine Seitenansicht ist, welche das Verhältnis zwischen einem zweiten Beleuchtungsabschnitt und der Kamera zeigt;
  • 6 ein Blockdiagramm ist, das schematisch die Konfiguration eines Extraktionsabschnitts für eine Merkmalsmenge zeigt;
  • 7 ein Flussdiagramm ist, um das Erkennungsverfahren eines Erkennungsabschnitts darzustellen;
  • 8 eine Vorderansicht ist, welche ein Beispiel einer Anordnung eines Zehn-Tasten-Abschnitts zeigt;
  • 9 eine Vorderansicht ist, welche ein Beispiel einer Einrichtung eines Zehn-Tasten-Abschnitts zeigt;
  • 10 eine Vorderansicht ist, welche ein Beispiel einer Einrichtung eines Zehn-Tasten-Abschnitts zeigt;
  • 11 eine Vorderansicht ist, welche ein Beispiel einer Einrichtung eines Zehn-Tasten-Abschnitts zeigt;
  • 12 eine Vorderansicht ist, welche ein Beispiel für eine Einrichtung einer Einheit zeigt, die einen Displayabschnitt aufweist;
  • 13 eine Vorderansicht ist, welche ein Beispiel für eine Einrichtung einer Einheit zeigt, die einen Displayabschnitt aufweist;
  • 14 eine Vorderansicht ist, welche ein Beispiel für eine Einrichtung einer Einheit zeigt, die einen Displayabschnitt aufweist;
  • 15 eine Vorderansicht ist, welche ein Beispiel für eine Einrichtung einer Einheit zeigt, die einen Displayabschnitt aufweist;
  • 16 ein Flussdiagramm ist, um das Erkennungsverfahren eines Erkennungsabschnitts gemäß der ersten Ausführungsform zu veranschaulichen;
  • 17 ein Flussdiagramm ist, um das Erkennungsverfahren des Erkennungsabschnitts gemäß der ersten Ausführungsform zu veranschaulichen;
  • 18 ein Flussdiagramm ist, um das Erkennungsverfahren des Erkennungsabschnitts gemäß der ersten Ausführungsform zu veranschaulichen;
  • 19 ein Konfigurationsdiagramm ist, das schematisch die Konfiguration einer Vorrichtung zur Gesichtserkennung gemäß einer zweiten Ausführungsform zeigt;
  • 20 eine Draufsicht ist, welche den Einrichtungszustand einer Kamera im Bezug auf einen Zehn-Tasten-Abschnitt zeigt;
  • 21 ein Flussdiagramm ist, um das Erkennungsverfahren eines Erkennungsabschnitts gemäß einer dritten Ausführungsform darzustellen;
  • 22 ein Flussdiagramm ist, um das Erkennungsverfahren des Erkennungsabschnitts der dritten Ausführungsform zu veranschaulichen;
  • 23 ein Konfigurationsdiagramm ist, das schematisch die Konfiguration einer Durchlasskontrollvorrichtung gemäß einer vierten Ausführungsform zeigt;
  • 24 eine Konfigurationsansicht ist, welche ein Beispiel der Konfiguration eines Zehn-Tasten-Abschnitts zeigt;
  • 25 eine Konfigurationsansicht ist, welche ein Beispiel der Konfiguration eines Zehn-Tasten-Abschnitts zeigt;
  • 26 eine Konfigurationsansicht ist, welche ein Beispiel der Konfiguration eines Zehn-Tasten-Abschnitts zeigt;
  • 27 eine Konfigurationsansicht ist, welche ein Beispiel der Konfiguration eines Zehn-Tasten-Abschnitts zeigt;
  • 28 ein Flussdiagramm ist, um das Erkennungsverfahren eines Erkennungsabschnitts gemäß der vierten Ausführungsform zu veranschaulichen;
  • 29 eine Konfigurationsansicht ist, welche schematisch die Konfiguration eines physikalischen Schlüssels zeigt; und
  • 30 ein Flussdiagramm ist, um das Erkennungsverfahren des Erkennungsabschnitts gemäß der vierten Ausführungsform zu veranschaulichen.
  • Es werden nun Ausführungsformen dieser Erfindung unter Verweis auf die beigefügten Zeichnungen beschrieben.
  • 1 zeigt schematisch die Konfiguration einer Vorrichtung zur Gesichtserkennung gemäß der ersten Ausführungsform. Die Vorrichtung zur Gesichtserkennung enthält eine Kamera 101, einen ersten Beleuchtungsabschnitt 102, einen zweiten Beleuchtungsabschnitt 103, einen Zehn-Tasten-Abschnitt 104 und einen Verarbeitungsabschnitt 105.
  • Die Kamera 101 wird dazu verwendet, ein Gesichtsbild (das ein Bild ist, das zumindest das Gesicht enthält) einer zu erkennenden Person 100 zu fotografieren und einzugeben. Beispielsweise ist die Kamera 101 durch eine Fernsehkamera gebildet, welche eine Bildgebungseinrichtung, wie z.B. einen CCD Sensor, verwendet.
  • Der erste Beleuchtungsabschnitt 102 bringt Licht in Richtung auf zumindest das Gesicht der zu erkennenden Person 100 mit konstanter Leuchtkraft in einer schrägen Richtung von der oberen rechten Seite oder oberen linken Seite der Kamera 101 auf. Der zweite Beleuchtungsabschnitt 103 bringt Licht in Richtung auf zumindest das Gesicht der zu erkennenden Person 100 mit konstanter Leuchtkraft in einer schrägen Richtung von unten von der Kamera 101 auf.
  • Der Zehn-Tasten-Abschnitt 104 wird betätigt, um eine ID Nummer (oder Passwort), die als Identifikationsinformation der zu erkennenden Person 100 verwendet wird, einzugeben. Der Verarbeitungsabschnitt 105 verarbeitet ein Gesichtsbild, das von der Kamera 101 eingegeben wird, und eine ID Nummer, die von dem Zehn-Tasten-Abschnitt 104 eingegeben wird, und führt das Erkennungsverfahren oder Ähnliches für das Gesichtsbild aus.
  • Als Nächstes werden der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 im Einzelnen erklärt.
  • Der erste Beleuchtungsabschnitt 102 ist eine Beleuchtungseinheit, wie z.B. ein fluoreszierendes Licht, welche Licht in Richtung auf zumindest das Gesicht der zu erkennenden Person 100 mit konstanter Leuchtkraft in einer Richtung schräg von der oberen rechten Seite oder oberen linken Seite der Kamera 101 aufbringt. Wie es in 2 und 3 gezeigt ist, ist der erste Beleuchtungsabschnitt 102 angebracht, dass er einen Winkel von 45° zwischen der optischen Achse des ersten Beleuchtungsabschnitts 102 und der optischen Achse der Kamera 101 einnimmt. Der erste Beleuchtungsabschnitt 102 kann in einem solchen Zustand angebracht sein, dass der Winkel zwischen der optischen Achse des ersten Beleuchtungsabschnitts 102 und der optischen Achse der Kamera 101 beispielsweise 30° oder weniger beträgt.
  • Das bedeutet, dass der erste Beleuchtungsabschnitt 102 die Schatten von Teilen des Gesichts (wie z.B. einer Nase und Augen) des halben Teils des Gesichts (schraffierte Bereiche 100a aus 4) formt, indem direktes Licht in Richtung auf das Gesicht der zu erkennenden Person 100, wie es in 4 gezeigt ist, aufgebracht wird. In diesem Fall kann Diffusionslicht oder indirektes Licht statt des direkten Lichts als Licht aus dem ersten Beleuchtungsabschnitt 102 verwendet werden, und die gleiche Wirkung kann erzielt werden, wenn der Schatten auf dem halben Teil des Gesichts geformt werden kann.
  • Der zweite Beleuchtungsabschnitt 103 ist eine Beleuchtungseinheit, wie z.B. ein fluoreszierendes Licht, welche Licht in Richtung auf zumindest das Gesicht der zu erkennenden Person 100 mit konstanter Leuchtkraft in einer Richtung schräg von unten von der Kamera 101 aufbringt. Wie es in 5 gezeigt ist, ist der zweite Beleuchtungsabschnitt 103 angebracht, dass er einen Winkel von 45° zwischen der optischen Achse des zweiten Beleuchtungsabschnitts 103 und der optischen Achse der Kamera 101 herstellt. Der zweite Beleuchtungsabschnitt 103 kann in einem solchen Zustand angebracht sein, dass der Winkel auf einen Bereich von 30° bis 60° (einschließlich beider Grenzen) beispielsweise festgelegt ist. Es reicht aus, solange direktes Licht von dem zweiten Beleuchtungsabschnitt 103 in Richtung auf das Gesicht der zu erkennenden Person 100 aufgebracht wird. In diesem Fall kann Diffusionslicht oder indirektes Licht statt des direkten Lichts als Licht aus dem zweiten Beleuchtungsabschnitt 103 verwendet werden, wenn es von gleicher Art wie das Licht aus dem ersten Beleuchtungsabschnitt 102 ist.
  • Als Nächstes wird das Verhältnis zwischen dem ersten Beleuchtungsabschnitt 102 und dem zweiten Beleuchtungsabschnitt 103 erklärt. Die Leuchtkraft 1A des Lichts aus dem ersten Beleuchtungsabschnitt 102 und die Leuchtkraft 2A des Lichts aus dem zweiten Beleuchtungsabschnitt 103 genügen der Beziehung von 1A ≥ 2A.
  • Ein Schatten wird auf dem halben Teil des Gesichtsbilds der zu fotografierenden Person 100 unter Verwendung der zwei Beleuchtungsabschnitte (erster Beleuchtungsabschnitt 102, zweiter Beleuchtungsabschnitt 103) geformt. Das bedeutet, dass die Leuchtkraft 1A des Lichts aus dem ersten Beleuchtungsabschnitt 102 größer als die Leuchtkraft 2A des Lichts aus dem zweiten Beleuchtungsabschnitt 103 entsprechend der oben stehenden Beziehung ist. Daher erscheint der Schatten auf dem halben Bereich des Gesichtsbilds der zu erkennenden Person 100, der durch das Licht aus dem ersten Beleuchtungsabschnitt 102 geformt wird, stärker als der Schatten, der durch das Licht aus dem zweiten Beleuchtungsabschnitt 103 geformt wird. Der Schatten auf dem halben Bereich des Gesichtsbilds der zu erkennenden Person 100 drückt klar und zufrieden stellend Information über Ungleichmäßigkeit auf dem Gesicht von jeder Person (Gesichtsmerkmalsinformation jeder Person) aus. Somit betont die Menge der Gesichtsmerkmale, die aus dem Gesichtsbild extrahiert wird, durch das Betonen des Schattens des halben Bereichs des Gesichtsbilds, den Unterschied zwischen einzelnen Personen. Als Folge wird die Erkennungsrate des Gesichtsbilds verbessert.
  • Licht aus dem zweiten Beleuchtungsabschnitt 103 unterdrückt Licht aus dem ersten Beleuchtungsabschnitt 102 bezüglich des Ausbildens eines übermäßig starken Schattens auf dem Gesicht der zu erkennenden Person 100 basierend auf der oben stehenden Beziehung. Das bedeutet, dass sich die Art und Weise des Ausbildens eines Schattens auf dem Gesicht entsprechend einer Variation im Abstand zwischen der zu erkennenden Person 100 und der Kamera 101 zur Zeit der Erkennung und zur Zeit der Registrierung unterscheidet, wenn nur der erste Beleuchtungsabschnitt 102 verwendet wird. Ein Absinken der Erkennungsrate aufgrund einer minimalen Differenz beim Ausbilden des Schattens kann jedoch unter Verwendung des zweiten Beleuchtungsabschnitts 103 unterdrückt werden.
  • In einem Fall, in dem die Position des Gesichts einer Person und die Position der Kamera 101 im Wesentlichen unverändert zur Zeit der Erkennung und zur Zeit der Registrierung gehalten werden, kann der zweite Beleuchtungsabschnitt 103 weggelassen werden. Dies liegt darin, dass die Gestalt des Schattens, der auf dem Gesichtsbild geformt wird, im Wesentlichen die gleiche ist, wenn die Position des Gesichts einer Person und die Position der Kamera 101 im Wesentlichen unverändert gehalten werden zur Zeit der Erkennung und zur Zeit der Registrierung. Wenn beispielsweise die stehende Position einer Person festgelegt ist oder die Führungsfunktion, welche die Größe des Gesichtsbilds zur Zeit der Registrierung unter Verwendung einer kreisförmigen Markierung oder Ähnlichem darstellt, verwendet wird, werden der Abstand zwischen und eine horizontale Abweichung in der Position des Gesichts einer Person und der Position der Kamera 101 zur Zeit der Erkennung im Wesentlichen gleich gehalten wie der Abstand zwischen und eine horizontale Abweichung in der Position des Gesichts einer Person und der Position der Kamera 101 zur Zeit der Registrierung. Daher kann der zweite Beleuchtungsabschnitt 103 weggelassen werden.
  • Es wird nun angenommen, dass der Gesamtwert der Leuchtkraft 1A des Lichts aus dem ersten Beleuchtungsabschnitt 102 und der Leuchtkraft 2A des Lichts aus dem zweiten Beleuchtungsabschnitt 103, welche das Gesicht der zu erkennenden Person 100 beleuchten, B Lux (lx) ist. Ferner wird angenommen, dass die Leuchtkraft durch externes Licht und Ähnliches, welches auf das Gesicht der zu erkennenden Person 100 aufgebracht wird, C Lux (lx) beträgt. In diesem Fall kann, wenn die Beziehung von 1A + 2A = B > C eingehalten wird, der Einfluss durch externes Licht unterdrückt werden. Wenn beispielsweise verlangt wird, den Einfluss durch ein Deckenlicht zu unterdrücken, wie z.B. ein fluoreszierendes Licht, das auf die obere hintere Seite der zu erkennenden Person 100 fällt, können die Leuchtkraft des Lichts aus dem ersten Beleuchtungs abschnitt 102 und die Leuchtkraft des Lichts aus dem zweiten Beleuchtungsabschnitt 103 so festgelegt werden, dass sie der oben stehenden Beziehung genügen. Ferner wird die Gesamtleuchtkraft B (lx) der Leuchtkraft 1A des Lichts aus dem ersten Beleuchtungsabschnitt 102 und der Leuchtkraft 2A des Lichts aus dem zweiten Beleuchtungsabschnitt 103 in einem Bereich derart definiert, dass verhindert wird, dass das eingegebene Gesichtsbild in den saturierten Zustand gesetzt wird.
  • Man nimmt an, dass der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 stets in den AN-Zustand gesetzt sind, wobei es jedoch auch möglich ist, den ersten Beleuchtungsabschnitt 102 und den zweiten Beleuchtungsabschnitt 103 nur auf AN zu schalten, wenn die zu erkennende Person 100 nahe an die vorliegende Vorrichtung kommt. In diesem Fall kann dies beispielsweise erreicht werden, indem zusätzlich ein Sensor für Personen, wie z.B. ein Infrarotsensor, an der vorliegenden Vorrichtung vorgesehen wird und man bewirkt, dass der Sensor für Personen die zu erkennende Person 100 erfasst, die nahe an die vorliegende Vorrichtung gelangt, und den ersten Beleuchtungsabschnitt 102 und den zweiten Beleuchtungsabschnitt 103 auf AN schaltet. Ferner ist es möglich, eine zu erkennende Person 100 zu erfassen, die sich der vorliegenden Vorrichtung annähert, indem ein sich bewegender Körper basierend auf einem Bild erfasst wird, das von der Kamera 101 eingegeben wird.
  • Als Nächstes wird der Verarbeitungsabschnitt 105 erklärt.
  • Der Verarbeitungsabschnitt 105 kann durch beispielsweise einen Computer konfiguriert sein. Der Verarbeitungsabschnitt 105 wird basierend auf einem Steuerungs- oder Regelungsprogramm betrieben, um verschiedene Funktionen zu realisieren. Das Steuerungsprogramm ist in einem Speichermedium, wie z.B. einer Harddisk, einem CD-ROM, einer MD oder FD gespeichert.
  • In der folgenden Erklärung werden verschiedene Informationsdaten verwendet, einschließlich eingegebener Bilddaten, der Menge der extrahierten Merkmale, einem Teilraum, einem inhärenten Vektor, welcher einen Teilraum konfiguriert, einer Korrelationsmatrix, Statusinformation, wie z.B. Zeit, Datum und Ort der Registrierung, individueller Information, wie z.B. einem Passwort, der ID Nummer. Ferner enthalten in der folgenden Erklärung zu erkennende Daten einen Teilraum oder einen inhärenten Vektor, welcher einen Teilraum konfiguriert. Zusätzlich enthält in der folgenden Erklärung Registrierinformation Bildeingabedaten, die Menge der extrahierten Merkmale, einen Teilraum, einen inhärenten Vektor, welcher einen Teilraum konfiguriert, eine Korrelationsmatrix, Statusinformation und individuelle Information. Daher sind die Erkennungsdaten in der Registrierinformation enthalten.
  • Ein Beispiel der konkreten Konfiguration des Verarbeitungsabschnitts 105 wird unten im Einzelnen unter Verweis auf 1 erklärt. Der Verarbeitungsabschnitt 105 enthält einen Bildeingabeabschnitt 106, der als ein Bildeingabemittel verwendet wird, einen Merkmalsmengenextraktionsabschnitt 107, der als ein Mittel zum Extrahieren einer Merkmalsmenge verwendet wird, einen Erkennungsabschnitt 108, der als ein Erkennungsmittel verwendet wird, einen Halteabschnitt für Registrierinformation (Nachschlagewerk) 100, der als ein Mittel zum Registrieren einer Merkmalsmenge verwendet wird, einen Abschnitt 110 zum Zufügen von Registrierinformation, der als ein Mittel zum Zufügen von Merkmalsmengen verwendet wird, und einen Verarbeitungsabschnitt 111 für eine eingegebene Zahl.
  • Der Bildeingabeabschnitt 106 wird mit einem Gesichtsbild aus der Kamera 101 versehen, wandelt das eingegebene Gesichtsbild analogdigital in eine digitale Form und führt dann das digitale Gesichtsbild an den Extraktionsabschnitt 107 für die Merkmalsmenge zu.
  • Bei dem Halteabschnitt 109 für Registrierinformation werden Registrierinformationsdaten, wie z.B. Referenzmerkmalsmengen, welche den ID Nummern der zu erkennenden Personen 100 entsprechen, im Voraus registriert (gespeichert).
  • Wenn die Erkennungsrate des Erkennungsabschnitts 108 geringer als ein vorgegebener Wert wird, registriert der Abschnitt 110 zum Zufügen von Registrierinformation zusätzlich Registrierinformation, wie z.B. eine Referenzmerkmalsmenge (eine neue Referenzmerkmalsmenge), welche von dem Gesichtsbild, das zu dieser Zeit eingegeben wird, erhalten wird, in den Halteabschnitt 109 für Registrierinformation.
  • Der Verarbeitungsabschnitt 111 für die eingegebene Nummer verarbeitet eine ID Nummer, die unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wurde.
  • Der Extraktionsabschnitt 107 für die Merkmalsmenge extrahiert eine Merkmalsmenge, wie z.B. eine Teilrauminformation oder eine Licht- und Schatteninformation unter Verwendung des Gesichtsbilds der zu erkennenden Person 100, das von dem Bildeingabeabschnitt 106 zugeführt wird. Beispielsweise enthält, wie es in 6 gezeigt ist, der Extraktionsabschnitt 107 für die Merkmalsmenge einen Gesichtsgebietserfassungsabschnitt 107A, einen Gesichtsteilerfassungsabschnitt 107B und einen Merkmalsmengenerzeugungsabschnitt 107C. Der Merkmalsmengenextraktionsabschnitt 107 wird unten im Einzelnen unter Verweis auf 6 erklärt.
  • Der Erfassungsabschnitt 107A für das Gesichtsgebiet erfasst ein Gesichtsgebiet basierend auf einem Gesichtsbild, das von der Kamera 101 eingegeben wird. Beispielsweise wird mit dem Erfassungsabschnitt 107A für das Gesichtsgebiet eine im Voraus erzeugte Vorlage in das Bild bewegt, um Korrelationswerte abzuleiten, und ein Ort, in dem größte Korrelationswert erhalten wird, wird als ein Gesichtsgebiet erfasst. Der Erfassungsabschnitt 107A für das Gesichtsgebiet kann dazu verwendet werden, ein Gesichtsgebiet unter Verwendung eines Extraktionsverfahrens für ein Gesichtsgebiet zu erfassen, das ein Teilraumverfahren oder ein Verfahren des inhärenten Raums verwendet.
  • Der Gesichtsteilerfassungsabschnitt 107B erfasst die Positionen der Nase und der Augen aus Teilen des erfassten Gesichtsgebiets. Beispielsweise erfasst der Gesichtsteilerfassungsabschnitt 107B die Positionen der Gesichtsteile (Teile des Gesichts, wie z.B. die Nase und die Augen) basierend auf Gesichtsmerkmalspunkten unter Verwendung eines Verfahrens, das in einem Dokument („Gesichtsmerkmalspunktsextraktion durch Kombination von Gestaltextraktions- und Musterzuordnung" von Kazuhiro Fukui, Osamu Yamaguchi, Study Papers of Institute of Electronic Information and Communication Engineers (D), Vol. J80-D-II, Nr. 8, Seiten 2170 bis 2177 (1997)) offenbart ist.
  • Der Erzeugungsabschnitt 107C für die Merkmalsmenge extrahiert ein Gesichtsgebiet einer vorgegebenen Größe und Gestalt basierend auf den Positionen der Gesichtsteile, welche durch den Gesichtsteilerfassungsabschnitt 107B erfasst sind, und verwendet Licht- und Schatteninformation davon als eine Merkmalsmenge. In diesem Fall verwendet beispielsweise der Merkmalsmengenerzeugungsabschnitt 107C den Licht- und Schattenwert eines Gebiets von m Pixeln × n Pixeln als eine Merkmalsmenge und verwendet die Merkmalsmenge als einen Merkmalsvektor mit der Dimension m × n.
  • Ferner erzeugt in einem Fall, in dem das wechselseitige Teilraumverfahren in dem Erkennungsabschnitt 108 verwendet wird, der Merkmalsmengenerzeugungsabschnitt 107C die Merkmalsmenge durch das folgende Verfahren. Beispielsweise ist das wechselseitige Teilraumverfahren ein bekanntes Erkennungsverfahren, das in einem Dokument („Musterzuordnungsverfahren unter Verwendung von lokaler Konfiguration" von Kenichi Maeda, Sadaichi Watanabe, Study Papers of Institute of Electronic Information and Communication Engineers (D), Vol. J68-D, Nr. 3, Seiten 345 bis 352 (1985)) beschrieben ist.
  • Wenn das wechselseitige Teilraumverfahren als das Erkennungsverfahren verwendet wird, leitet der Merkmalsmengenerzeugungsabschnitt 107C zuerst eine Merkmalsmenge als einen Merkmalsvektor der Dimension m × n ab. Dann leitet der Erzeugungsabschnitt 107C für die Merkmalsmenge eine Korrelationsmatrix (oder Kovarianzmatrix) des so berechneten Merkmalsvektors ab und leitet einen normalen Orthogonalvektor unter Verwendung der K-L Expansion im Bezug auf die Korrelationsmatrix ab. Somit berechnet der Merkmalsmengenerzeugungsabschnitt 107C einen Teilraum. Der Teilraum wird durch Wählen von k-inhärenten Vektoren, welche inhärenten Werten entsprechen, in einer Reihenfolge vom größten inhärenten Wert ausgehend und unter Verwendung des Satzes der inhärenten Vektoren ausgedrückt.
  • Bei der vorliegenden Ausführungsform leitet der Erzeugungsabschnitt 107C für die Merkmalsmenge eine Korrelationsmatrix Cd aus dem Merkmalsvektor ab und leitet eine Matrix Φ von inhärenten Vektoren ab, indem die Korrelationsmatrix, wie es durch die folgenden Gleichung angegeben ist, diagonalisiert wird. Cd = ΦdΛdΦdT
  • Beispielsweise leitet der Erzeugungsabschnitt 107C für die Merkmalsmenge die Korrelationsmatrix des Merkmalsvektors basierend auf Gesichtsbilddaten einer Zeitreihe, welche von dem eingegebenen Bild erhalten werden, ab und leitet einen normalen Orthogonalvektor unter Verwendung der K-L Expansion ab. Somit berechnet der Erzeugungsabschnitt 107C für die Merkmalsmenge den Teilraum. Der Teilraum wird in den Halteabschnitt 109 für Registrierinformation als ein Erkennungsnachschlagewerk registriert, das dazu verwendet wird, eine Person zu identifizieren. Beispielsweise wird der aus dem Gesichtsbild einer zu erkennenden Per son abgeleitete Teilraum im Voraus in dem Nachschlagewerk als die Merkmalsmenge der zu erkennenden Person registriert.
  • Ferner kann, wie es später beschrieben wird, der Teilraum an sich als Eingabedaten verwendet werden, die dazu verwendet werden, den Erkennungsvorgang durchzuführen. Daher wird das Ergebnis der Berechnung des Teilraums dem Erkennungsabschnitt 108 und dem Halteabschnitt 109 für die Registrierinformation zugeführt.
  • Der Erkennungsabschnitt 108 ordnet Registrierinformation (welche Teilräume enthält), die in dem Registrierinformationshalteabschnitt 109 registriert ist, einer Merkmalsmenge (Licht- und Schatteninformation oder Teilrauminformation) zu (vergleicht sie), die in dem Extraktionsabschnitt 107 für die Merkmalsmenge erhalten wird. Dann führt der Erkennungsabschnitt 108 einen Erkennungsvorgang aus, um zu bestimmen, wer eine zu erkennende Person 100, die durch die Kamera 101 fotografiert ist, ist, oder führt einen Identifikationsvorgang aus, um zu bestimmen, ob die zu erkennende Person 100, die durch die Kamera 101 fotografiert ist, eine spezifizierte Person ist oder nicht. Damit der Erkennungsabschnitt 108 eine Person erkennen kann, ist es nur nötig, eines der Merkmale der Personen, die in dem Nachschlagewerk registriert sind, das am Ähnlichsten der von dem Gesichtsbild, das durch die Kamera 101 fotografiert ist, extrahierten Merkmalsmenge ist, zu bestimmen. Wenn eine Person erkannt wird, berechnet daher der Erkennungsabschnitt 108 die Ähnlichkeiten zwischen der aus dem Gesichtsbild, das durch die Kamera 101 fotografiert ist, extrahierten Merkmalsmenge und allen Merkmalsmengen, die in dem Nachschlagewerk registriert sind, und bestimmt eine Person mit der Merkmalsmenge, welche die größte Ähnlichkeit aufweist, als das Erkennungsergebnis.
  • Wenn eine Person basierend auf dem Gesichtsbild durch Spezifizieren der Person unter Verwendung von individueller Information einer Karte, dem Passwort, der ID Nummer oder dem Schlüssel identifiziert ist, berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen der Merkmalsmenge, die in dem Nachschlagewerk registriert ist, die der individuellen Information entspricht, und der Merkmalsmenge, die von dem Gesichtsbild extrahiert wird, das durch die Kamera 101 fotografiert ist. Ferner vergleicht der Erkennungsabschnitt 108 die berechnete Ähnlichkeit mit einem vorgegebenen Schwellenwert und erkennt (identifiziert), dass eine Per son eine entsprechende Person ist, wenn die berechnete Ähnlichkeit den vorgegebenen Schwellenwert übersteigt.
  • Wenn der Identifikationsvorgang der Person wie oben beschrieben durchgeführt wird, ist es erforderlich, ein Mittel zum Eingeben von individueller Information, wie z.B. eine Karte, ein Passwort, eine ID Nummer, einen Schlüssel oder Ähnliches zu verwenden. Beispielsweise können als die Karte ein Aufzeichnungsmedium, wie z.B. eine IC Karte, ID Karte oder Funkkarte, auf der individuelle Information aufgezeichnet ist, verwendet werden. In diesem Fall ist auf der vorliegenden Vorrichtung ein Kartenleser zum Auslesen von individueller Information, der mit dem Aufzeichnungsmedium umgehend kann, auf der vorliegenden Vorrichtung vorgesehen. Wenn ferner ein Passwort oder eine ID Nummer als individuelle Information verwendet wird, wird ein Schlüsseleingabemittel zum Ermöglichen, dass der Benutzer die individuelle Information eingibt, auf der vorliegenden Vorrichtung vorgesehen. Beispielsweise können, wenn das Passwort oder die ID Nummer als individuelle Information verwendet wird, ein Schlüsseleingabemittel, wie z.B. der Zehn-Tasten-Abschnitt 104 und der Nummereingabeverarbeitungsabschnitt 111, wie sie später beschrieben werden, verwendet werden.
  • Ferner wird in dem Erkennungsabschnitt 108 ein Erkennungsverfahren, wie z.B. ein Teilraumverfahren, ein Mehrfachähnlichkeitenverfahren oder Ähnliches unter Verwendung der Information des Extraktionsabschnitts 107 für die Merkmalsmenge verwendet.
  • Nun wird ein Erkennungsverfahren basierend auf dem wechselseitigen Teilraumverfahren erklärt. In diesem Fall, in dem wechselseitigen Teilraumverfahren, wird angenommen, dass die Merkmalsinformation als Registrierinformation, die im Voraus im Nachschlagewerk registriert ist, und die von einem Bild (Eingabedaten) extrahierte Merkmalsmenge, das durch die Kamera 101 fotografiert wird, jeweils als ein Teilraum ausgedrückt sind. Ferner ist ein „Winkel", der durch die zwei Teilräume eingenommen wird, als die Ähnlichkeit definiert. In diesem Fall ist ein Teilraum als die Merkmalsmenge, die von dem durch die Kamera 101 fotografierten Bild extrahiert ist, als ein Eingabeteilraum definiert.
  • Zunächst wird eine Korrelationsmatrix Cin im Bezug auf einen Eingabedatenstring auf die gleiche Weise wie oben beschrieben abgeleitet, und ein inhärenter Vektor Φ wird durch Diagonalisieren der Korrelationsmatrix, wie es durch die folgende Gleichung angegeben ist, abgeleitet. Cin = ΦinΛin ΦinT
  • Wenn der inhärente Vektor Φin abgeleitet ist, wird die Ähnlichkeit basierend auf einem „Winkel" berechnet, der zwischen einem Teilraum, der durch den inhärenten Vektor Φin, abgeleitet von den Eingabedaten, und einem Teilraum, ausgedrückt durch einen inhärenten Vektor Φd, eingenommen wird. Somit wird die Teilraumähnlichkeit (0,0 bis 1,0) zwischen den durch die inhärenten Vektoren Φin und Φd ausgedrückten Teilräumen die Ähnlichkeit, die als ein Erkennungsergebnis verwendet wird.
  • Der Erkennungsabschnitt 108 läuft ab, wie es im Flussdiagramm von 7 gezeigt ist. Zunächst unterscheidet sich die Arbeitsweise des Erkennungsabschnitts 108 in Abhängigkeit davon, ob er den Erkennungsvorgang oder den Identifikationsvorgang durchführt (Schritt ST1). Wenn der Identifikationsvorgang durchgeführt wird, wird eine Objekt ID Nummer einer zu erkennenden Person unter Verwendung des Nummereingabeverarbeitungsabschnitts ausgelesen (Schritt ST2). Dann wird Registrierinformation (Teilraum), die der Objekt ID Nummer entspricht, aus dem Halteabschnitt 108 fair die Registrierinformation ausgelesen (Schritt ST3).
  • Als Nächstes berechnet, wie oben beschrieben, der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum von jeder Registrierinformation und einem eingegebenen Teilraum oder einem Teilraum, der als die Merkmalsmenge verwendet wird, die aus dem durch die Kamera 101 fotografierten Bild unter Verwendung des Merkmalsmengenextrahierabschnitts 107 extrahiert ist, um den Erkennungsvorgang unter Verwendung des Teilraumverfahrens oder Ähnlichem durchzuführen (Schritt ST4). Dann vergleicht der Erkennungsabschnitt 108 die berechnete Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST5, ST6) und bestimmt das Ergebnis der Identifikation und gibt es aus (Schritt ST7). Wenn in diesem Fall die berechnete Ähnlichkeit größer als der vorgegebene Schwellenwert ist, wird bestimmt, dass die Identifikation erfolgreich durchgeführt werden kann, und wenn die berechnete Ähnlichkeit nicht größer als der vorgegebene Schwellenwert ist, wird bestimmt, dass die Identifikation nicht erfolgreich durchgeführt werden kann.
  • In einem Fall, in dem der Erkennungsvorgang durchgeführt wird, liest der Erkennungsabschnitt 108 alle der zu erkennenden Erkennungsinformationsdaten aus dem Registrierinformationshalteabschnitt 109 aus (Schritt ST8). Wenn alle der Registrierinformationsdaten, die zu erkennen sind, ausgelesen sind, berechnet der Erkennungsabschnitt 108 die Ähnlichkeiten zwischen Teilräumen der jeweiligen Registrierinformationsdaten und dem Teilraum als der von dem Bild extrahierten Merkmalsmenge, das durch die Kamera 101 fotografiert ist (Schritt ST9). Nach dem Berechnen der Ähnlichkeiten mit den jeweiligen Registrierinformationsdaten wählt der Erkennungsabschnitt 108 die Maximale der berechneten Ähnlichkeiten (Schritt ST10) und gibt Daten als das Erkennungsergebnis aus, welche eine Person entsprechend der Registrierinformation angeben, welche die maximale Ähnlichkeit ergibt (Schritt ST12).
  • Ferner ist es auch möglich, dass der Erkennungsabschnitt 108 bestimmt (Bestimmung unter Verwendung eines Schwellenwerts), ob die maximale Ähnlichkeit größer als ein vorgegebener Schwellenwert ist, wie es durch den Schritt ST11 angezeigt ist, der in 7 durch gestrichelte Linien umfasst ist. In diesem Fall kann überprüft werden, ob das Erkennungsergebnis korrekt ist oder nicht (Schritt ST13). Wenn beispielsweise die maximale Ähnlichkeit kleiner als der vorgegebene Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass das Erkennungsergebnis nicht einem der zu erkennenden Objekte entspricht.
  • In dem Halteabschnitt 109 für die Registrierinformation ist es möglich, Bildeingabedaten, extrahierte Merkmalsmengen, Statusinformation, wie z.B. Zeit, Datum und Ort der Registrierung und Ähnliches als Registrierinformation zusätzlich zu den Teilräumen (oder Korrelationsmatrizen und Ähnlichem), die zum Identifizieren eines zu erkennenden Person verwendet werden, zu registrieren (oder zu speichern).
  • Bei der vorliegenden Ausführungsform wird nicht nur ein Fall, in dem Teilräume gehalten werden, sondern auch ein Fall, in dem Korrelationsmatrizen, die in dem vorhergehenden Schritt zum Berechnen der Teilräume verwendet wurden, gehalten werden, erklärt.
  • Der Halteabschnitt 109 für die Registrierinformation hält eine Registrierinformation für jedes individuelle Informationsdatum, wie z.B. eine Person oder ID Nummer. In der Registrierinformation wird der Teilraum zusammen mit der begleitenden Information, wie z.B. Zeit, zu der der Teilraum ermittelt wurde, gespeichert.
  • Als Nächstes wird der Zufügeabschnitt 110 für Registrierinformation erklärt. Der Zufügeabschnitt 110 für Registrierinformation führt ein Verfahren durch, um zusätzlich neue Registrierinformation (Referenzmerkmalsmenge) in den Halteabschnitt 109 für Registrierinformation zu registrieren, wenn die Erkennungsrate oder die Ähnlichkeit im Bezug auf die spezifizierte Registrierinformation, die in dem Erkennungsabschnitt 108 erhalten wird, geringer als ein vorgegebener Wert wird. Beispielsweise überwacht der Zufügeabschnitt 110 für Registrierinformation das Erkennungsergebnis, das durch den Erkennungsabschnitt 108 erhalten wurde. Wenn der Zufügeabschnitt 110 für Registrierinformation erfasst, dass die Ähnlichkeit im Bezug auf spezifizierte Registrierinformation abgesenkt wird, registriert er zusätzlich Registrierinformation, wie z.B. einen Teilraum (Referenzmerkmalsmenge), als die Merkmalsmenge, die von dem der Gesichtsbildeingabe zu dieser Zeit erhalten wird, als neue Registrierinformation in den Halteabschnitt 109 für Registrierinformation.
  • Zunächst erfasst der Zufügeabschnitt 110 für Registrierinformation, ob die Erkennungsrate in dem Erkennungsabschnitt 108 geringer als ein vorgegebener Wert ist oder nicht. Beispielsweise erfasst der Zufügeabschnitt 110 für Registrierinformation, dass die Ähnlichkeit verringert ist oder nicht, indem bestimmt wird, ob das Maß der Ähnlichkeit, das in dem Erkennungsabschnitt 108 berechnet wird, geringer als ein Schwellenwert als ein Referenzwert, der zur Bestimmung der zusätzlichen Registrierung verwendet wird, ist oder nicht. Wenn der Zufügeabschnitt 110 für Registrierinformation bestimmt, dass das Maß der Ähnlichkeit, das in dem Erkennungsabschnitt 108 berechnet wird, geringer als der Referenzwert wird, der zur Bestimmung der zusätzlichen Registrierung verwendet wird, registriert der Zufügeabschnitt 110 für Registrierinformation dann zusätzlich Registrierinformation, welche die Merkmalsmenge enthält, die durch den Extraktionsabschnitt 107 für die Merkmalsmenge zu dieser Zeit extrahiert wird, als eine Referenzmerkmalsmenge in den Halteabschnitt 109 für Registrierinformation.
  • Das bedeutet, dass ein Absenken in der Ähnlichkeit im Bezug auf die spezifizierte Registrierinformation bestimmt wird, indem im Voraus ein Referenzwert festgelegt wird, der zur Bestimmung der zusätzlichen Registrierung von Registrierinformation verwendet wird, und durch Vergleichen der Ähnlichkeit als das Erkennungsergebnis mit dem Referenzwert für die Bestimmung der zusätzlichen Registrierung. Wenn die Ähnlichkeit als das Erkennungsergebnis kleiner als der Referenzwert zur Bestimmung der zusätzlichen Registrierung wird, wird dann bestimmt, dass es erforderlich ist, neue Erkennungsinformation zuzufügen.
  • Ferner wird gefordert, dass die Beziehung zwischen dem Referenzwert (Ladd), der zur Bestimmung der zusätzlichen Registrierung verwendet wird, und dem Erkennungsschwellenwert (Lrec) in dem Erkennungsabschnitt 108 der folgenden Beziehung genügt. Ladd ≥ Lrec
  • In einem Fall, in dem eine Mehrzahl von Registrierinformationsdaten als Referenzmerkmalsmengen einer Person gehalten werden, kann somit der Erkennungsabschnitt 108 den Erkennungsvorgang basierend auf einer Mehrzahl von Teilräumen durchführen, die einer Person entsprechen. Der Grund, warum eine Mehrzahl von Registrierinformationsdaten als Referenzmerkmalsmengen einer Person gehalten werden, ist, dass ein Absinken in der Ähnlichkeit aufgrund einer Variation im Haarstil, dem Bart oder dem Make-up oder dem Vorhandensein oder nicht Vorhandensein von Brillen beispielsweise unterdrückt werden kann. Das bedeutet, dass durch Halten einer Mehrzahl von Registrierinformationsdaten mit einer Variation in dem Gesichtbild aufgrund einer Variation in der stehenden Position oder einer Variation in dem Gesicht an sich umgegangen werden kann. Da ein Absinken in der Ähnlichkeit basierend auf dem Erkennungsergebnis bestimmt wird und eine neue Registrierinformation zugefügt wird, kann ferner ein zusätzliche Registrierung von Registrierinformation einfach durchgeführt werden, während die vorliegende Vorrichtung betrieben wird.
  • Als Nächstes werden der Zehn-Tasten-Abschnitt 104 und der Verarbeitungsabschnitt 111 für die eingegebene Nummer erklärt.
  • Der Zehn-Tasten-Abschnitt 104 wird durch eine Person betätigt, um eine ID Nummer oder Ähnliches einzugeben, wenn die Person basierend auf dem Gesichtsbild durch Spezifizieren der Person unter Verwendung der ID Nummer (oder dem Passwort oder Ähnlichem) identifiziert wird. Ferner verarbeitet der Verarbeitungsabschnitt 111 für die eingegebene Nummer die ID Nummer, die über den Zehn-Tasten-Abschnitt 104 eingegeben ist.
  • Wie in 8 gezeigt, ist beispielsweise der Zehn-Tasten-Abschnitt 104 auf der unteren rechten Seite der Kamera 101 angebracht. Bei der Anordnung des Zehn-Tasten-Abschnitts 104 kann der Wirkung, dass eine Hand der Person, die die ID Nummer unter Verwendung des Zehn-Tasten- Abschnitts 104 eingibt, das Eingeben eines Gesichtsbilds nicht behindert, Rechnung getragen werden.
  • Die Anordnungsposition des Zehn-Tasten-Abschnitts 104 ist nicht auf diejenige, die in 8 gezeigt ist, begrenzt. Beispielsweise kann, wie es in 9 gezeigt ist, der Zehn-Tasten-Abschnitt 104 direkt unter der Kamera 101 angebracht sein, d.h. zwischen der Kamera 101 und dem zweiten Beleuchtungsabschnitt 103. Ferner kann, wie es in 10 gezeigt ist, der Zehn-Tasten-Abschnitt 104 unter dem zweiten Beleuchtungsabschnitt 103 angebracht sein, oder, wie es in 11 gezeigt ist, können die Tasten des Zehn-Tasten-Abschnitts 104 auf einer horizontalen Linie unter dem zweiten Beleuchtungsabschnitt 103 angebracht sein. In den oben stehenden Fällen ist es möglich die Wirkung zu erzielen, dass eine Hand der Person, die die ID Nummer eingibt, nicht das Eingeben eines Gesichtsbilds wie oben beschrieben behindert.
  • 12, 13, 14 und 15 zeigen jeweils das Verhältnis der Anordnungspositionen in einem Fall, in dem ein Displayabschnitt 120, wie z.B. ein Monitor, jeder der in 8, 9, 10 und 11 gezeigten Konfigurationen zugefügt wird. Wie es in 12 bis 15 gezeigt ist, kann das Gesichtsbild einer Person, die durch die Kamera 101 fotografiert wird, durch Anordnen des Displayabschnitts 120, wie z.B. des Monitors, dargestellt werden. Ferner kann gewünschte Information auf dem Displayabschnitt 120 dargestellt werden, während der Erkennungsvorgang nicht durchgeführt wird.
  • Als Nächstes wird das Verhältnis zwischen einem Eingabeverfahren unter Verwendung des Zehn-Tasten-Abschnitts 104, einem Verarbeitungsverfahren in dem Verarbeitungsabschnitt 111 für die eingegebene Nummer und dem Erkennungsverfahren des Gesichtsbilds im Einzelnen erklärt. In der folgenden Erklärung wird ein Fall erklärt, bei dem der Erkennungsabschnitt 108 das Gesichtsbild unter Verwendung der ID Nummer einer zu erkennenden Person 100 erkennt.
  • Wenn beispielsweise das Gesichtsbild einer Person nicht eingegeben wird, wird die ID Nummer, die unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, in dem Verarbeitungsabschnitt 111 für die eingegebene Nummer ungültig gemacht. Wenn somit das Gesichtsbild einer Person nicht eingegeben wird, wird der Erkennungsabschnitt 108 im Zustand außer Betrieb gehalten. Daher kann verhindert werden, dass eine zweifelhafte Person, oder eine Person, die mit unlauterer Absicht arbeitet, unkorrekter Weise erkannt wird, und die Wirkung, dass zweifelhafte Aktionen und Aktionen mit unlauterer Absicht unterdrückt werden, kann erzielt werden.
  • Als Nächstes wird das konkrete Verfahren unter Verweis auf das in 16 gezeigte Flussdiagramm erklärt. Das in 16 gezeigte Flussdiagramm gibt hauptsächlich den Ablauf des Erkennungsvorgangs in dem Erkennungsabschnitt 108 an.
  • Wenn eine ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST21), erfasst der Verarbeitungsabschnitt 111 für die eingegebene Nummer, dass die ID Nummer eingegeben wird. Zu dieser Zeit bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in dem eingegebenen Bild aus der Kamera 101 vorhanden ist oder nicht, indem der Gesichtsbilderfassungsvorgang durch den Extraktionsabschnitt 107 für die Merkmalsmenge oder den Bildeingabeabschnitt 106 durchgeführt wird (Schritt ST22). Wenn in dem oben stehenden Bestimmungsverfahren bestimmt wird, dass kein Gesichtsbild vorhanden ist, führt der Erkennungsabschnitt 108 das Verfahren zu Schritt ST21 zurück und wiederholt den oben stehenden Vorgang. Das bedeutet, dass selbst wenn die ID Nummer aus dem Zehn-Tasten-Abschnitt 104 eingegeben wird und wenn kein eingegebenes Bild von der Kamera 101 vorhanden ist, der Erkennungsabschnitt 108 bestimmt, dass der Vorgang eine Handlung mit unlauterer Absicht oder eine fehlerhafte Handlung ist, und die über den Zehn-Tasten-Abschnitt 104 eingegebene ID Nummer ungültig unter Verwendung des Verarbeitungsabschnitts 111 für die eingegebene Nummer ungültig macht.
  • Ferner, wenn in Schritt ST22 bestimmt wird, dass das Gesichtsbild vorhanden ist, behandelt der Verarbeitungsabschnitt 111 für die eingegebene Nummer die über den Zehn-Tasten-Abschnitt 104 eingegebene Nummer als eine gültige ID Nummer. Dann liest der Erkennungsabschnitt 108 Registrierinformation (Teilraum) entsprechend der über den Zehn-Tasten-Abschnitt 104 eingegebenen und von dem Verarbeitungsabschnitt 111 für die eingegebene Nummer zugeführten ID Nummer aus dem Halteabschnitt 109 für die Registrierinformation aus (Schritt ST23). Wenn Registrierinformation entsprechend der ID Nummer ausgelesen wird, berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum von jedem Registrierinformationsdatum und einem Eingabevektor (inhärenter Vektor des Teilraums berechnet basierend auf dem eingegebenen Bild in dem Extraktionsabschnitt 107 für die Merkmalsmenge) oder einem eingegebenen Teilraum, um den Erkennungsvorgang durch das Teilraumverfahren auszuführen (Schritt ST24).
  • Als Nächstes vergleicht der Erkennungsabschnitt 108 die in dem Schritt ST24 abgeleitete Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST25, ST26). Als Ergebnis des Ver gleichs bestimmt der Erkennungsabschnitt 108, wenn bestimmt wird, dass die Ähnlichkeit größer als der Schwellenwert ist, dass die Person erfolgreich erkannt ist und gibt das Erkennungsergebnis aus (Schritt ST27). Wenn die Ähnlichkeit nicht größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Person nicht erfolgreich erkannt ist und gibt einen Erkennungsfehler aus (Schritt ST28).
  • Wenn ferner begonnen wird, die ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 einzugeben und wenn das Gesichtsbild einer Person erfasst wird, beginnt der Bildeingabeabschnitt 106, das Gesichtsbild einzugeben. Als Folge kann der psychologische Zeitverringerungseffekt für den Benutzer erzielt werden, da die Zeit zum Eingeben des Gesichtsbilds verringert werden kann und die Zeit, bis das Erkennungsergebnis ausgegeben wird, verringert werden kann.
  • Als Nächstes wird das Verfahren zum Beginnen des Eingehens des Bilds und zum Beginnen des Eingehens der ID Nummer unter Verweis auf das in 17 gezeigte Flussdiagramm erklärt. Das Flussdiagramm aus 17 ist im Grunde das gleiche wie das in 16 gezeigte Flussdiagramm, außer dass der Schritt ST29 zusätzlich vorgesehen ist, in welchem das Gesichtsbild aus der Kamera 101 beginnt, eingegeben zu werden (erfasst zu werden), wenn in dem Schritt ST22 bestimmt ist, dass das Gesichtsbild in dem durch die Kamera 101 fotografierten Bild vorhanden ist, d.h. wenn das Gesichtsbild erfasst wird. Das andere Verfahren ist gleich wie diejenigen aus 16, und die detaillierte Erklärung davon wird weggelassen.
  • Ferner wird in dem Eingabevorgang in dem Zehn-Tastenabschnitt 104 ein Verfahren zum sequentiellen Verringern der Anzahl der Registrierinformationsdaten, wie z.B. der verwendeten ID Zahlen, als individuelle Information jedes Mal dann, wenn eine Stelle der ID Nummer eingegeben wird und des abschließenden Spezifizierens der ID Nummer in Betracht gezogen. Wenn beispielsweise die ID Nummer durch vier Stellen gebildet ist, wird die Anzahl der Registrierinformationsdaten in dem Halteabschnitt 109 für die Registrierinformation auf näherungsweise 1/10 der ursprünglichen Zahl verringert, wenn eine Ziffer der höchsten oberen Stelle eingegeben wird. Wenn ferner eine Ziffer der zweithöchsten Stelle eingegeben wird, wird die Anzahl der Registrierinformationsdaten auf ungefähr 1/100 der ursprünglichen Zahl verringert. Somit wird es möglich, die Zeit zu verringern, bis das Erkennungsergebnis ausgegeben wird, indem sequentiell die Anzahl der Registrierinformationsdaten verringert und gewählt wird.
  • Als Nächstes wird ein konkretes Verfahren zum sequentiellen Reduzieren der Anzahl der Registrierinformationsdaten jedes Mal dann, wenn eine Stelle der ID Nummer eingegeben wird, unter Verweis auf das in 18 gezeigte Flussdiagramm erklärt. Das Flussdiagramm aus 18 gibt hauptsächlich den Ablauf des Verfahrens des Erkennungsabschnitts 108 an.
  • Wenn eine erste Stelle der ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST31), bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in dem durch die Kamera 101 fotografierten Bild vorhanden ist oder nicht (Schritt ST32). Wenn in dem obigen Bestimmungsvorgang bestimmt wird, dass kein Gesichtsbild vorhanden ist, bringt der Erkennungsabschnitt 108 das Verfahren auf Schritt ST31 zurück und wiederholt den oben stehenden Vorgang. Wenn ferner in Schritt ST32 bestimmt wird, dass das Gesichtsbild vorhanden ist, verringert der Erkennungsabschnitt 108 die Anzahl der Registrierinformationsdaten, die in dem Halteabschnitt 109 für die Registrierinformation gehalten werden, basierend auf der Zahl der höchsten Stelle der unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegebenen ID Nummer. In diesem Fall werden Registrierinformationsdaten einer entsprechenden ID Nummer gesucht, indem die eingegebene Zahl der höchsten Stelle als Suchkriterium verwendet wird. Beispielsweise in einem Fall, in dem die Ziffern von 0 bis 9 gleichmäßig als Information jeder Stelle von allen ID Nummern zugewiesen sind, die in dem Halteabschnitt 109 für die Registrierinformation gehalten werden, wird die Anzahl der Registrierinformationsdaten in dem Halteabschnitt 109 für die Registrierinformation auf näherungsweise 1/10 der ursprünglichen Zahl verringert. Wenn ferner die zweithöchste Ziffer eingegeben wird, verringert der Erkennungsabschnitt 108 weiter die Anzahl von Registrierinformationsdaten, die auf ungefähr 1/10 der ursprünglichen Anzahl verringert worden sind, auf ungefähr 1/100 der ursprünglichen Zahl als Beispiel. Der Erkennungsabschnitt 108 führt wiederholt den Verringerungsvorgang für die Zahl der Registrierinformation durch, bis die vierthöchste Stelle (die unterste Stelle) der ID Nummer eingegeben ist (Schritt ST33).
  • Wenn die vierthöchste Stelle (die unterste Stelle) der ID Nummer in diesem Fall eingegeben wird (Schritt ST34), bestimmt der Erkennungsabschnitt 108 die ID Nummer der vier Stellen (alle Stellen) (Schritt ST35). Der Erkennungsabschnitt 108 wählt Registrierinformation (Teilraum) entsprechend der so bestimmten ID Nummer aus der reduzierten Anzahl der Registrierinformationsdaten in dem Halteabschnitt 109 für Registrierinformation aus (Schritt ST36) entsprechend der so bestimmten ID Nummer. Wenn die Registrierinformation durch Bestimmen der ID Nummer bestimmt wird, berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teil raum jeder Registrierinformation und einem Eingabevektor (inhärenter Vektor berechnet basierend auf dem eingegebenen Bild in dem Extraktionsabschnitt 107 für die Merkmalsmenge) oder einem eingegebenen Teilraum, um den Erkennungsvorgang durch das Teilraumverfahren oder Ähnliches durchzuführen (Schritt ST37).
  • Als Nächstes vergleicht der Erkennungsabschnitt 108 die in dem Schritt ST37 abgeleitete Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST38, ST39). Als das Ergebnis des Vergleichs bestimmt der Erkennungsabschnitt 108, wenn bestimmt wird, dass die Ähnlichkeit größer als der Schwellenwert ist, dass die Person erfolgreich erkannt ist, und gibt das Erkennungsergebnis aus (Schritt ST40). Wenn als Ergebnis des Vergleichs bestimmt wird, dass die Ähnlichkeit nicht größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Person nicht erfolgreich erkannt ist, und gibt einen Erkennungsfehler aus (Schritt ST41).
  • Wie oben erklärt, kann gemäß der ersten Ausführungsform die Wirkung erzielt werden, dass die Hand der Person, die das Passwort oder die ID Nummer eingibt, nicht das Eingeben eines Gesichtsbilds behindert, indem der Zehn-Tasten-Abschnitt auf der unteren rechten Seite der Kamera oder direkt unterhalb der Kamera, betrachtet von der zu erkennenden Person, angeordnet wird. Ferner kann verhindert werden, dass die zu erkennende Person auf das Vorhandensein der Kamera aufmerksam wird, indem die Kamera im Inneren des Zehn-Tasten-Abschnitts angeordnet wird.
  • 19 zeigt schematisch die Konfiguration einer Vorrichtung zur Gesichtserkennung gemäß der zweiten Ausführungsform. Die zweite Ausführungsform ist ähnlich zur ersten Ausführungsform, außer dass der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 in der ersten Ausführungsform weggelassen sind und die Kamera 101 im Inneren des Zehn-Tasten-Abschnitts 104 angeordnet ist, beispielsweise im zentralen Bereich des Zehn-Tasten-Abschnitts 104, indem die Tasten in einer rechteckigen Form angeordnet sind, wie es in 20 im Einzelnen gezeigt ist. Die anderen Bereiche sind die gleichen wie diejenigen der ersten Ausführungsform und deren Erklärung wird weggelassen.
  • Der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 sind weggelassen, da die vorliegende Vorrichtung an einem Ort installiert ist, an dem eine externe Beleuchtung stabil ist. Das bedeutet, wenn die externe Beleuchtung stabil ist, dass eine Variation in dem Gesichtsbild, das durch die Kamera 101 fotografiert wird, klein ist. Daher kann jeder Einfluss auf das Verfahren zum Extrahieren eines Gesichtsbildes aus einem durch die Kamera 101 fotografierten Bild, auf das Verfahren zum Extrahieren der Gesichtsmerkmalsmenge und auf Ähnliches unterdrückt werden. Wenn insbesondere die externe Beleuchtung stabil ist, ist die Art und Weise des Ausbildens der Schatten auf dem Gesichtsbild stabil, so dass die Gesichtsmerkmalsmenge, die aus dem durch die Kamera 101 fotografierten Bild extrahiert wird, stabil gemacht werden kann. Wenn daher die externe Beleuchtung stabil ist, kann jeder Einfluss auf den Erkennungsvorgang unterdrückt werden, selbst wenn der Beleuchtungsabschnitt nicht vorgesehen wird, und die Vorrichtung kann klein gehalten werden. Selbst wenn der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 installiert sind, wenn die externe Beleuchtung stabil ist, wird selbstverständlich kein Einfluss auf die Leistung des Erkennungsvorgangs und Ähnlichem erkennbar.
  • Ferner kann man verhindern, wie es in 20 gezeigt ist, wenn die Kamera 101 im Inneren des Zehn-Tasten-Abschnitts 104 angeordnet ist, dass der zu erkennenden Person das Vorhandensein der Kamera bewusst wird, und die Vorrichtung kann klein gehalten werden.
  • Wie oben beschrieben, ist es gemäß der zweiten Ausführungsform möglich, eine Vorrichtung zur Gesichtserkennung und eine Durchlasskontrollvorrichtung, bei welchen das Gesichtsbild einer zu erkennenden Person in einem natürlichen Zustand ermittelt werden kann, ohne dass bewirkt wird, dass die zu erkennende Person sich über das Vorhandensein des Bildeingabeabschnitts bewusst wird, vorzusehen, indem der Bildeingabeabschnitt im Inneren des Tasteneingabeabschnitts angeordnet wird.
  • Als Nächstes wird eine dritte Ausführungsform erklärt.
  • Bei der dritten Ausführungsform wird der Erkennungsvorgang für Registrierinformationsdaten einer Anzahl, die jedes Mal dann verringert wird, wenn eine Stelle der ID Nummer eingegeben wird, durchgeführt. Bei der ersten Ausführungsform wird der Ablauf zum Verringern der Anzahl der Registrierinformationsdaten jedes Mal dann, wenn eine Stelle der ID Nummer eingegeben wird, erklärt, wobei jedoch in der dritten Ausführungsform jedes Mal dann, wenn eine Stelle der ID Nummer eingegeben wird, die Anzahl der Registrierinformationsdaten verringert wird und der Erkennungsvorgang für die verringerte Anzahl von Registrierinformationsdaten durchgeführt wird.
  • Die Konfiguration der Vorrichtung zur Gesichtserkennung, auf die die dritte Ausführungsform angewendet wird, ist die gleiche wie diejenige der Vorrichtung zur Gesichtserkennung, die bei der ersten oder zweiten Ausführungsform erklärt wurde, und daher wird eine detaillierte Erklärung davon weggelassen.
  • Das erste Beispiel für den Ablauf bei der dritten Ausführungsform wird unten erklärt.
  • 21 ist ein Flussdiagramm zum Veranschaulichen des ersten Ablaufbeispiels der dritten Ausführungsform. Das Flussdiagramm aus 21 zeigt hauptsächlich den Ablauf des Verfahrens eines Erkennungsabschnitts 108. In der folgenden Erklärung wird ein Fall, bei dem die ID Nummer durch eine dreistellige Zahl gestaltet ist, erklärt.
  • Wenn eine erste Stelle (höchste Stelle) der ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST51), bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in einem Bild vorhanden ist oder nicht, das durch die Kamera 101 fotografiert ist (Schritt ST52). Wenn bei dem oben stehenden Bestimmungsvorgang bestimmt wird, dass kein Gesichtsbild vorhanden ist, führt der Erkennungsabschnitt 108 das Verfahren auf den Schritt ST51 zurück und wiederholt den oben stehenden Vorgang. Das bedeutet, dass selbst wenn die ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, der Erkennungsabschnitt 108 den Eingabevorgang als einen Vorgang mit unlauterer Absicht oder fehlerhaften Vorgang erkennt, wenn kein Gesichtsbild in dem durch die Kamera 101 fotografierten Bild vorhanden ist. Dann wird die unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegebene ID Nummer durch den Verarbeitungsabschnitt 111 für die eingegebene Nummer ungültig gemacht.
  • Wenn ferner in Schritt ST52 bestimmt wird, dass das Gesichtsbild vorhanden ist, validiert der Verarbeitungsabschnitt 111 für die eingegebene Nummer die unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegebene ID Nummer und führt diese an den Erkennungsabschnitt 108 zu. Wenn die erste Stelle der ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, d.h. wenn die Ziffer der ersten Stelle bezüglich der obersten Position der ID Nummer eingegeben wird, verringert der Erkennungsabschnitt 108 die Anzahl der Registrierinformationsdaten, wenn der Verarbeitungsabschnitt 111 für die eingegebene Nummer bestimmt, dass die eingegebene ID Nummer gültig ist. Insbesondere wählt der Erkennungsabschnitt 108 Registrierinformationsdaten aus all den ID Nummern, die die gleiche Nummer wie die Nummer der eingegebenen Stelle aufweisen, aus all den Registrierinformationsdaten, die in dem Halteab schnitt 109 für Registrierinformation gehalten werden, und reduziert somit die Anzahl der Registrierinformationsdaten. (Schritt ST53).
  • Nachdem die Anzahl der Registrierinformationsdaten entsprechend der ersthöchsten Stelle der ID Nummer verringert worden ist, liest der Erkennungsabschnitt 108 die Registrierinformationsdaten in der reduzierten Anzahl aus dem Halteabschnitt 109 für die Registrierinformation aus (Schritt ST54). Nach dem Auslesen der Registrierinformationsdaten in der verringerten Anzahl berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jeder Registrierinformation und einem eingegebenen Vektor (inhärenter Vektor des Teilraums berechnet basierend auf dem eingegebenen Bild in dem Extraktionsabschnitt 107 für die Merkmalsmenge) oder einem eingegebenen Teilraum, um das Erkennungsverfahren durch das Teilraumverfahren oder Ähnliches basierend auf den ausgelesenen Registrierinformationsdaten durchzuführen. Nachdem alle Ähnlichkeiten im Bezug auf die Registrierinformationsdaten in der verringerten Anzahl berechnet worden sind, leitet der Erkennungsabschnitt 108 die Maximale der berechneten Ähnlichkeiten ab (maximale Ähnlichkeit) (Schritt ST55).
  • Als Nächstes vergleicht der Erkennungsabschnitt 108 die maximale abgeleitete Ähnlichkeit in Schritt ST55 mit einem vorgegebenen Schwellenwert (Schritte ST56, ST57). Wenn bestimmt wird, dass die maximale Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108 als Ergebnis des Vergleichs, dass die Zuordnung zwischen dem durch die Kamera 101 fotografierten Gesichtsbild und der Registrierinformation bezüglich der maximalen Ähnlichkeit erfolgreich durchgeführt ist und gibt das Erkennungsergebnis basierend auf der Registrierinformation aus (Schritt ST58).
  • Wenn die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108, bis eine nächste Stelle der ID Nummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben ist. In diesem Zustand verringert der Erkennungsabschnitt 108 weiter die Anzahl der Registrierinformationsdaten aus den Registrierinformationsdaten der Anzahl, die in dem vorhergehenden Zyklus reduziert worden ist (der Registrierinformationsdaten der Anzahl, die basierend auf der Ziffer der ersthöchsten Stelle verringert worden ist) basierend auf der eingegebenen Ziffer der zweihöchsten Stelle (Schritt ST53), wenn die Eingabe eines Bestimmungsschlüssels, der dazu verwendet wird zu bestimmen, dass die ID Nummer nicht gebildet ist und eine Ziffer einer nächsten Stelle (die Ziffer der zweiten Stelle von der oberen Position der ID Nummer) unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben werden (Schritt ST59).
  • Wenn die Anzahl der Registrierinformationsdaten entsprechend der zweiten Stelle der ID Nummer reduziert ist, liest der Erkennungsabschnitt 108 die Registrierinformationsdaten der verringerten Anzahl aus dem Registrierinformationshalteabschnitt 109 aus (Schritt ST54). Dann berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum von jeder Registrierinformation und einem eingegebenen Vektor (inhärenter Vektor des Teilraums berechnet basierend auf dem eingegebenen Bild in dem Extraktionsabschnitt 107 für die Merkmalsmenge) oder einen eingegebenen Teilraum, um das Erkennungsverfahren durch das Teilraumverfahren oder Ähnliches durchzuführen. Da die Anzahl der Registrierinformationsdaten zu dieser Zeit weiter im Vergleich zu einem Fall in dem vorhergehenden Zyklus reduziert ist, ist es möglich, dass der Erkennungsabschnitt 108 die Ähnlichkeit zwischen der Registrierinformation und dem eingegebenen Vektor oder dem eingegebenen Teilraum unter Verwendung eines anderen Erkennungsverfahrens berechnet. Ferner kann der Erkennungsabschnitt 108 ermöglichen, dass der Extraktionsabschnitt 107 für die Merkmalsmenge das Extraktionsverfahren zum Extrahieren des inhärenten Vektors oder des eingegebenen Teilraums aus dem eingegebenen Bild erneut durchführt.
  • Nachdem alle der Ähnlichkeiten im Bezug auf die Registrierinformationsdaten der Anzahl, die entsprechend der zweithöchsten Stelle der ID Nummer verringert ist, berechnet worden sind, leitet der Erkennungsabschnitt 108 die Maximale der berechneten Ähnlichkeiten ab (maximale Ähnlichkeit) (Schritt ST55). Wenn die maximale Ähnlichkeit abgeleitet ist, vergleicht der Erkennungsabschnitt 108 die in dem Schritt ST55 abgeleitete maximale Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST56, ST57). Da die Anzahl der Registrierinformationsdaten in diesem Fall weiter im Vergleich zu einem Fall in dem vorhergehenden Zyklus verringert ist, kann der zu vergleichende Schwellenwert mit der maximalen Ähnlichkeit auf einen Wert festgelegt werden, der kleiner als der Schwellenwert ist, der in dem vorhergehenden Zyklus verwendet wurde.
  • Wenn als Ergebnis des Vergleichs bestimmt wird, dass die maximale Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Zuordnung zwischen dem eingegebenen Gesichtsbild und der Registrierinformation bezüglich der maximalen Ähnlichkeit erfolgreich durchgeführt ist und gibt das Erkennungsergebnis basierend auf der Registrierinformation aus (Schritt ST58).
  • Wenn ferner als ein Ergebnis des Vergleichs bestimmt wird, dass die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108, bis eine nächste Zahl unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird. Wenn in diesem Zustand die Eingabe des Bestimmungsschlüssels, der dazu verwendet wird, den Abschluss der Eingabe der ID Nummer zu spezifizieren, nicht vorgenommen wird und eine Ziffer einer nächsten Stelle (die Ziffer der dritten Stelle von einer oberen Position der ID Nummer) unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST59), verringert der Erkennungsabschnitt 108 weiter die Anzahl der Registrierinformationsdaten aus den Registrierinformationsdaten der Anzahl, die im zweiten Zyklus reduziert worden ist (der Registrierinformationsdaten der Anzahl, die basierend auf den Zahlen der ersten und der zweiten oberen Stelle verringert ist), basierend auf der eingegebenen Zahl der dritthöchsten Stelle (Schritt ST53).
  • Wenn die Anzahl der Registrierinformationsdaten entsprechend der dritten Stelle der ID Nummer reduziert ist, liest der Erkennungsabschnitt 108 die Registrierinformationsdaten der reduzierten Anzahl aus dem Halteabschnitt 109 für die Registrierinformation aus (Schritt ST54) wie bei dem vorhergehenden Zyklus. Nach dem Auslesen der verringerten Anzahl der Registrierinformationsdaten berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jeder Registrierinformation und einem eingegebenen Vektor (inhärenter Vektor aus dem Extraktionsabschnitt 107 für die Merkmalsmenge) oder einem eingegebenen Teilraum. Da die Anzahl der Registrierinformationsdaten zu diesem Zeitpunkt weiter im Vergleich zu einem Fall in dem vorhergehenden Zyklus reduziert ist, ist es möglich, dass der Erkennungsabschnitt 108 die Ähnlichkeit zwischen der Registrierinformation und dem eingegebenen Vektor oder dem eingegebenen Teilraum unter Verwendung eines anderen Erkennungsverfahrens als dem, das im vorhergehenden Zyklus verwendet wurde, berechnet. Ferner kann der Erkennungsabschnitt 108 erlauben, dass der Extraktionsabschnitt 107 für die Merkmalsmenge den Extraktionsvorgang zum Extrahieren des inhärenten Vektors oder eines eingegebenen Teilraums aus dem eingegebenen Bild erneut durchführt.
  • Nachdem alle Ähnlichkeiten im Bezug auf die Registrierinformationsdaten der Anzahl, die entsprechend der dritthöchsten Stelle der ID Nummer verringert ist, berechnet worden sind, leitet der Erkennungsabschnitt 108 die Maximale der berechneten Ähnlichkeiten ab (maximale Ähn lichkeit) (Schritt ST55). Der Erkennungsabschnitt 108 vergleicht die in Schritt ST55 abgeleitete maximale Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST56, ST57). Da die Anzahl der Registrierinformationsdaten in diesem Fall weiter im Vergleich zu einem Fall in dem vorhergehenden Zyklus reduziert ist, kann der mit der maximalen Ähnlichkeit zu vergleichende Schwellenwert auf einen Wert festgelegt werden, der kleiner als der in dem vorhergehenden Zyklus verwendete Schwellenwert ist.
  • Wenn als Folge des Vergleichs bestimmt wird, dass die maximale Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Zuordnung zwischen dem eingegebenen Gesichtsbild und der Registrierinformation der maximalen Ähnlichkeit erfolgreich vorgenommen ist und gibt das Erkennungsergebnis basierend auf der Registrierinformation aus (Schritt ST58).
  • Wenn ferner als das Ergebnis des Vergleichs bestimmt wird, dass die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108, bis eine nächste Zahl unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird. Wenn in diesem Fall die Bestimmungstaste, die dazu verwendet wird, den Abschluss der Eingabe der ID Nummer zu spezifizieren, eingegeben wird, bestimmt der Erkennungsabschnitt 108, dass die Erkennung zur einem Versagen führt und gibt ein Erkennungsversagen aus. Wenn ferner eine Löschtaste, die betätigt wird, um die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegebene Nummer zu löschen, betätigt wird, bringt der Erkennungsabschnitt 108 das Verfahren auf Schritt ST51 zurück und wiederholt das Verfahren der Schritte ST51 bis ST59.
  • Bei der oben stehenden Beschreibung wird ein Fall erklärt, bei welchem die ID Nummer durch drei Stellen gestaltet ist, wobei jedoch die gleiche Wirkung wie oben beschrieben erzielt werden kann, indem das Verfahren der Schritte ST51 bis ST59 durchgeführt wird, bis alle der Ziffern der ID Nummer bestimmt sind, selbst wenn die ID Nummer durch jede beliebige Anzahl von Stellen außer den drei Stellen gebildet wird.
  • Wenn ferner ein Erkennungsfehler auftritt, können Erkennungsdaten, die von dem Gesichtsbild zu dieser Zeit erhalten werden, in dem Halteabschnitt 109 für die Registrierinformation als neue Erkennungsdaten (Registrierinformation) gehalten werden, wie es unter Verweis auf den Zufügeabschnitt 110 für Registrierinformation erklärt wurde. Das einzelne Verfahren ist das gleiche wie oben erklärt und daher wird dessen Erläuterung weggelassen.
  • Wie oben beschrieben wird gemäß dem ersten Arbeitsbeispiel der dritten Ausführungsform die Anzahl der Registrierinformationsdaten basierend auf der eingegebenen Zahl reduziert und der Erkennungsvorgang wird jedes Mal dann durchgeführt, wenn eine der Ziffern der ID Nummer eingegeben wird. Wenn der Erkennungsvorgang erfolgreich während des Ablaufs des Eingehens der ID Nummer durchgeführt wird, wird das Erkennungsergebnis zu diesem Zeitpunkt ausgegeben. Als Ergebnis kann die Zeit, bis das Erkennungsergebnis für den registrierten Benutzer ausgegeben wird, verringert werden, und die psychologische Verringerungswirkung für die Zeit für den Benutzer kann erzielt werden.
  • Als Nächstes wird ein zweites Beispiel der Arbeitsweise gemäß der dritten Ausführungsform erklärt. 22 ist ein Flussdiagramm zum Darstellen des zweiten Arbeitsbeispiels gemäß der dritten Ausführungsform. Das Flussdiagramm von 22 zeigt hauptsächlich den Ablauf eines Verfahrens in dem Erkennungsabschnitt 108.
  • Die Schritte ST71 bis ST77, ST79, die in 22 gezeigt sind, sind die gleichen wie die Schritte ST51 bis ST57, ST59. Daher wird die detaillierte Erklärung für die Schritte ST71 bis ST77, ST79 weggelassen.
  • Das bedeutet, wenn in Schritt ST77 bestimmt wird, dass die maximale Ähnlichkeit größer als ein Schwellenwert ist, dass der Erkennungsabschnitt 108 bestimmt, dass die Zuordnung zwischen dem eingegebenen Gesichtsbild und der Registrierinformation der maximalen Ähnlichkeit erfolgreich durchgeführt ist. Basierend auf dem Bestimmungsergebnis bestimmt der Erkennungsabschnitt 108 eine ID Nummer basierend auf der Registrierinformation, die erfolgreich zu dem eingegebenen Gesichtsbild zugeordnet ist. Dann speichert der Erkennungsabschnitt 108 die ID Nummer (Erkennungs ID Nummer), die auf der Registrierinformation basierend bestimmt ist, die erfolgreich dem eingegebenen Gesichtsbild zugeordnet ist, in einen (nicht dargestellten) Speicher oder Ähnliches.
  • Nachdem die ID Nummer, die basierend auf der Registrierinformation bestimmt ist, die erfolgreich zugeordnet ist, in dem Speicher gehalten wird, wartet der Erkennungsabschnitt 108, bis die zu erkennende Person die Bestimmungstaste eingibt, um den Abschluss der Eingabe der ID Nummer zu spezifizieren (Schritt ST80). In diesem Zustand bestimmt der Erkennungsabschnitt 108 die ID Nummer, die durch den Benutzer eingegeben ist, oder entscheidet über sie (eingege bene ID Nummer) (Schritt ST81), wenn die Bestimmungstaste eingegeben wird. Wenn die ID Nummer somit durch den Benutzer bestimmt ist, vergleicht der Erkennungsabschnitt 108 die Erkennungs ID Nummer, die in dem Speicher gehalten wird, mit der durch den Benutzer eingegebenen ID Nummer (Schritt ST83).
  • Wenn bestimmt wird, dass die ID Nummer (Erkennungs ID Nummer), die aus dem Erkennungsergebnis erhalten wird, mit der ID Nummer (eingegebene ID Nummer) zusammenfällt, die durch die zu erkennende Person eingegeben wird, bestimmt der Erkennungsabschnitt 108 als das Ergebnis des Vergleichs, dass das Erkennen des Gesichtsbilds basierend auf der ID Nummer erfolgreich durchgeführt ist und gibt das Erkennungsergebnis aus. Wenn ferner bestimmt wird, dass die Erkennungs ID Nummer nicht mit der eingegebenen ID Nummer zusammenfällt, bestimmt der Erkennungsabschnitt 108, dass die Erkennung des Gesichtsbilds basierend auf der ID Nummer zu einem Fehler führt und gibt einen Erkennungsfehler aus.
  • Wenn ein Erkennungsfehler auftritt, kann Erkennungsinformation, die eine Merkmalsmenge enthält, die aus dem Gesichtsbild zu dieser Zeit erhalten wird, in dem Halteabschnitt 109 für die Registrierinformation als neue Erkennungsinformation gehalten werden, wie es unter Verweis auf den Zufügeabschnitt 110 für Registrierinformation erklärt ist. Der Registriervorgang für die neue Erkennungsinformation ist der gleiche wie oben erklärt und daher wird eine Erklärung davon weggelassen.
  • Wie oben beschrieben, wird gemäß dem zweiten Arbeitsbeispiel der dritten Ausführungsform die Anzahl der Registrierinformationsdaten reduziert und das Erkennungsverfahren wird jedes Mal dann durchgeführt, wenn eine der Ziffern der ID Nummer eingegeben wird. Wenn das Erkennungsverfahren erfolgreich während des Eingehens der ID Nummer durchgeführt wird, wird die ID Nummer, die basierend auf der Erkennungsinformation (Erkennungsinformation, welche die maximale Ähnlichkeit ergibt) erhalten wird, die dazu verwendet wird, den Erkennungsvorgang erfolgreich zu machen, gespeichert. Dann wird nach dem Abschluss der Eingabe einer ID Nummer durch den Benutzer die eingegebene ID Nummer mit der erhaltenen ID Nummer basierend auf der Erkennungsinformation verglichen, die dazu verwendet wird, den Erkennungsvorgang erfolgreich zu machen. Wenn die verglichenen ID Nummern miteinander zusammenfallen, wird das Erkennungsergebnis ausgegeben, und wenn die verglichenen ID Nummern nicht miteinander zusammenfallen, wird ein Erkennungsversagen ausgegeben. Als Folge kann die Sicherheitsleistung bei dem Erkennungsverfahren verbessert werden.
  • Wie oben beschrieben, wird gemäß der dritten Ausführungsform die Anzahl der Registrierinformationsdaten verringert und der Erkennungsvorgang wird jedes Mal dann durchgeführt, wenn die zu erkennende Person eine Stelle der ID Nummer eingibt. Wenn das Erkennungsverfahren basierend auf der durch die zu erkennende Person eingegebenen ID Nummer durchgeführt wird, kann eine erforderliche Zeitdauer von der Zeit, zu der die Eingabe der ID Nummer begonnen wird, bis zu der Zeit, zu der das Erkennungsergebnis erhalten wird, merklich verringert werden.
  • Wenn ferner eine Zuordnung zu spezifizierter Registrierinformation erfolgreich durchgeführt wird, ehe die zu erkennende Person alle der Stellen der ID Nummer eingibt, wird die spezifizierte Registrierinformation, mit der die Zuordnung erfolgreich durchgeführt wird, gespeichert. Wenn die Eingabe der ID Nummer durch die zu erkennende Person dann abgeschlossen ist, wird bestimmt, ob die ID Nummer, die durch die zu erkennende Person eingegeben ist, mit der ID Nummer der Registrierinformation, die als das Erkennungsergebnis erhalten wird, zusammenfällt oder nicht. Als Ergebnis kann einfach durch Bestimmen, ob die ID Nummern miteinander zusammenfallen, wenn die Eingabe der ID Nummer abgeschlossen ist, bestimmt werden, ob die Erkennung erfolgreich durchgeführt ist oder zu einem Fehler führt. Somit kann eine benötigte Zeitdauer von der Zeit der Eingabe des Abschlusses der ID Nummer bis zum Zeitpunkt des Erhalts des endgültigen Bestimmungsergebnisses reduziert werden.
  • Als Nächstes wird eine vierte Ausführungsform erklärt.
  • Die vierte Ausführungsform ist ein Beispiel, das einen Fall zeigt, bei dem die Vorrichtung zur Gesichtserkennung, die bei der ersten Ausführungsform erklärt ist, auf eine Durchlasskontrollvorrichtung angewendet wird, die ein Gesichtsbild eines Passanten erkennt und den Durchlass des Passanten kontrolliert. In diesem Fall wird als ein Beispiel der vierten Ausführungsform ein Fall, bei dem die Vorrichtung zur Gesichtserkennung, die in der ersten Ausführungsform erklärt ist, auf die Durchlasskontrollvorrichtung angewendet wird, erklärt, wobei es jedoch auch möglich ist, die Vorrichtung zur Gesichtserkennung, die in der zweiten oder dritten Ausführungsform erklärt wurde, auf eine Durchlasskontrollvorrichtung anzuwenden.
  • 23 zeigt schematisch die Durchlasskontrollvorrichtung gemäß der vierten Ausführungsform. Beispielsweise führt die Durchlasskontrollvorrichtung ein Eingangs/Ausgangsmanagement im Bezug auf eine wichtige Einrichtung (wie z.B. einen Raum, in dem viel Wert auf die Sicherheit gelegt wird) durch, erkennt das Gesichtsbild eines Besuchers (Passanten) und kontrolliert den Öffnungs/Schließzustand der Eingangs/Ausgangstür der wichtigen Einrichtung basierend auf dem Erkennungsergebnis.
  • Die Durchlasskontrollvorrichtung enthält eine Kamera 101, einen ersten Beleuchtungsabschnitt 102, einen zweiten Beleuchtungsabschnitt 103, einen Zehn-Tasten-Abschnitt 104, einen Verarbeitungsabschnitt 105, einen Türkontrollabschnitt 112 als Durchlasskontrollmittel und einen Bildaufzeichnungsabschnitt 113 als ein Bildaufzeichnungsmittel. Der Türkontrollabschnitt 112 kontrolliert den Öffnungs/Schließzustand einer Eingangs/Ausgangstür 202 einer wichtigen Einrichtung (Ziel des Besuchs) 201 basierend auf dem Erkennungsergebnis in einem Erkennungsabschnitt 108. Der Bildaufzeichnungsabschnitt 113 ist ein Speicher, der ein Gesichtsbild aufzeichnet, das durch die Kamera 101 fotografiert wird. Da Bereiche außer dem Türkontrollabschnitt 112 und dem Bildaufzeichnungsabschnitt 113 die gleichen wie diejenigen der Vorrichtung zur Gesichtserkennung aus 1 sind, sind in 23 die gleichen Referenzsymbole daran angebracht und deren Erklärung wird weggelassen.
  • Wie es in 24, 25 beispielsweise gezeigt ist, enthält der Zehn-Tasten-Abschnitt 104 Zifferntasten „0" bis „9", die Bestimmungstaste und die Löschtaste. Ferner kann, wie es in 26, 27 gezeigt ist, ein Rufknopf 104a zusätzlich auf dem Zehn-Tasten-Abschnitt 104 vorgesehen sein. Der Rufknopf 104a wird dazu verwendet, eine Person zu rufen, die in dem Ziel 201 des Besuchs lebt, wenn das Erkennungsergebnis des Erkennungsabschnitts 108 anzeigt, dass die abgeleitete Ähnlichkeit kleiner als der Schwellenwert in Schritt ST6 in 7 beispielsweise ist. 24 und 26 zeigen den Zehn-Tasten-Abschnitt 104, bei dem die Tasten in einer rechteckigen Form angeordnet sind, und 25 und 27 zeigen den Zehn-Tasten-Abschnitt 104, bei dem die Tasten linear angeordnet sind (in einer linearen Form).
  • Beispielsweise gibt der Erkennungsabschnitt 108 ein Signal „Öffnen der Tür" an den Türkontrollabschnitt 112 aus, wenn in Schritt ST6 in 7 bestimmt wird, dass die abgeleitete Ähnlichkeit größer als der Schwellenwert ist, oder in Schritt ST11 bestimmt wird, dass die abgeleitete Ähnlichkeit größer als der Schwellenwert ist. Andererseits gibt der Erkennungsabschnitt 108 ein Signal von „Schließen der Tür" an den Türkontrollabschnitt 112 aus, wenn die abgeleitete Ähnlichkeit kleiner als der Schwellenwert ist.
  • Wenn er das Signal „Öffnen der Tür" von dem Erkennungsabschnitt 108 empfangt, kontrolliert der Türkontrollabschnitt 112 die Eingangs/Ausgangstür 202 und bringt sie in einen offenen Zustand, so dass eine zu erkennende Person (in diesem Fall ein Besucher) 100 durch die Tür passieren kann. Wenn er das Signal „Schließen der Tür" empfängt, hält der Türkontrollabschnitt 112 ferner die Eingangs/Ausgangstür 202 in einem geschlossenen Zustand, so dass dem Besucher 100 kein Zugang gewährt wird.
  • Wenn es dem Erkennungsabschnitt 108 nicht gelingt, das eingegebene Gesichtsbild zu erkennen, zeichnet der Bildaufzeichnungsabschnitt 113 das eingegebene Gesichtsbild auf. Beispielsweise werden ein Videorekorder, eine Harddiskeinrichtung oder Ähnliches als der Bildaufzeichnungsabschnitt 113 verwendet. Somit kann durch Aufzeichnen des eingegebenen Gesichtsbilds Information über den Besucher angeordnet werden und das Gesichtsbild einer zweifelhaften Person kann überprüft werden.
  • Als Nächstes wird ein Fall, bei dem die vorliegende Vorrichtung am Eingang eines Apartmenthauses (wie z.B. eines Miethauses) oder Ähnlichem installiert ist, erklärt. In diesem Fall kann durch Eingeben der Raumnummer als Identifikationsinformation für den zu besuchenden Ort unter Verwendung des Zehn-Tasten-Abschnitts 104 die Anzahl der Registrierinformationsdaten verringert werden. Wenn die Erkennung durch den Erkennungsabschnitt 108 erfolgreich durchgeführt wird, wird die Eingangs/Ausgangstür 202 entriegelt, und wenn die Erkennung zu einem Fehler führt, wird die Person in dem Ziel 201, das Gegenstand des Besuchs ist, unter Verwendung des Rufknopfs 104a gerufen.
  • Als Nächstes wird das konkrete Verfahren, das durchgeführt wird, wenn die vorliegende Vorrichtung am Eingang des Apartmenthauses (wie z.B. eines Miethauses) oder Ähnlichem installiert ist, unter Verweis auf das in 28 gezeigte Flussdiagramm erklärt. Das in 28 gezeigte Flussdiagramm zeigt hauptsächlich den Ablauf eines Vorgangs des Erkennungsabschnitts 108. In diesem Fall nimmt man an, dass eine Mehrzahl von Registrierinformationsdaten (von allen Mitgliedern der Familie beispielsweise) in Entsprechung zu einer Raumnummer in einem Registrierinformationshalteabschnitt 109 gehalten werden.
  • Wenn eine Raumnummer unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST91) bestimmt zunächst der Eingabeabschnitt 106 für ein Gesichtsbild oder der Extraktionsabschnitt 107 für die Merkmalsmenge, ob ein Gesichtsbild in dem durch die Kamera 101 fotografierten Bild vorhanden ist oder nicht (Schritt ST92). Wenn ein eingegebenes Bild (Gesichtsbild) nicht vorhanden ist, wird das Verfahren auf Schritt ST91 zurückgeführt und der oben stehende Vorgang wird wiederholt. Wenn in Schritt ST92 bestimmt wird, dass das Gesichtsbild vorhanden ist, validiert der Verarbeitungsabschnitt 111 für die eingegebene Nummer die unter Verwendung des Zehn-Tasten-Abschnitts 104 eingegebene Nummer und führt diese an den Erkennungsabschnitt 108 zu. Der Erkennungsabschnitt 108 liest eine Mehrzahl von Registrierinformationsdaten (Teilräumen), die entsprechend der Nummer (Raumnummer) registriert sind, die über den Zehn-Tasten-Abschnitt 104 eingegeben wird, aus dem Halteabschnitt 109 für Registrierinformation aus (Schritt ST93). Wenn die Mehrzahl der Registrierinformationsdaten, die der eingegebenen Raumnummer entsprechen, ausgelesen sind, berechnet der Erkennungsabschnitt 108 die Ähnlichkeiten zwischen der Mehrzahl der Registrierinformationsdaten, die aus dem Halteabschnitt 109 für die Registrierinformation ausgelesen sind, und der Merkmalsmenge (Teilraum), welche durch den Extraktionsabschnitt 107 für die Merkmalsmenge aus dem durch die Kamera 101 fotografierten Bild extrahiert sind (Schritt ST94). Wenn die Ähnlichkeiten in Bezug auf die Mehrzahl von Registrierinformationsdaten berechnet sind, wählt der Erkennungsabschnitt 108 die Maximale der berechneten Ähnlichkeiten (Schritt ST95). Nach dem Bestimmen der maximalen Ähnlichkeit vergleicht der Erkennungsabschnitt 108 die maximale Ähnlichkeit mit einem vorgegebenen Schwellenwert (Schritte ST96, ST97).
  • Wenn die maximale Ähnlichkeit größer als der vorgegebene Schwellenwert ist, gibt der Erkennungsabschnitt 108 als Ergebnis des Vergleichs ein Signal zum „Öffnen der Tür" an den Türkontrollabschnitt 112 aus (Schritt ST98). Wenn andererseits als Ergebnis des Vergleichs die maximale Ähnlichkeit nicht größer als der vorgegebene Schwellenwert ist, gibt der Erkennungsabschnitt 108 ein Signal „Schließen der Tür" an den Türkontrollabschnitt 112 aus (Schritt ST99).
  • Inhärente Information, beispielsweise eine Telefonnummer einer Person, die an dem Besuchsziel 201 lebt, kann statt der Raumnummer eingegeben werden und die eingegebene inhärente Information der Person kann in eine Raumnummer konvertiert werden. Auch in diesem Fall kann die gleiche Wirkung wie diejenige, die in dem oben stehenden Beispiel für die Arbeitsweise erhalten wurde, erzielt werden.
  • Ferner kann die Eingangs/Ausgangstür 202 unter Verwendung eines physikalischen Schlüssels 114 am Eingang des Mehrfamilienhauses beispielsweise arretiert und entriegelt werden. In diesem Fall nimmt man an, wie es in 23 gezeigt ist, dass ein Schlüsselaufnahmeabschnitt 114, der den physikalischen Schlüssel 114 empfängt, auf der Eingangs/Ausgangstür 202 der vorliegenden Vorrichtung vorgesehen ist und mit dem Verarbeitungsabschnitt 111 für die eingegebene Nummer verbunden ist. Wie es in 29 gezeigt ist, weist der physikalische Schlüssel 114 eine spezielle Gestalt auf, die jedem Raum eigen ist.
  • Das bedeutet, wie es in 29 gezeigt ist, dass normalerweise der physikalische Schlüssel 114, der am Eingang des Hauses der oberen Klasse oder der Wohnanlage verwendbar ist, einen Nutbereich 115 aufweist, der den jeweiligen Räumen gemeinsam ist, und einen Nutbereich (Identifikationsbereich, welcher dem Besuchsziel eigen ist) 116, der für jeden Raum eigen ist. Wenn der physikalische Schlüssel 114 in den Schlüsselaufnahmeabschnitt 114a eingeführt wird, identifiziert der Schlüsselaufnahmeabschnitt 114a den Nutbereich 116, der jedem Raum eigen ist. Somit erkennt der Schlüsselaufnahmeabschnitt 114a oder der Verarbeitungsabschnitt 111 für die eingegebene Nummer die Raumnummer, die dem physikalischen Schlüssel 114 entspricht. Daher kann der oben stehende physikalische Schlüssel 114 statt der Eingabe der Raumnummer verwendet werden.
  • Das konkrete Verfahren, das durchgeführt wird, wenn der physikalische Schlüssel 114 verwendet wird, wird unter Verweis auf das in 30 gezeigt Flussdiagramm erklärt. Das Flussdiagramm aus 30 ist im Grunde das gleiche wie das Flussdiagramm aus 28 außer dem Verfahren des Schritts ST101, und das andere Verfahren der Schritte ST102 bis ST109 von 30 ist das gleiche wie dasjenige der Schritte ST92 bis ST99 aus 28. In dem Schritt ST101 von 30 erkennt, wenn der physikalische Schlüssel 114 in den Schlüsselaufnahmeabschnitt 114a eingeführt wird, der Schlüsselaufnahmeabschnitt 114a oder ein Verarbeitungsabschnitt 111 für die eingegebene Nummer die Raumnummer, die dem physikalischen Schlüssel 114 entspricht, entsprechend der Gestalt des Nutbereichs 116 des physikalischen Schlüssels 114. Basierend auf dem Erkennungsergebnis führt der Schlüsselaufnahmeabschnitt 114a oder der Verarbeitungsabschnitt 111 für die eingegebene Nummer die Raumnummer, die dem physikalischen Schlüssel 114 entspricht, dem Erkennungsabschnitt 108 zu. Das Verfahren, das danach durchgeführt wird, ist das gleiche wie dasjenige von 28 und daher wird dessen Erklärung weggelassen.
  • Ferner kann ein Kartenleser, der mit einer Karte (Aufzeichnungsmedium), wie z.B. einer Funkkarte, einer IC Karte, einer Magnetkarte oder Ähnlichem arbeiten kann, anstatt des Zehn-Tastenabschnitts 104 verwendet werden, und Information, wie z.B. eine Raumnummer, die auf dem Aufzeichnungsmedium aufgezeichnet ist, kann eingegeben werden. Auch in diesem Fall kann die gleiche Wirkung, die bei dem oben stehenden Betriebsbeispiel erzielt wird, realisiert werden.
  • Wie oben beschrieben, kann gemäß der vierten Ausführungsform der Durchlass eines Passanten (Eingang/Ausgang eines Besuchers) unter Verwendung der Erkennungsvorrichtung für das Gesichtsbild, die für die erste, zweite oder dritte Ausführungsform erklärt wurde, kontrolliert werden.
  • Ferner kann gemäß der vierten Ausführungsform Information des Besuchers geeignet angeordnet werden und das Gesichtsbild einer zweifelhaften Person kann durch Aufzeichnen des eingegebenen Gesichtsbild überprüft werden, wenn das eingegebene Gesichtsbild nicht erkannt werden kann.

Claims (8)

  1. Vorrichtung zur Gesichtserkennung, die eine Person basierend auf einem Gesichtsbild erkennt, enthaltend: einen Bildeingabeabschnitt (101), der dazu angepasst ist, ein Gesichtsbild einer zu erkennenden Person (100) einzugeben, einen Merkmalsmengenextrahierabschnitt (107), der dazu angepasst ist, eine Merkmalsmenge eines Gesichts der zu erkennenden Person basierend auf dem Gesichtsbild, das durch den Bildeingabeabschnitt eingegeben wird, zu extrahieren, einen Merkmalsmengenregistrierungsabschnitt (109), in dem eine Referenzmerkmalsmenge im Voraus entsprechend der Identifikationsinformation der zu erkennenden Person registriert ist, und einen Tasteneingabeabschnitt (104), der dazu angepasst ist, dass er es der zu erkennenden Person erlaubt, ihre eigene Identifikationsinformation einzugeben, die durch Zeichen aus mehreren Stellen gebildet ist, dadurch gekennzeichnet, dass: ein Erkennungsabschnitt (108) dazu angepasst ist, das Gesichtsbild der zu erkennenden Person durch Zuordnen der Gesichtsmerkmalsmenge, die durch den Merkmalsmengenextrahierabschnitt extrahiert ist, zu einer Referenzmerkmalsmenge als Registrierinformation einer Zahl zu erkennen, die von dem Merkmalsmengenregistrierabschnitt basierend auf Identifikationsinformation von zumindest einer Stelle, die durch Verwendung des Tasteneingabeabschnitts eingegeben wird, reduziert und gewählt wird, jedes Mal dann, wenn eine Stelle der Identifikationsinfonmation unter Verwendung des Tasteneingabeabschnitts eingegeben wird.
  2. Vorrichtung zur Gesichtserkennung nach Anspruch 1, wobei der Erkennungsabschnitt (108) dazu angepasst ist: Identifikationsinformation als das Erkennungsergebnis in dem Fall zu halten, in dem eine Erkennung erfolgreich durch Verwendung des Gesichtsbilds durchgeführt wird, ehe alle Stellen der Identifikationsinformation durch den Tasteneingabeabschnitt (104) eingegeben sind, und zu bestimmen, ob die Identifikationsinformation, die als das Erkennungsergebnis gehalten wird, und die Identifikationsinformation, die durch die zu erkennende Person (100) eingegeben werden, miteinander zusammenfallen, in dem Fall, in dem die zu erkennende Per son alle Stellen der Identifikationsinformation unter Verwendung des Tasteneingabeabschnitts eingibt.
  3. Vorrichtung zur Gesichtserkennung nach Anspruch 1 oder 2, wobei der Erkennungsabschnitt (108) enthält: einen Suchabschnitt (ST33, ST53, ST 73), der dazu angepasst ist, die Anzahl der Registrierinformationselemente, die in dem Merkmalsmengenregistrierungsabschnitt (109) registriert sind, basierend auf Identifikationsinformation von zumindest einer Stelle, die durch Verwendung des Tasteneingabeabschnitts (104) eingegeben wird, jedes Mal dann, wenn eine Stelle der Identifikationsinformation durch Verwendung des Tasteneingabeabschnitts eingegeben wird, zu verringern, einen Berechnungsabschnitt (ST 37, ST 55, ST 75), der dazu angepasst ist, Ähnlichkeiten zwischen den Registrierinformationselementen der Zahl, die durch den Suchabschnitt reduziert ist, und der Gesichtsmerkmalsmenge, die durch den Merkmalsmengenextrahierabschnitt (107) extrahiert ist, zu berechnen und eine maximale Ähnlichkeit abzuleiten, einen ersten Bestimmungsabschnitt (ST 40, ST 58, ST 84), der dazu angepasst ist, ein Erkennungsergebnis basierend auf Registrierinformation zu bestimmen, die die maximale Ähnlichkeit liefert, in dem Fall, in dem die durch den Berechnungsabschnitt berechnete maximale Ähnlichkeit größer als ein vorgegebener Schwellenwert ist, und einen zweiten Bestimmungsabschnitt (ST 41, ST 60, ST 85), der dazu angepasst ist zu bestimmen, dass die Erkennung durch Verwendung des Gesichtsbilds zu einem Scheitern führt, in dem Fall, in dem die zu erkennende Person (100) alle Stellen der Identifikationsinformation eingibt, während die maximale Ähnlichkeit, die durch den Berechnungsabschnitt berechnet wird, nicht größer als der vorgegebene Schwellenwert gehalten wird.
  4. Vorrichtung zur Gesichtserkennung nach Anspruch 3, wobei der Erkennungsabschnitt (108) weiter enthält: einen Halteabschnitt (ST 78), der dazu angepasst ist, Identifikationsinformation als ein Erkennungsergebnis in dem Fall zu halten, in dem die maximale Ähnlichkeit, die durch den Berechnungsabschnitt (ST 75) berechnet ist, größer als ein vorgegebener Schwellenwert ist, und einen Bestimmungsabschnitt (ST 83), der dazu angepasst ist, zu bestimmen, ob die Identifikationsinformation, die in dem Halteabschnitt gehalten wird, und die Identifikationsin formation, die durch Verwendung des Tasteneingabeabschnitts (104) eingegeben wird, miteinander zusammen fallen oder nicht, wenn alle Stellen der Identifikationsinformation durch die Verwendung des Tasteneingabeabschnitts eingegeben sind, während die Identifikationsinformation als das Erkennungsergebnis in dem Halteabschnitt gehalten wird, und wobei der erste Bestimmungsabschnitt (ST 84) dazu angepasst ist, ein Erkennungsergebnis basierend auf einer Registrierinformation zu bestimmen, das die maximale Ähnlichkeit ergibt, in dem Fall, in dem der Bestimmungsabschnitt bestimmt, dass die Identifikationselemente miteinander zusammenfallen, und der zweite Bestimmungsabschnitt (ST 85) dazu angepasst ist zu bestimmen, dass die Erkennung durch Verwendung des Gesichtsbildes zu einem Scheitern führt, in dem Fall, in dem der Bestimmungsabschnitt bestimmt, dass die Identifikationsinformationselemente nicht miteinander zusammen fallen.
  5. Durchlasskontrollvorrichtung, die ein Gesichtsbild einer Person (100) erkennt und den Durchlass der Person kontrolliert, enthaltend: die Vorrichtung zur Gesichtserkennung nach einem der Ansprüche 1 bis 4, und einen Durchlasskontrollabschnitt (112), der dazu angepasst ist, den Durchlass der Person basierend auf dem Erkennungsergebnis durch den Erkennungsabschnitt (108) zu kontrollieren.
  6. Verfahren zur Gesichtserkennung, das in einer Gesichtserkennungsvorrichtung verwendet wird, die einen Merkmalsmengenregistrierungsabschnitt (109) enthält, in dem eine Identifikationsinformation, die durch Zeichen aus einer Mehrzahl von Stellen gebildet wird, die zumindest einer registrierten Person zugewiesen ist, und eine Referenzmerkmalsmenge von zumindest einer registrierten Person entsprechend der Identifikationsinformation im Voraus als Registrierinformation gespeichert sind, enthaltend: Eingeben eines Gesichtsbilds einer zu erkennenden Person (100), Extrahieren einer Gesichtsmerkmalsmenge der zu erkennenden Person basierend auf dem eingegebenen Gesichtsbild, und Zulassen, dass die zu erkennende Person ihre eigene Identifikationsinformation, die durch Zeichen aus mehreren Stellen gebildet ist, eine Stelle nach der anderen durch Verwendung einer Betätigungstaste (104) eingibt, gekennzeichnet durch: Erkennen des Gesichtsbilds der zu erkennenden Person durch Zuordnen der Gesichtsmerkmalsmenge, die basierend auf dem eingegebenen Gesichtsbild extrahiert ist, zu einer Referenzmerkmalsmenge als Registrierinformation einer Zahl, die aus dem Merkmalsmengenregistrierungsabschnitt reduziert und gewählt wird, basierend auf Identifikationsinformation aus zumindest einer eingegebenen Stelle, jedes Mal dann, wenn eine Stelle der Identifikationsinformation Verwendung der Betätigungstaste eingegeben wird.
  7. Verfahren zur Gesichtserkennung nach Anspruch 6, wobei der Schritt des Erkennens des Gesichtsbilds der zu erkennenden Person (100) enthält: Halten von Identifikationsinfonmation als ein Erkennungsergebnis, wenn eine Erkennung durch Verwendung des Gesichtsbildes erfolgreich durchgeführt ist, ehe alle der Stellen der Identifikationsinformation durch Verwendung der Betätigungstaste (104) eingegeben sind, und Bestimmen ob die als das Erkennungsergebnis gehaltene Identifikationsinformation und die durch die zu erkennende Person eingegebene Identifikationsinformation miteinander zusammenfallen, wenn die zu erkennende Person alle der Stellen der Identifikationsinfonmation durch Verwendung der Betätigungstaste eingibt.
  8. Durchlasskontrollverfahren, das in einer Durchlasskontrollvorrichtung verwendet wird, enthaltend: Ausführen des Verfahrens nach Anspruch 6 oder Anspruch 7, und Kontrollieren des Durchlasses der Person (100) basierend auf den Erkennungsergebnissen, die durch Erkennen des Gesichtsbildes der Person erhalten werden.
DE60207863T 2001-07-27 2002-07-24 Vorrichtung und Verfahren zur Gesichtserkennung Expired - Lifetime DE60207863T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2001228346 2001-07-27
JP2001228346 2001-07-27
JP2002138513 2002-05-14
JP2002138513A JP2003108984A (ja) 2001-07-27 2002-05-14 顔画像認識装置、通行制御装置、顔画像認識方法、及び通行制御方法

Publications (2)

Publication Number Publication Date
DE60207863D1 DE60207863D1 (de) 2006-01-12
DE60207863T2 true DE60207863T2 (de) 2006-08-10

Family

ID=26619464

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60207863T Expired - Lifetime DE60207863T2 (de) 2001-07-27 2002-07-24 Vorrichtung und Verfahren zur Gesichtserkennung
DE60201867T Expired - Lifetime DE60201867T2 (de) 2001-07-27 2002-07-24 Gerät zur Gesichtserkennung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60201867T Expired - Lifetime DE60201867T2 (de) 2001-07-27 2002-07-24 Gerät zur Gesichtserkennung

Country Status (6)

Country Link
US (1) US7239725B2 (de)
EP (2) EP1280095B1 (de)
JP (1) JP2003108984A (de)
KR (1) KR100494007B1 (de)
DE (2) DE60207863T2 (de)
TW (1) TWI265459B (de)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
US7541547B2 (en) * 2002-12-19 2009-06-02 Incentahealth, Llc System and method for measuring and distributing monetary incentives for weight loss
JP2005030861A (ja) * 2003-07-10 2005-02-03 Casio Comput Co Ltd 人物管理装置およびプログラム
US7693308B2 (en) * 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US7889381B2 (en) * 2004-05-28 2011-02-15 Fujifilm Corporation Photo service system
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
EP1647918A1 (de) * 2004-10-13 2006-04-19 SkiData AG Zugangskontrollsystem
US7783581B2 (en) * 2005-01-05 2010-08-24 Nec Corporation Data learning system for identifying, learning apparatus, identifying apparatus and learning method
KR100703693B1 (ko) * 2005-01-13 2007-04-05 삼성전자주식회사 얼굴 인식 시스템 및 방법
US7522750B2 (en) * 2005-01-18 2009-04-21 International Biometrics Recognition Technologies Co., Ltd. Biometrics verification system and a method thereof
ES2296443B1 (es) * 2005-04-15 2009-03-01 Universidad Rey Juan Carlos Sistema de verificacion facial.
JP4797517B2 (ja) * 2005-08-31 2011-10-19 オムロン株式会社 監視装置および方法、並びにプログラム
JP4543157B2 (ja) * 2005-09-07 2010-09-15 独立行政法人産業技術総合研究所 テーブルトップコミュニティシステム
JP4749916B2 (ja) * 2006-04-07 2011-08-17 株式会社日立ソリューションズ 生体情報利用電気錠システム
JP4832951B2 (ja) * 2006-04-28 2011-12-07 富士通株式会社 生体認証装置および生体認証プログラム
US20070268365A1 (en) * 2006-05-16 2007-11-22 Bin-Chang Lee Entrance surveillance system
CA2652092A1 (en) * 2006-05-23 2007-11-29 Glory Ltd. Face authentication device, face authentication method, and face authentication program
JP4305672B2 (ja) * 2006-11-21 2009-07-29 ソニー株式会社 個人識別装置、個人識別方法、識別用辞書データの更新方法および識別用辞書データの更新プログラム
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
JP4577410B2 (ja) * 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR20100010465A (ko) * 2008-07-22 2010-02-01 주식회사 미래인식 개인 식별 문자 및 생체 인식 정보 비교를 통한 출입 관리 장치 및 방법
DE102008053395A1 (de) 2008-10-21 2010-04-29 Cognitec Systems Gmbh Verfahren und Einrichtung zur fotografischen Bilderfassung des Gesichtsfelds einer Person
FR2938109A1 (fr) * 2008-11-05 2010-05-07 St Microelectronics Rousset Memoire eeprom protegee contre les effets de claquage de transistors mos
JP5438419B2 (ja) * 2009-07-29 2014-03-12 富士フイルム株式会社 人物照合装置及び人物照合方法
KR101053253B1 (ko) * 2009-09-01 2011-08-02 (주)실리콘화일 3차원 정보를 이용한 얼굴 인식 장치 및 방법
TWI488151B (zh) * 2010-06-25 2015-06-11 Shinsoft Co Ltd 具影像監視之門禁保全系統與其監控方法
GB2482291A (en) * 2010-07-26 2012-02-01 St Microelectronics Res & Dev Automatic Control Module for Electronic Apparatus
JP6132490B2 (ja) * 2012-08-20 2017-05-24 キヤノン株式会社 認証装置、認証方法、およびプログラム
US10742046B2 (en) * 2012-12-03 2020-08-11 ChargeItSpot, LLC System and method for providing interconnected and secure mobile device charging stations
KR102290392B1 (ko) * 2014-12-02 2021-08-17 삼성전자주식회사 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치
US9912861B1 (en) * 2016-03-02 2018-03-06 Amazon Technologies, Inc. Systems and methods for determining a depth or reflectance of objects
CN107347144A (zh) * 2016-05-05 2017-11-14 掌赢信息科技(上海)有限公司 一种人脸特征点的编解码方法、设备及系统
CN105935191A (zh) * 2016-06-03 2016-09-14 海宁滴滴箱包智能科技有限公司 基于人脸识别的自能箱包
CN106157408A (zh) * 2016-07-05 2016-11-23 重庆蓝岸通讯技术有限公司 带视频监控远程开锁系统的智能锁
JP7050231B2 (ja) 2016-12-16 2022-04-08 パナソニックIpマネジメント株式会社 顔画像処理方法および顔画像処理装置
KR101878654B1 (ko) * 2016-12-21 2018-07-16 주식회사 슈프리마 광 조사 장치 및 방법
CN106971496A (zh) * 2017-05-02 2017-07-21 阜阳师范学院 一种具有行为识别功能的智能监控系统
US10089809B1 (en) 2017-06-14 2018-10-02 International Business Machines Corporation Cognitive intercom assistant
CN109544728B (zh) * 2017-09-21 2021-08-27 鸿富锦精密电子(天津)有限公司 区域人口管控系统及方法
CN108537922B (zh) * 2018-03-27 2020-06-02 南京甄视智能科技有限公司 基于人脸识别的访客预警方法和系统
JP7336683B2 (ja) * 2019-02-04 2023-09-01 パナソニックIpマネジメント株式会社 インターホンシステム、インターホンシステムの制御方法及びプログラム
CN111145403A (zh) * 2019-12-27 2020-05-12 航天信息股份有限公司 安防管理方法及系统
TWI722752B (zh) * 2020-01-03 2021-03-21 大鵬科技股份有限公司 智慧家庭保全系統及保全設定的解除方法
KR102464186B1 (ko) 2021-02-08 2022-11-09 주식회사 픽넘버 안면인식 및 열화상 검출기능을 갖는 키오스크 시스템 및 이를 이용한 출입통제방법
TWI806030B (zh) * 2021-03-31 2023-06-21 瑞昱半導體股份有限公司 應用於人臉辨識系統的處理電路及處理方法
CN113434851A (zh) * 2021-06-28 2021-09-24 国网山东省电力公司电力科学研究院 一种基于数据采集的密匙管理方法及系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4712103A (en) * 1985-12-03 1987-12-08 Motohiro Gotanda Door lock control system
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
JP3119558B2 (ja) 1994-05-16 2000-12-25 ホーユーテック株式会社 顔画像データ取り込み方法および装置並びにシステム
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
US6230148B1 (en) * 1994-11-28 2001-05-08 Veristar Corporation Tokenless biometric electric check transaction
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
JPH09212644A (ja) * 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd 虹彩認識装置および虹彩認識方法
JPH103339A (ja) * 1996-06-14 1998-01-06 Hitachi Ltd パーソナルコンピュータ用キーボード
JPH10134188A (ja) 1996-11-01 1998-05-22 Yamatake Honeywell Co Ltd 顔画像照合装置
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US6145738A (en) * 1997-02-06 2000-11-14 Mr. Payroll Corporation Method and apparatus for automatic check cashing
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
JP3564984B2 (ja) 1997-12-02 2004-09-15 オムロン株式会社 本人特定装置及び本人特定方法
JP3621245B2 (ja) 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
JPH11191856A (ja) 1997-12-25 1999-07-13 Canon Inc 撮像装置および撮像方法
US6160903A (en) * 1998-04-24 2000-12-12 Dew Engineering And Development Limited Method of providing secure user access
JP3580129B2 (ja) 1998-05-06 2004-10-20 オムロン株式会社 本人識別装置
JP2001005836A (ja) 1999-04-23 2001-01-12 Oki Electric Ind Co Ltd アイリス登録システム

Also Published As

Publication number Publication date
EP1406206B1 (de) 2005-12-07
DE60201867D1 (de) 2004-12-16
DE60207863D1 (de) 2006-01-12
US20030185423A1 (en) 2003-10-02
JP2003108984A (ja) 2003-04-11
TWI265459B (en) 2006-11-01
DE60201867T2 (de) 2005-10-27
KR20030011582A (ko) 2003-02-11
EP1406206A1 (de) 2004-04-07
KR100494007B1 (ko) 2005-06-10
EP1280095B1 (de) 2004-11-10
EP1280095A1 (de) 2003-01-29
US7239725B2 (en) 2007-07-03

Similar Documents

Publication Publication Date Title
DE60207863T2 (de) Vorrichtung und Verfahren zur Gesichtserkennung
DE60313105T2 (de) Fingerabdruck-basierte Authentifizierungsvorrichtung
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE60119418T2 (de) Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
DE60125759T2 (de) Biometrische identitätsprüfung
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
DE69922082T2 (de) System und Verfahren zur biometrischen Authentifizierung eines Benutzers mit einer Chipkarte
DE60133788T2 (de) Bildverarbeitungsgerät und Verfahren zum Ermitteln von Merkmalen von Gesichtern
DE60220284T2 (de) Fingerabdrucknarbenerkennungsverfahren und -vorrichtung
US7050608B2 (en) Face image recognition apparatus
DE69832345T2 (de) Biometrisches Zeit- und Anwesenheitssystem mit epidermaler topographischer Aktualisierungsmöglichkeit
DE60314989T2 (de) Verfahren und Einrichtung zur Überprüfung von Fingerabdrücken
EP1259931B1 (de) Verfahren zur analyse von fingerabdruckbildern
DE60030739T2 (de) Überprüfung der zugangsberechtigung
DE60200829T3 (de) Vorrichtung und Verfahren zur biometrischen Überprüfung und Erfassung der Identität einer Person mittels Fingerabdruckinformationen
DE19810792A1 (de) Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
WO2013127625A1 (de) Verfahren zum identifizieren einer person
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
DE202018000407U1 (de) Vorrichtung zum Aktualisieren von Gesichtserkennungsvorlagen
CH717006B1 (de) Verfahren zur Benutzeridentifikation.
EP2820624B1 (de) Verfahren zum identifizieren einer person
AT501370B1 (de) Vorrichtung zur biometrischen steuerung von anlagen
DE202022107266U1 (de) Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern
JP2005301861A (ja) 出入管理システム
JPH02187866A (ja) 個人照合方法および装置

Legal Events

Date Code Title Description
8364 No opposition during term of opposition