DE60201867T2 - Gerät zur Gesichtserkennung - Google Patents

Gerät zur Gesichtserkennung Download PDF

Info

Publication number
DE60201867T2
DE60201867T2 DE60201867T DE60201867T DE60201867T2 DE 60201867 T2 DE60201867 T2 DE 60201867T2 DE 60201867 T DE60201867 T DE 60201867T DE 60201867 T DE60201867 T DE 60201867T DE 60201867 T2 DE60201867 T2 DE 60201867T2
Authority
DE
Germany
Prior art keywords
section
person
recognition
input
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60201867T
Other languages
English (en)
Other versions
DE60201867D1 (de
Inventor
Hironori Minato-ku Dobashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of DE60201867D1 publication Critical patent/DE60201867D1/de
Publication of DE60201867T2 publication Critical patent/DE60201867T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

  • Die Erfindung betrifft eine Gesichtsbilderkennungsvorrichtung, die das Gesichtsbild einer Person zur Sicherheitsverwaltung oder dergleichen erkennt, und eine Durchlasskontrollvorrichtung, die den Durchlass einer Person steuert, indem die Gesichtsbilderkennungsvorrichtung verwendet wird.
  • Die Gesichtsbilderkennungsvorrichtung wird verwendet, um das Gesichtsbild einer Person zur Sicherheitsverwaltung oder dergleichen zu erkennen. Ein Beispiel einer herkömmlichen Gesichtsbilderkennungsvorrichtung ist in der japanischen Patentanmeldungsveröffentlichung 2001-5836 beispielsweise offenbart. In der Gesichtsbilderkennungsvorrichtung, die in der japanischen Patentanmeldungsveröffentlichung 2001-5836 offenbart ist, werden die Merkmalsinformationsdatenstücke der Gesichtsbilder von Registrierten vorher entsprechend Identifikationsinformationsdatenstücken in einem Verzeichnis registriert. Eine zu erkennende Person, die die Gesichtsbilderkennungsvorrichtung verwendet, gibt ihre eigene Identifikationsinformation (beispielsweise eine ID Nummer) ein. Die Gesichtsbilderkennungsvorrichtung spezifiziert dann Merkmalsinformation entsprechend der Identifikationsinformation, die von der zu erkennenden Person eingegeben worden ist, in dem Verzeichnis, und gibt das Gesichtsbild der zu erkennenden Person ein. Nach Spezifizieren der Merkmalsinformation entsprechend der Identifikationsinformation und dem Eingeben des Gesichtsbildes der zu erkennenden Person, vergleicht die Gesichtsbilderkennungsvorrichtung die Merkmalsinformation, die von dem eingegebenen Gesichtsbild extrahiert worden ist, mit der Merkmalsinformation, die in dem Verzeichnis spezifiziert ist, basierend auf der Identifikationsinformation, und führt den Erkennungsprozess für das Gesichtsbild der zu erkennenden Person durch.
  • Bei einer bekannten Gesichtsbilderkennungsvorrichtung wird also ein Verfahren verwendet, das der zu erkennenden Person erlaubt, ihre eigene Identifikationsinformation einzugeben und Registrierungsinformation (Merkmalsinformation) zu spezifizieren, die in dem Verzeichnis registriert wird. In einer bekannten Gesichtsbilderkennungsvorrichtung, die in der japanischen Patentanmeldungsveröffentlichung 2001-5836 offenbart ist, wird beispielsweise Identifikationsinformation der zu erkennenden Person eingegeben, indem ein Tastatureingabeabschnitt verwendet wird, beispielsweise eine Tastatur oder ein Kartenleser. Ferner wird in der bekannten Gesichtsbilderkennungsvorrichtung Registrierungsinformation in dem Verzeichnis spezifiziert und das Gesichtsbild der zu erkennenden Person eingegeben, indem der Bildeingabeabschnitt verwendet wird, nachdem die Eingabe der Identifikationsinformation durch die zu erkennenden Person beendet ist.
  • Die US 6,045,039 offenbart eine Gesichtsbilderkennungsvorrichtung gemäß dem Oberbegriff des Patentanspruchs 1.
  • In der bekannten Gesichtsbilderkennungsvorrichtung kann die Person, die von der Vorrichtung zu erkennen ist, ein beklemmendes Gefühl haben, wenn er/sie das Vorhandensein des Bildeingabeabschnitts (also der Kamera) wahrnimmt.
  • Aufgabe der Erfindung ist die Schaffung einer Gesichtsbilderkennungsvorrichtung und einer Durchlasskontrollvorrichtung, wobei eine Eingabe des Gesichtsbildes der Person möglich ist, ohne dass die Person die Existenz des Bildeingabeabschnitts wahrnimmt.
  • Diese Aufgabe wird durch die Gesichtsbilderkennungsvorrichtung nach Anspruch 1 gelöst, sowie durch die Durchlasskontrollvorrichtung gemäß Anspruch 7. Weiterentwicklungen der Erfindung sind in den Unteransprüchen 2 bis 6 angegeben.
  • Die Erfindung kann durch die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen besser verstanden werden. Es zeigen:
  • 1 ein schematisches Konfigurationsdiagramm, das den Aufbau einer Gesichtsbilderkennungsvorrichtung gemäß einem ersten Ausführungsbeispiel zeigt;
  • 2 eine Seitenansicht der Beziehung zwischen dem ersten Beleuchtungsabschnitt und der Kamera;
  • 3 eine Draufsicht der Beziehung zwischen einem ersten Beleuchtungsabschnitt und der Kamera;
  • 4 eine Ansicht, die ein Beispiel eines zu fotografierenden Gesichtsbildes durch Verwendung des ersten Beleuchtungsabschnitts zeigt;
  • 5 eine Seitenansicht, die die Beziehung zwischen einem zweiten Beleuchtungsabschnitt und der Kamera zeigt;
  • 6 ein Blockdiagramm, das schematisch den Aufbau eines Merkmalmengenextrahierungsabschnitts zeigt;
  • 7 ein Flussdiagramm zur Verdeutlichung des Erkennungsprozesses eines Erkennungsabschnitts;
  • 8 eine Frontansicht, die ein Beispiel der Installation eines Zehn-Tasten-Abschnitts zeigt;
  • 9 eine Frontansicht, die ein Beispiel der Installation eines Zehn-Tasten Abschnitts zeigt;
  • 10 eine Frontansicht, die ein Beispiel der Installation eines Zehn-Tasten-Abschnitts zeigt;
  • 11 eine Frontansicht, die ein Beispiel der Installation eines Zehn-Tasten-Abschnitts zeigt;
  • 12 eine Frontansicht, die ein Beispiel einer Installation einer Einheit zeigt, die einen Anzeigeabschnitt aufweist;
  • 13 eine Frontansicht, die ein Beispiel einer Installation einer Einheit zeigt, die einen Anzeigeabschnitt aufweist;
  • 14 eine Frontansicht, die ein Beispiel einer Installation einer Einheit zeigt, die einen Anzeigeabschnitt aufweist;
  • 15 eine Frontansicht, die ein Beispiel einer Installation einer Einheit zeigt, die einen Anzeigeabschnitt aufweist;
  • 16 ein Flussdiagramm zur Verdeutlichung des Erkennungsprozesses eines Erkennungsabschnitts gemäß dem ersten Ausführungsbeispiel;
  • 17 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses des Erkennungsabschnitts gemäß dem ersten Ausführungsbeispiel;
  • 18 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses des Erkennungsabschnitts gemäß dem ersten Ausführungsbeispiel;
  • 19 ein Konfigurationsdiagramm, das schematisch den Aufbau einer Gesichtbilderkennungsvorrichtung gemäß einem zweiten Ausführungsbeispiel zeigt;
  • 20 eine Draufsicht, die den Installationszustand einer Kamera bezüglich eines Zehn-Tasten-Abschnitts zeigt;
  • 21 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses eines Erkennungsabschnitts gemäß einem dritten Ausführungsbeispiel;
  • 22 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses des Erkennungsabschnitts gemäß dem dritten Ausführungsbeispiel;
  • 23 ein Konfigurationsdiagramm, das schematisch den Aufbau einer Durchlasskontrollvorrichtung gemäß einem vierten Ausführungsbeispiel zeigt;
  • 24 eine Konfigurationsansicht, die ein Beispiel des Aufbaus eines Zehn-Tasten-Abschnitts zeigt;
  • 25 eine Konfigurationsansicht, die ein Beispiel des Aufbaus eines Zehn-Tasten-Abschnitts zeigt;
  • 26 eine Konfigurationsansicht, die ein Beispiel des Aufbaus eines Zehn-Tasten-Abschnitts zeigt;
  • 27 eine Konfigurationsansicht, die ein Beispiel des Aufbaus eines Zehn-Tasten-Abschnitts zeigt;
  • 28 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses eines Erkennungsabschnitts gemäß dem vierten Ausführungsbeispiel;
  • 29 eine Konfigurationsansicht, die schematisch den Aufbau einer physikalischen Taste zeigt; und
  • 30 ein Flussdiagramm zum Verdeutlichen des Erkennungsprozesses des Erkennungsabschnitts gemäß dem vierten Ausführungsbeispiel.
  • Es werden jetzt unter Bezugnahme auf die beigefügten Figuren Ausführungsbeispiele dieser Erfindung beschrieben.
  • 1 zeigt den Aufbau der Gesichtsbilderkennungsvorrichtung gemäß dem ersten Ausführungsbeispiel. Die Gesichtsbilderkennungsvorrichtung enthält eine Kamera 101, einen ersten Beleuchtungsabschnitt 102, einen zweiten Beleuchtungsabschnitt 103, einen Zehn-Tasten-Abschnitt 104 und einen Verarbeitungsabschnitt 105.
  • Die Kamera 101 wird verwendet, um ein Gesichtsbild (das ein Bild ist, das mindestens das Gesicht enthält) einer zu erkennenden Person 100 zu fotografieren und einzugeben. Beispiels weise ist die Kamera 101 als eine Fernsehkamera konfiguriert, indem eine Bildgebungsvorrichtung, beispielsweise ein CCD Sensor verwendet wird.
  • Der erste Beleuchtungsabschnitt 102 liefert Licht in Richtung mindestens des Gesichts der zu erkennenden Person 100 mit konstanter Beleuchtung in einer schrägen Richtung von der oberen rechten Seite oder oberen linken Seite der Kamera 101 aus. Der zweite Beleuchtungsabschnitt 103 liefert Licht in Richtung mindestens des Gesichts der zu erkennenden Person 100 mit konstanter Beleuchtung in einer schrägen Richtung von der Kamera 101 aus von unten.
  • Der Zehn-Tasten-Abschnitt 104 dient zur Eingabe einer ID Nummer (oder eines Passworts), das als Identifikationsinformation der zu erkennenden Person 100 verwendet wird. Der Verarbeitungsabschnitt 105 verarbeitet ein Gesichtsbild, das von der Kamera 101 eingegeben worden ist, und eine ID Nummer, die von dem Zehn-Tasten-Abschnitt 104 eingegeben worden ist, und führt den Erkennungsprozess oder dergleichen für das Gesichtsbild durch.
  • Als Nächstes werden der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 im Einzelnen erklärt.
  • Der erste Beleuchtungsabschnitt 102 ist eine Beleuchtungseinheit, beispielsweise eine Fluoreszenzlampe, die Licht in Richtung mindestens des Gesichts der zu erkennenden Person 100 mit konstanter Beleuchtung in einer schrägen Richtung von der oberen rechten Seite oder oberen linken Seite der Kamera 101 aus aussendet. Wie in den 2 und 3 gezeigt, ist der erste Beleuchtungsabschnitt 102 angeordnet, um einen Winkel von 45° zwischen der optischen Achse des ersten Beleuchtungsabschnitts 102 und der optischen Achse der Kamera 101 zu bilden. Der erste Beleuchtungsabschnitt 102 kann derart angeordnet sein, dass der Winkel zwischen der optischen Achse des ersten Beleuchtungsabschnitts 102 und der optischen Achse der Kamera 101 gleich 30° oder weniger beträgt.
  • Der erste Beleuchtungsabschnitt 102 bildet also die Schatten von Teilen des Gesichts (beispielsweise von einer Nase oder Augen) auf dem Halbbereich des Gesichts (gestrichelter Bereich 100a in 4) durch Verwenden von direktem Licht in Richtung Gesicht der zu erkennenden Person 100, wie in 4 gezeigt. In diesem Fall kann Streulicht oder indirektes Licht anstatt direktem Licht als Licht von dem ersten Beleuchtungsabschnitt 102 verwendet werden, und die gleiche Wirkung kann erhalten werden, wenn der Schatten auf dem Halbbereich des Gesichts gebildet werden kann.
  • Der zweite Beleuchtungsabschnitt 103 ist eine Beleuchtungseinheit, beispielsweise ein Fluoreszenzlicht, welches Licht in Richtung mindestens des Gesichts der zu erkennenden Person 100 mit konstanter Beleuchtung in einer schrägen Richtung von unterhalb der Kamera 101 aus liefert. Wie in 5 gezeigt ist der zweite Beleuchtungsabschnitt 103 angeordnet, um einen Winkel von 45° zwischen der optischen Achse des zweiten Beleuchtungsabschnitts 103 und der optischen Achse der Kamera 101 zu bilden. Der zweite Beleuchtungsabschnitt 103 kann derart angeordnet sein, dass der Winkel beispielsweise in einem Bereich von 30° bis 60° (einschließlich beider Grenzen) gesetzt wird. Es ist ausreichend, wenn nur direktes Licht von dem zweiten Beleuchtungsabschnitt 103 in Richtung Gesicht der zu erkennenden Person 100 verwendet wird. In diesem Fall kann Streulicht oder indirektes Licht an Stelle des direkten Lichts verwendet werden als Licht von dem Beleuchtungsabschnitt 103, wenn es die gleiche Art von Licht ist, wie von dem ersten Beleuchtungsabschnitt 102.
  • Als Nächstes wird die Beziehung zwischen dem ersten Beleuchtungsabschnitt 102 und dem zweiten Beleuchtungsabschnitt 103 erklärt. Die Beleuchtungsstärke 1A von Licht von dem ersten Beleuchtungsabschnitt 102 und die Beleuchtungsstärke 2A von Licht von dem zweiten Beleuchtungsabschnitt 103 erfüllen die Beziehung 1A ≥ 2A.
  • Ein Schatten wird auf dem halben Bereich des Gesichtsbildes der zu fotografierenden Person 100 gebildet, durch Verwendung der zwei Beleuchtungsabschnitte (erster Beleuchtungsabschnitt 102, zweiter Beleuchtungsabschnitt 103). Die Beleuchtungsstärke 1A von Licht von dem ersten Beleuchtungsabschnitt 102 ist also größer als die Beleuchtungsstärke 2A von Licht von dem zweiten Beleuchtungsabschnitt 103 gemäß der oben genannten Beziehung. Folglich erscheint der Schatten auf dem halben Bereich des Gesichtsbildes der zu erkennenden Person 100, der mit Licht von dem ersten Beleuchtungsabschnitt 102 gebildet wird, stärker als der Schatten, der mit Licht von dem zweiten Beleuchtungsabschnitt 103 gebildet wird. Der Schatten auf dem halben Bereich des Gesichtsbildes der zu erkennenden Person 100 drückt klar und zufriedenstellend Information über Unebenheiten auf dem Gesicht jeder Person aus (Gesichts merkmalsinformation jeder Person). Durch Hervorhebung des Schattens auf dem halben Bereich des Gesichtsbildes betont die Gesichtsmerkmalsmenge, die aus dem Gesichtsbild extrahiert wird, die Differenz zwischen Individuen. Als Ergebnis wird die Erkennungsrate des Gesichtsbildes verbessert.
  • Licht von dem zweiten Beleuchtungsabschnitt 103 verhindert, dass das Licht von dem ersten Beleuchtungsabschnitt 102 einen übermäßig starken Schatten auf dem Gesicht der zu erkennenden Person 100 bildet, basierend auf der oben genannten Beziehung. Wenn nur der erste Beleuchtungsabschnitt 102 verwendet wird, ist die Art und Weise der Bildung eines Schattens auf dem Gesicht verschieden entsprechend einer Variation des Abstandes zwischen der zu erkennenden Person 100 und der Kamera 101 zum Erkennungszeitpunkt und zur Registrierungszeit. Eine Verschlechterung der Erkennungsrate aufgrund einer geringen Differenz bei der Bildung des Schattens kann unterdrückt werden, indem der zweite Beleuchtungsabschnitt 103 verwendet wird.
  • In einem Fall, bei dem die Position des Gesichts einer Person und die Position der Kamera 101 im Wesentlichen zum Erkennungszeitpunkt und zum Registrierungszeitpunkt gleich sind, kann der zweite Beleuchtungsabschnitt 103 weggelassen werden. Dies liegt daran, dass die Form des Schattens, der auf dem Gesichtsbild gebildet wird, im Wesentlichen gleich ist, wenn die Position des Gesichts einer Person und die Position der Kamera 101 im Wesentlichen unverändert zum Registrierungszeitpunkt und zum Erkennungszeitpunkt gehalten werden. Wenn beispielsweise die aufrechte Position einer Person fest ist, oder eine Führungsfunktion, die die Größe des Gesichtsbildes zum Registrierungszeitpunkt anzeigt, durch Verwendung einer Kreismarkierung oder dergleichen, verwendet wird, sind der Abstand zwischen und eine horizontale Abweichung der Position des Gesichts einer Person und der Position der Kamera 101 zum Registrierungszeitpunkt im Wesentlichen gleich, wie der Abstand zwischen und eine horizontale Abweichung der Position des Gesichts einer Person und der Position der Kamera 101 zum Registrierungszeitpunkt. Der zweite Beleuchtungsabschnitt 103 kann folglich weggelassen werden.
  • Es sei jetzt angenommen, dass der Gesamtwert der Beleuchtungsstärke 1A von Licht von dem ersten Beleuchtungsabschnitt 102 und der Beleuchtungsstärke 2A mit Licht von dem zweiten Beleuchtungsabschnitt 103, die das Gesicht der zu erkennenden Person 100 beleuchten, gleich B Lux (1x) ist. Ferner sei angenommen, dass die Beleuchtungsstärke von externem Licht oder dergleichen, welches auf das Gesicht der zu erkennenden Person 100 fällt, gleich C Lux (1x) ist. In diesem Fall, wenn die Beziehung 1A + 2A = B > C gebildet wird, kann der Einfluss des externen Lichts unterdrückt werden. Beispielsweise, wenn es erforderlich ist den Einfluss einer Deckenbeleuchtung, beispielsweise eines Fluoreszenzlichts zu unterdrücken, das auf der oberen Rückseite der zu erkennenden Person 100 liegt, können die Beleuchtungsstärke von Licht von dem Beleuchtungsabschnitt 102 und die Beleuchtungsstärke von Licht von dem zweiten Beleuchtungsabschnitt 103 derart eingestellt werden, dass die oben genannte Beziehung gebildet wird. Ferner ist die Gesamtbeleuchtungsstärke B (1x) der Beleuchtungsstärke 1A von Licht von dem ersten Beleuchtungsabschnitt 102 und die Beleuchtungsstärke 2A von Licht von dem zweiten Beleuchtungsabschnitt 103 in einem Bereich definiert, so dass verhindert wird, dass das Eingabegesichtsbild in den gesättigten Zustand gesetzt wird.
  • Es sei angenommen, dass der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 immer in dem EIN Zustand gesetzt sind, jedoch ist es auch möglich den ersten Beleuchtungsabschnitt 102 und den zweiten Beleuchtungsabschnitt 103 nur einzuschalten, wenn die zu erkennenden Person 100 der vorliegenden Vorrichtung näher kommt. In diesem Fall kann dies beispielsweise erreicht werden, indem zusätzlich ein Sensor bereitgestellt werden, beispielsweise ein Infrarotsensor auf der vorliegenden Vorrichtung, und indem der Sensor veranlasst wird die zu erkennende Person 100 abzutasten, die sich der vorliegenden Vorrichtung nähert, und den ersten Beleuchtungsabschnitt 102 und den zweiten Beleuchtungsabschnitt 103 einzuschalten. Ferner ist es möglich die zu erkennende Person 100 abzutasten, die der vorliegenden Vorrichtung näher kommt, indem eine Bewegung des Körpers basierend auf einem Bild, das von der Kamera 101 eingegeben wird, detektiert wird.
  • Der Verarbeitungsabschnitt 105 wird als Nächstes erklärt.
  • Der Verarbeitungsabschnitt 105 kann beispielsweise durch einen Computer konfiguriert sein. Der Verarbeitungsabschnitt 105 wird basierend auf einem Steuerprogramm betrieben, um verschiedene Funktionen zu realisieren. Das Steuerprogramm ist in einem Speichermedium gespeichert, beispielsweise einer Festplatte, CD-ROM, MD oder FD.
  • In der folgenden Erklärung werden verschiedene Informationsdatenstücke verwendet, enthaltend Bildeingabedaten, eine extrahierte Merkmalsmenge, ein Teilraum, ein Eigenvektor, der einen Teilraum konfiguriert, eine Korrelationsmatrix, Statusinformation, beispielsweise Zeit, Datum und Ort der Registrierung, individuelle Information, beispielsweise ein Passwort, ID Nummer. In der folgenden Erklärung enthalten ferner Daten, die zu erkennen sind, einen Teilraum oder Eigenvektor, der einen Teilraum konfiguriert. Zusätzlich enthält in der folgenden Erklärung die Registrierungsinformation Bildeingabedaten, eine extrahierte Merkmalsmenge, einen Teilraum, einen Eigenvektor, der einen Teilraum konfiguriert, eine Korrelationsmatrix, Statusinformation und individuelle Information. Die Erkennungsdaten sind folglich in der Registrierungsinformation enthalten.
  • Ein Beispiel des konkreten Aufbaus des Verarbeitungsabschnitts 105 wird im Folgenden im Einzelnen unter Bezugnahme auf 1 erklärt. Der Verarbeitungsabschnitt 105 enthält einen Bildeingabeabschnitt 106, der als Bildeingabemittel verwendet wird, einen Merkmalsmengenextrahierungsabschnitt 107, der als Merkmalsmengenextrahierungsmittel verwendet wird, einen Erkennungsabschnitt 108, der als Erkennungsmittel verwendet wird, einen Registrierungsinformationsspeicherabschnitt (Verzeichnis) 109, der als ein Merkmalsmengenregistrierungsmittel verwendet wird, einen Registrierungsinformationszufügungsabschnitt 110, der als Merkmalsmengenzufügungsmittel verwendet wird, und einen Nummerneingabeverarbeitungsabschnitt 111.
  • Der Bildeingabeabschnitt 106 wird mit einem Gesichtsbild von der Kamera 101 versorgt, A/D-Wandler wandeln das eingegebene Gesichtsbild in eine digitale Form und liefern dann das digitale Gesichtsbild an den Merkmalsmengenextrahierungsabschnitt 107.
  • In dem Registrierungsinformationsspeicherabschnitt 109 werden Registrierungsinformationsdatenstücke, beispielsweise Referenzmerkmalsmengen entsprechend den ID Nummern der zu erkennenden Personen 100 vorher registriert (gespeichert).
  • Wenn die Registrierungsrate des Erkennungsabschnitts 108 schlechter wird als ein voreingestellter Wert, registriert der Registrierungsinformationszufügungsabschnitt 110 zusätzliche Registrierungsinformation, beispielsweise eine Referenzmerkmalsmenge (eine neue Referenz merkmalsmenge), die aus der Gesichtsbildeingabe zu diesem Zeitpunkt gewonnen wird, in dem Registrierungsinformationsspeicherabschnitt 109.
  • Der Nummerneingabeverarbeitungsabschnitt 111 verarbeitet eine ID Nummer, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird.
  • Der Merkmalsmengenextrahierungsabschnitt 107 extrahiert eine Merkmalsmenge, beispielsweise Teilrauminformation oder Licht- oder Schatteninformation durch Verwendung des Gesichtsbildes der zu erkennenden Person 100, die von dem Bildeingabeabschnitt 106 geliefert wird. Wie in 6 gezeigt enthält der Merkmalsmengenextrahierungsabschnitt 107 beispielsweise einen Gesichtsregiondetektionsabschnitt 107A, einen Gesichtsteildetektionsabschnitt 107B und einen Merkmalsmengenerzeugungsabschnitt 107C. Der Merkmalsmengenextrahierungsabschnitt 107 wird im Folgenden im Einzelnen und unter Bezugnahme auf 6 erklärt.
  • Der Gesichtsregiondetektionsabschnitt 107A detektiert eine Gesichtsregion basierend auf einem Gesichtsbild, das von der Kamera 101 eingegeben wird. Mit dem Gesichtsregiondetektionsabschnitt 107A wird beispielsweise eine vorher vorbereitete Vorlage in dem Bild bewegt, um Korrelationswerte abzuleiten, und ein Ort, in welchem der größte Korrelationswert erhalten wird, wird als Gesichtsregion detektiert. Der Gesichtsregiondetektionsabschnitt 107A kann verwendet werden, um eine Gesichtsregion durch Verwendung eines Gesichtsregionextrahierungsverfahrens zu detektieren, welches ein Teilraumverfahren oder Eigenraumverfahren verwendet.
  • Der Gesichtsteildetektionsabschnitt 107B detektiert die Positionen der Nase und der Augen von Teilen der detektierten Gesichtsregion. Beispielsweise detektiert der Gesichtsteildetektionsabschnitt 107B die Positionen der Gesichtteile (Teile des Gesichts, beispielsweise die Nase und die Augen) basierend auf Gesichtsmerkmalspunkten durch Verwendung eines Verfahrens, das in einem Dokument („Face Feature Point Extraction by Combination of Shape Extraction and Pattern Collation" von Kazuhiro Fukui, Osamu Yamaguchi, Study Papers of Institute of Electronic Information and Communication Engineers (D), Ausgabe J80-D-II, Nummer 8, Seiten 2170 bis 2177 (1997)) offenbart ist.
  • Der Merkmalsmengenerzeugungsabschnitt 107C extrahiert eine Gesichtsregion einer vorbestimmten Größe und Form basierend auf den Positionen der Gesichtsteile, die von dem Gesichtsteildetektionsabschnitt 107B detektiert worden sind, und verwendet Licht- und Forminformation davon als Merkmalsmenge. In diesem Fall verwendet beispielsweise der Merkmalsmengenerzeugungsabschnitt 107C den Licht- und Formwert einer Region von m Pixel X n Pixel als eine Merkmalsmenge und die Merkmalsmenge als einen Merkmalsvektor mit einer m X n Dimension.
  • In einem Fall, bei dem das wechselseitige Teilraumverfahren in dem Erkennungsabschnitt 108 verwendet wird, erzeugt der Merkmalsmengenerzeugungsabschnitt 107C die Merkmalsmenge durch den folgenden Vorgang. Das Gegenteilraumverfahren ist beispielsweise ein bekanntes Erkennungsverfahren, das beschrieben ist in „Pattern Matching Method using Local Configuration" von Kenichi Maeda, Sadaichi Watanabe, Study Papers of Institute of Electronic Information and Communication Engineers (D), Ausgabe J68-D, Nummer 3, Seiten 345 bis 352 (1985)).
  • Wenn das Gegenteilraumverfahren als Erkennungsverfahren verwendet wird, leitet der Merkmalsmengenerzeugungsabschnitt 107C zuerst eine Merkmalsmenge als Merkmalsvektor einer m X n Dimension her. Der Merkmalsmengenerzeugungsabschnitt 107 leitet dann eine Korrelationsmatrix her (oder Kovarianzmatrix) des folglich berechneten Merkmalsvektors und leitet einen normal Orthogonalvektor her durch Verwendung einer K-L Expansion in Bezug auf die Korrelationsmatrix. Der Merkmalsmengenerzeugungsabschnitt 107C berechnet folglich einen Teilraum. Der Teilraum wird ausgedrückt durch Auswählen von k Eigenvektoren entsprechend den Eigenwerten in einer Reihenfolge vom größten Eigenwert beginnend, und indem der Satz von Eigenvektoren verwendet wird.
  • Gemäß dem vorliegenden Ausführungsbeispiel leitet der Merkmalsmengenerzeugungsabschnitt 107C eine Korrelationsmatrix Cd von dem Merkmalsvektor her, und eine Matrix Φ von Eigenvektoren durch Diagonalisieren der Korrelationsmatrix, wie durch die folgende Gleichung angegeben. Cd = ΦdΛdΦdT
  • Der Merkmalsmengenerzeugungsabschnitt 107C leitet beispielsweise die Korrelationsmatrix des Merkmalsvektors basierend auf Zeitfolgegesichtsbilddaten her, die von dem Eingabebild gewonnen werden, und leitet einen normal Orthogonalvektor durch Verwendung der K-L Expansion her. Der Merkmalsmengenerzeugungsabschnitt 107C berechnet folglich den Teilraum. Der Teilraum wird in dem Registrierungsinformationsspeicherabschnitt 109 als ein Erkennungsverzeichnis registriert, welches zur Identifizierung einer Person verwendet wird. Beispielsweise wird der Teilraum, der von dem Gesichtsbild einer zu erkennenden Person abgeleitet wird, vorher in dem Verzeichnis als Merkmalsmenge der zu erkennenden Person registriert.
  • Wie später beschrieben wird, kann der Teilraum selbst als Eingabedaten verwendet werden, die zur Durchführung des Erkennungsprozesses verwendet werden. Das Ergebnis der Berechnung des Teilraums wird folglich an den Erkennungsabschnitt 108 und den Registrierungsinformationsspeicherabschnitt 109 geliefert.
  • Der Erkennungsabschnitt 108 vergleicht Registrierungsinformation (Teilräume enthaltend) die in dem Registrierungsinformationsspeicherabschnitt 109 registriert ist, mit einer Merkmalsmenge (Licht- und Schatteninformation oder Teilrauminformation), die in dem Merkmalsmengenextrahierungsabschnitt 107 gewonnen wird. Der Erkennungsabschnitt 108 führt dann einen Erkennungsprozess durch, um zu bestimmen, wer eine zu erkennenden Person 100, die mit der Kamera 101 fotografiert worden ist, ist, oder führt einen Identifizierungsprozess durch, um zu bestimmen, ob die zu erkennende Person 100, die mit der Kamera 101 fotografiert worden ist, eine bestimmte Person ist, oder nicht. Um dem Erkennungsabschnitt 108 zu erlauben eine Person zu erkennen, ist es lediglich erforderlich eines der Merkmale von Personen zu bestimmen, die in dem Verzeichnis registriert sind, welches am ähnlichsten der Merkmalsmenge ist, die von dem Gesichtsbild, das mit der Kamera 101 fotografiert worden ist, extrahiert sind. Folglich, wenn eine Person erkannt ist, berechnet der Erkennungsabschnitt 108 die Ähnlichkeiten zwischen der Merkmalsmenge, die von dem Gesichtsbild, das mit der Kamera 101 fotografiert worden ist, extrahiert wird, und allen Merkmalsmengen, die in dem Verzeichnis registriert sind, und bestimmt eine Person mit der Merkmalsmenge, die die größte Ähnlichkeit liefert, als Erkennungsergebnis.
  • Wenn eine Person identifiziert ist basierend auf dem Gesichtsbild durch Spezifizieren der Person unter Verwendung individueller Information einer Karte, eines Passworts, einer ID Nummer oder eines Schlüssels, berechnet der Erkennungsabschnitt 108 ferner die Ähnlichkeit zwischen der Merkmalsmenge, die in dem Verzeichnis registriert ist, entsprechend der individuellen Information und der Merkmalsmenge, die von dem Gesichtsbild extrahiert worden ist, das mit der Kamera 101 fotografiert worden ist. Der Erkennungsabschnitt 108 vergleicht ferner die berechnete Ähnlichkeit mit einem voreingestellten Schwellenwert und erkennt (identifiziert), dass die Person eine entsprechende Person ist, wenn die berechnete Ähnlichkeit den voreingestellten Schwellenwert überschreitet.
  • Wenn der Identifizierungsprozess der Person in der oben beschriebenen Weise durchgeführt wird, ist es notwendig ein Mittel zu verwenden zum Eingeben individueller Information, beispielsweise einer Karte, eines Passworts, einer ID Nummer, eines Schlüssels oder dergleichen. Beispielsweise für die Karte, kann ein Aufzeichnungsmedium verwendet werden, beispielsweise eine IC Karte, eine ID Karte oder eine Funkkarte, auf der individuelle Information gespeichert ist. In diesem Fall ist ein Kartenleser auf der vorliegenden Vorrichtung bereitgestellt, um individuelle Information auszulesen, der mit dem Aufzeichnungsmedium umgehen kann. Wenn ein Passwort oder eine ID Nummer als individuelle Information verwendet wird, wird ferner ein Tasteneingabemittel auf der vorliegenden Vorrichtung bereitgestellt, um dem Benutzer zu erlauben die individuelle Information einzugeben. Wenn beispielsweise das Passwort oder die ID Nummer als individuelle Information verwendet wird, können ein Tasteneingabemittel, beispielsweise der Zehn-Tasten-Abschnitt 104 und der Nummerneingabeverarbeitungsabschnitt 111 verwendet werden, wie später beschrieben wird.
  • In dem Erkennungsabschnitt 108 wird ferner ein Erkennungsverfahren, beispielsweise ein Teilraumverfahren, mehrere Ähnlichkeitsverfahren oder dergleichen verwendet, indem die Information des Merkmalsmengenextrahierungsabschnitts 107 verwendet wird.
  • Ein Erkennungsverfahren, das auf dem Gegenteilraumverfahren basiert, wird jetzt erklärt. In diesem Fall, bei dem Gegenteilraumverfahren sei angenommen, dass die Merkmalsmenge als Registrierungsinformation, die vorher in dem Verzeichnis registriert worden ist, und die Merkmalsmenge, die von einem Bild (Eingabedaten), das mit der Kamera 101 fotografiert worden ist, extrahiert sind, jeweils als Teilraum ausgedrückt sind. Ferner wird ein „Winkel", der durch die zwei Teilräume gebildet wird, als Ähnlichkeit definiert. In diesem Fall wird ein Teilraum als Merkmalsmenge, die von dem Bild, das mit der Kamera 101 fotografiert worden ist, extrahiert worden ist, als Eingabeteilraum definiert.
  • Zuerst wird eine Korrelationsmatrix Cin hergeleitet bezüglich einer Eingabedatenzeichenkette in gleicher Weise, wie oben beschrieben, und ein Eigenvektor Φin wird hergeleitet durch Diagonalisieren der Korrelationsmatrix, wie durch die folgende Gleichung angegeben. Cin = ΦinΛinΦinT
  • Wenn der Eigenvektor Φin hergeleitet ist, wird die Ähnlichkeit berechnet basierend auf einem „Winkel" zwischen einem Teilraum, der durch den Eigenvektor Φin ausgedrückt ist, der von den Eingabedaten hergeleitet wird, und einem Teilraum, der durch einen Eigenvektor Φd ausgedrückt ist. Die Teilraumähnlichkeit (0,0 bis 1,0) zwischen den Teilräumen, die durch die Eigenvektoren Φin und Φd ausgedrückt sind, wird die Ähnlichkeit, die als Erkennungsergebnis verwendet wird.
  • Der Erkennungsabschnitt 108 wird gemäß dem in 7 gezeigten Flussdiagramm betrieben. Der Betrieb des Erkennungsabschnitts 108 ist verschieden in Abhängigkeit davon, ob der Erkennungsprozess oder der Identifikationsprozess (Schritt ST1) durchgeführt wird. Wenn der Identifikationsprozess durchgeführt wird, wird eine Objekt ID Nummer einer zu erkennenden Person ausgelesen, indem der Nummerneingabeverarbeitungsabschnitt (Schritt ST2) verwendet wird. Die Registrierungsinformation (Teilraum) entsprechend der Objekt ID Nummer wird dann aus dem Registrierungsinformationsspeicherabschnitt 109 ausgelesen (Schritt ST3).
  • Wie oben beschrieben, um den Erkennungsprozess durchzuführen unter Verwendung des Teilraumverfahrens oder dergleichen berechnet als Nächstes der Erkennungsabschnitt 108 die Ähn lichkeit zwischen dem Teilraum jeder Registrierungsinformation und einem eingegebenen Teilraum oder einem Teilraum, der als Merkmalsmenge verwendet wird, die von dem Bild extrahiert worden ist, das mit der Kamera 101 fotografiert worden ist, durch Verwendung des Merkmalsmengenextrahierungsabschnitts 107 (Schritt ST4). Der Erkennungsabschnitt 108 vergleicht dann die berechnete Ähnlichkeit mit einem voreingestellten Schwellenwert (Schritte ST5, ST6) und bestimmt das Ergebnis der Identifikation und gibt dieses aus (Schritt ST7). In diesem Fall, wenn die berechnete Ähnlichkeit größer als der voreingestellte Schwellenwert ist, wird bestimmt, dass die Identifikation erfolgreich durchgeführt werden kann, und wenn die berechnete Ähnlichkeit nicht größer als der voreingestellte Schwellenwert ist, wird bestimmt, dass die Identifikation nicht erfolgreich durchgeführt werden kann.
  • In einem Fall, bei dem der Erkennungsprozess durchgeführt wird, liest der Erkennungsabschnitt 108 alle Registrierungsinformationsdatenstücke, die zu erkennen sind, aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST8). Wenn alle Registrierungsinformationsdatenstücke, die zu erkennen sind, ausgelesen sind, berechnet der Erkennungsabschnitt 109 die Ähnlichkeiten zwischen Teilräumen der jeweiligen Registrierungsinformationsdatenstücke und dem Teilraum als die Merkmalsmenge, die von dem Bild, das mit der Kamera 101 fotografiert worden ist, extrahiert wird (Schritt ST9). Nach dem Berechnen der Ähnlichkeiten mit den jeweiligen Registrierungsinformationsdatenstücken wählt der Erkennungsabschnitt 108 das Maximum der berechneten Ähnlichkeiten aus (Schritt ST10) und gibt Daten aus, die eine Person angeben, die der Registrierungsinformation entspricht, die die maximale Ähnlichkeit als Erkennungsergebnis liefert (Schritt ST12).
  • Für den Erkennungsabschnitt 108 ist es auch möglich zu bestimmen (bestimmen durch Verwendung eines Schwellenwerts), ob die maximale Ähnlichkeit größer als ein voreingestellter Schwellenwert ist, wie in Schritt ST11 gezeigt, umgeben von gestrichelten Linien in 7. In diesem Fall kann geprüft werden, ob das Erkennungsergebnis korrekt ist, oder nicht (Schritt ST13). Wenn beispielsweise die maximale Ähnlichkeit kleiner als der voreingestellte Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass das Erkennungsergebnis nicht einem der zu erkennenden Objekte entspricht.
  • In dem Registrierungsinformationsspeicherabschnitt 109 ist es möglich Bildeingabedaten, extrahierte Merkmalsmengen, Statusinformation, beispielsweise Zeit, Datum und Ort der Registrierung und dergleichen als Registrierungsinformation zusätzlich zu den Teilräumen (oder Korrelationsmatrizen und dergleichen), die zur Identifizierung einer zu erkennenden Person verwendet werden, zu registrieren (oder zu speichern).
  • Gemäß dem gegenwärtigen Ausführungsbeispiel wird nicht nur ein Fall beschrieben, bei dem Teilräume gespeichert werden, sondern auch ein Fall, bei dem Korrelationsmatrizen, die in dem vorangegangenen Schritt verwendet werden, um die Teilräume zu berechnen, gespeichert werden.
  • Der Registrierungsinformationsspeicherabschnitt 109 speichert eine Registrierungsinformation für jedes individuelle Informationsdatenstück, beispielsweise als eine Person oder ID Nummer. In der Registrierungsinformation wird der Teilraum zusammen mit angehängter Information, beispielsweise Zeit zu der der Teilraum erfasst worden ist, gespeichert.
  • Als Nächstes wird der Registrierungsinformationszufügungsabschnitt 110 erklärt. Der Registrierungsinformationszufügungsabschnitt 110 führt einen Prozess durch, um zusätzlich neue Registrierungsinformation (Referenzmerkmalsmenge) in dem Registrierungsinformationsspeicherabschnitt 109 zu registrieren, wenn die Erkennungsrate oder die Ähnlichkeit bezüglich der spezifizierten Registrierungsinformation, die in dem Registrierungsabschnitt 108 gewonnen wird, kleiner als ein vorbestimmter Wert wird. Der Registrierungsinformationszufügungsabschnitt 110 überwacht beispielsweise das Erkennungsergebnis, das durch den Erkennungsabschnitt 108 gewonnen wird. Wenn der Registrierungsinformationszufügungsabschnitt 110 bestimmt, dass die Ähnlichkeit bezüglich der spezifizierten Registrierungsinformation reduziert worden ist, registriert er folglich zusätzliche Registrierungsinformation, beispielsweise einen Teilraum (Referenzmerkmalsmenge) als die Merkmalsmenge, die von dem Gesichtsbild gewonnen wird, das zu diesem Zeitpunkt als neue Registrierungsinformation in den Registrierungsinformationsspeicherabschnitt 109 eingegeben wird.
  • Der Registrierungsinformationszufügungsabschnitt 110 detektiert zuerst, ob die Registrierungsrate in dem Registrierungsabschnitt 108 kleiner als ein voreingestellter Wert ist, oder nicht.
  • Der Registrierungsinformationszufügungsabschnitt 110 detektiert beispielsweise, dass die Ähnlichkeit reduziert ist, oder nicht, indem bestimmt wird, ob der Ähnlichkeitsgrad, der in dem Erkennungsabschnitt 108 berechnet worden ist, kleiner als ein Schwellenwert als ein Referenzwert ist, der zur Bestimmung der zusätzlichen Registrierung verwendet wird. Wenn der Registrierungsinformationszufügungsabschnitt 110 bestimmt, dass der Ähnlichkeitsgrad, der in dem Erkennungsabschnitt 108 berechnet worden ist, kleiner wird als der Referenzwert, der zur Bestimmung der Zusatzregistrierung verwendet wird, registriert der Registrierungsinformationszufügungsabschnitt 110 weitere Registrierungsinformation, die die Merkmalsmenge enthält, die durch den Merkmalsmengenextrahierungsabschnitt 107 zu diesem Zeitpunkt als eine neue Referenzmerkmalsmenge extrahiert worden ist, in dem Registrierungsinformationsspeicherabschnitt 109.
  • Eine Reduzierung der Ähnlichkeit bezüglich der spezifizierten Registrierungsinformation wird also bestimmt bevor ein Referenzwert gesetzt wird, der zur Bestimmung der zusätzlichen Registrierung von Registrierungsinformation bestimmt wird, und einem Vergleichen der Ähnlichkeit als Erkennungsergebnis mit dem Referenzwert zur Bestimmung der zusätzlichen Registrierung. Wenn die Ähnlichkeit als Registrierungsergebnis kleiner wird als der Referenzwert zur Bestimmung der zusätzlichen Registrierung, wird bestimmt, dass es notwendig ist neue Erkennungsinformation hinzuzufügen.
  • Die Beziehung zwischen dem Referenzwert (Ladd), der zur Bestimmung der zusätzlichen Registrierung verwendet wird, und dem Registrierungsschwellenwert (Lrec) in dem Erkennungsabschnitt 108 muss den folgenden Ausdruck erfüllen. Ladd ≥ Lrec
  • In einem Fall, bei dem eine Mehrzahl von Registrierungsinformationsdatenstücken als Referenzmerkmalsmengen einer Person gespeichert werden, kann der Erkennungsabschnitt 108 den Erkennungsprozess basierend auf einer Mehrzahl von Teilräumen entsprechend einer Person durchführen. Der Grund, warum eine Mehrzahl von Registrierungsinformationsdatenstücken als Referenznmerkmalsmengen einer Person gespeichert werden, liegt darin, dass eine Verschlechterung der Ähnlichkeit aufgrund einer Änderung des Haarstils, eines Bartes oder Make- up oder des Vorhandenseins oder Fehlens von Brillen unterdrückt werden kann. Durch Speichern einer Mehrzahl von Registrierungsinformationsdatenstücken kann mit einer Änderung des Gesichtsbildes aufgrund einer Änderung der Stehposition oder einer Änderung des Gesichts umgegangen werden. Da eine Verschlechterung der Ähnlichkeit basierend auf dem Erkennungsergebnis bestimmt wird und neue Registrierungsinformation hinzugegeben wird, kann eine zusätzliche Registrierung der Registrierungsinformation leicht durchgeführt werden, während die vorliegende Vorrichtung betrieben wird.
  • Als Nächstes werden der Zehn-Tasten-Abschnitt 104 und der Nummerneingabeverarbeitungsabschnitt 111 erklärt.
  • Der Zehn-Tasten-Abschnitt 104 wird durch eine Person betrieben, um eine ID Nummer oder dergleichen einzugeben, wenn die Person basierend auf dem Gesichtsbild identifiziert ist, durch Spezifizieren der Person durch Verwendung der ID Nummer (oder eines Passwortes oder dergleichen). Ferner verarbeitet der Nummerneingabeverarbeitungsabschnitt 111 die ID Nummer, die durch den Zehn-Tasten-Abschnitt 104 eingegeben wird.
  • Wie in 8 gezeigt, ist der Zehn-Tasten-Abschnitt 104 beispielsweise auf der unteren rechten Seite der Kamera 101 angeordnet. In der Anordnung des Zehn-Tasten-Abschnitts 104 kann der Effekt erreicht werden, dass eine Hand der Person, die die ID Nummer eingibt durch Verwendung des Zehn-Tasten-Abschnitts 104 nicht die Eingabe eines Gesichtsbildes behindert.
  • Die Anordnungsposition des Zehn-Tasten-Abschnitts 104 ist nicht auf die in 8 gezeigte beschränkt. Beispielsweise, wie in 9 gezeigt, kann der Zehn-Tasten-Abschnitt 104 direkt unter der Kamera 101 angeordnet werden, also zwischen der Kamera 101 und dem zweiten Beleuchtungsabschnitt 103. Wie in 10 gezeigt kann ferner der Zehn-Tasten-Abschnitt 104 unterhalb des zweiten Beleuchtungsabschnitts 103 angeordnet sein, oder wie in 11 gezeigt, können die Tasten des Zehn-Tasten-Abschnitts 104 auf einer horizontalen Zeile unter dem zweiten Beleuchtungsabschnitt 103 angeordnet sein. In den oben genannten Fällen ist es möglich den Effekt zu erhalten, dass eine Hand der Person, die die ID Nummer eingibt, nicht die Eingabe eines Gesichtsbildes stört, wie oben beschrieben.
  • Die 12, 13, 14 und 15 zeigen jeweils die Beziehung der Anordnungspositionen in einem Fall, bei dem ein Anzeigeabschnitt 120, beispielsweise ein Monitor, jeder Konfiguration in dem 8, 9, 10 und 11 hinzugegeben wird. Wie in den 12 bis 15 gezeigt kann das Gesichtsbild einer Person, die mit der Kamera 101 fotografiert wird, angezeigt werden, indem der Anzeigeabschnitt 120, beispielsweise der Monitor, angeordnet wird. Ferner kann die gewünschte Information auf dem Anzeigeabschnitt 120 angezeigt werden, während der Erkennungsprozess nicht durchgeführt wird.
  • Als Nächstes wird die Beziehung zwischen einem Eingabeverfahren durch Verwendung des Zehn-Tasten-Abschnitts 104, einem Verarbeitungsverfahren in dem Nummerneingabeverarbeitungsabschnitt 111 und dem Erkennungsverfahren des Gesichtsbildes im Einzelnen beschrieben. In der folgenden Erklärung wird ein Fall erklärt, bei dem der Erkennungsabschnitt 108 das Gesichtsbild durch Verwendung der ID Nummer einer zu erkennenden Person 100 erkennt.
  • Wenn beispielsweise das Gesichtsbild einer Person nicht eingegeben wird, wird die ID Nummer, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, in dem Nummerneingabeverarbeitungsabschnitt 111 ungültig. Wenn das Gesichtsbild einer Person nicht eingegeben wird, wird der Erkennungsabschnitt 108 außer Betrieb gehalten. Folglich kann verhindert werden, dass eine zweifelhafte Person oder eine Person, die eine Gefahr darstellt, unrichtigerweise erkannt wird, und somit kann erreicht werden, dass zweifelhafte oder gefährliche Vorgänge unterdrückt werden können.
  • Der konkrete Prozess wird als Nächstes unter Bezugnahme auf das in 16 gezeigte Flussdiagramm erklärt. Das in 16 gezeigte Flussdiagramm zeigt hauptsächlich den Fluss des Erkennungsprozesses in dem Erkennungsabschnitt 108.
  • Wenn eine ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST21), detektiert der Nummerneingabeverarbeitungsabschnitt 111 die Eingabe der ID Nummer. Zu diesem Zeitpunkt bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in dem Eingabebild von der Kamera 101 vorliegt, indem der Gesichtsbilddetektionsprozess durch den Merkmalsmengenextrahierungsabschnitt 107 oder den Bildeingabeabschnitt 106 durchge führt wird (Schritt ST22). Wenn in dem oben genannten Bestimmungsprozess bestimmt wird, dass kein Gesichtsbild vorliegt, gibt der Erkennungsabschnitt 108 den Prozess zu Schritt ST21 zurück und wiederholt den oben genannten Vorgang. Selbst wenn die ID Nummer eingegeben wird von dem Zehn-Tasten-Abschnitt 104, und wenn kein Eingabebild von der Kamera 101 vorliegt, bestimmt der Erkennungsabschnitt 108, dass der Betrieb ein gefährlicher Betrieb oder fehlerhafter Betrieb ist, und macht die ID Nummer, die über den Zehn-Tasten-Abschnitt 104 eingegeben worden ist, ungültig, indem der Nummerneingabeverarbeitungsabschnitt 111 verwendet wird.
  • Ferner wird in Schritt ST22 bestimmt, dass das Gesichtsbild vorliegt, der Nummerneingabeverarbeitungsabschnitt 111 behandelt die Nummer, die über den Zehn-Tasten-Abschnitt 104 eingegeben worden ist, als eine gültige ID Nummer. Der Erkennungsabschnitt 108 liest dann Registrierungsinformation (Teilraum) entsprechend der ID Nummer, die über den Zehn-Tasten-Abschnitt 104 eingegeben und von dem Nummerneingabeverarbeitungsabschnitt 111 geliefert worden ist, aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST23). Wenn die Registrierungsinformation entsprechend der ID Nummer ausgelesen worden ist, berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jedes Registrierungsinformationsdatenstücks und einem Eingabevektor (Eigenvektor des Teilraums, der basierend auf dem Eingabebild in dem Merkmalsmengenextrahierungsabschnitt 107 berechnet worden ist) oder einen Eingabeteilraum, um den Erkennungsprozess durch das Teilraumverfahren durchzuführen (Schritt ST24).
  • Der Erkennungsabschnitt 108 vergleicht als Nächstes die in Schritt ST24 hergeleitete Ähnlichkeit mit einem voreingestellten Schwellenwert (Schritte ST25, ST26). Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die Ähnlichkeit größer als der Schwellenwert ist, der Erkennungsabschnitt 108 bestimmt, dass die Person erfolgreich erkannt worden ist, und gibt das Erkennungsergebnis aus (Schritt ST27). Wenn die Ähnlichkeit nicht größer als der Schwellenwert ist bestimmt der Erkennungsabschnitt 108, dass die Person nicht erfolgreich erkannt worden ist, und gibt einen Erkennungsfehler aus (Schritt ST28).
  • Wenn begonnen wird die ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 einzugeben, und wenn das Gesichtsbild einer Person detektiert wird, startet der Bildeingabeab schnitt 106 die Eingabe des Gesichtsbildes. Da die Zeit für Eingabe des Gesichtsbildes reduziert werden kann und die Zeit bis das Erkennungsergebnis ausgegeben wird reduziert werden kann, kann als Ergebnis eine psychologische zeitreduzierende Wirkung für den Benutzer erhalten werden.
  • Der Prozess für das Starten der Eingabe des Bildes und das Starten der Eingabe der ID Nummer wird im Folgenden unter Bezugnahme auf das in 17 gezeigte Flussdiagramm beschrieben. Das Flussdiagramm gemäß 17 ist grundsätzlich gleich dem Flussdiagramm in 16, mit der Ausnahme, dass der Schritt ST29 zusätzlich vorgesehen ist, bei welchem das Gesichtsbild von der Kamera 101 eingegeben (erfasst) wird, wenn in Schritt ST22 bestimmt wird, dass das Gesichtsbild in dem Bild vorliegt, dass mit der Kamera 101 fotografiert worden ist, also wenn das Gesichtsbild detektiert wird. Die anderen Prozesse sind gleich denen gemäß 16 und eine detaillierte Erklärung dieser erfolgt nicht.
  • In der Eingabeoperation in dem Zehn-Tasten-Abschnitt 104 wird ein Verfahren betrachtet zum sequentiellen Reduzieren der Anzahl an Registrierungsinformationsdatenstücken, wie etwa ID Nummern, die als individuelle Information verwendet werden, jedes Mal, wenn die ID Nummer mit einer Stelle eingegeben wird, und letztendlich als ID Nummer spezifiziert wird. Wenn die ID Nummer aus vier Ziffern besteht wird beispielsweise die Anzahl an Registrierungsinformationsdatenstücken in dem Registrierungsinformationsspeicherabschnitt 109 ungefähr um 1/10 der ursprünglichen Anzahl reduziert, wenn eine Ziffer der ersten oberen Stelle eingegeben wird. Ferner, wenn eine Ziffer der zweiten oberen Stelle eingegeben wird, wird die Anzahl von Registrierungsinformationsdatenstücken um ungefähr 1/100 der ursprünglichen Anzahl reduziert. Folglich wird es möglich die Zeit zu reduzieren, bis das Erkennungsergebnis ausgegeben wird, durch sequentielles Reduzieren und Auswählen der Anzahl der Registrierungsinformationsdatenstücke.
  • Als Nächstes wird ein konkreter Prozess zur sequentiellen Reduzierung der Anzahl an Registrierungsinformationsdatenstücken jedes Mal, wenn die ID Nummer eingegeben wird, um eine Stelle (Ziffer) unter Bezugnahme auf das in 18 gezeigte Flussdiagramm beschrieben. Das Flussdiagramm gemäß 18 zeigt hauptsächlich den Fluss des Prozesses des Erkennungsabschnitts 108.
  • Wenn eine erste Stelle der ID Nummer eingegeben wird, indem der Zehn-Tasten-Abschnitt 104 verwendet wird (Schritt ST31), bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in dem Bild vorliegt, das mit der Kamera 101 fotografiert worden ist (Schritt ST32). Wenn in dem oben genannten Bestimmungsprozess bestimmt wird, dass kein Gesichtsbild vorliegt, gibt der Erkennungsabschnitt 108 den Prozess an Schritt ST31 zurück und wiederholt den oben genannten Vorgang. Wenn in Schritt ST32 bestimmt wird, dass das Gesichtsbild vorliegt, reduziert der Erkennungsabschnitt 108 die Anzahl an Registrierungsinformationsdatenstücken, die in dem Registrierungsinformationsspeicherabschnitt 109 gespeichert sind, basierend auf der ersten oberen Stellenziffer der ID Nummer, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben worden ist. In diesem Fall werden die Registrierungsinformationsdatenstücke einer entsprechenden ID Nummer abgesucht, indem die eingegebene erste obere Stellenziffer als Suchbedingung verwendet wird. In einem Fall, wo beispielsweise Ziffern von 0 bis 9 eindeutig als Information jeder Stelle aller ID Nummern zugewiesen sind, die in dem Registrierungsinformationsspeicher 109 gespeichert sind, wird die Anzahl an Registrierungsinformationsdatenstücken in dem Registrierungsinformationsspeicherabschnitt 109 um ungefähr 1/10 der ursprünglichen Anzahl reduziert. Wenn die zweite obere Ziffer eingegeben wird reduziert der Erkennungsabschnitt 108 die Anzahl an Registrierungsinformationsdatenstücken, die ungefähr 1/10 der ursprünglichen Anzahl reduziert worden sind, auf ungefähr 1/100 der ursprünglichen Anzahl. Der Erkennungsabschnitt 108 wiederholt den oben genannten Registrierungsinformationsnummerreduzierungsprozess bis die vierte obere Ziffer (die unterste Stelle) der ID Nummer eingegeben ist (Schritt ST33).
  • In diesem Fall, wenn die vierte obere Ziffer (die unterste Stelle) der ID Nummer eingegeben worden ist (Schritt ST34), bestimmt der Erkennungsabschnit 108 die ID Nummer mit vier Ziffern (alle Ziffern) (Schritt ST35). Der Erkennungsabschnitt 108 wählt und liest Registrierungsinformation (Teilraum) entsprechend der folglich bestimmten ID Nummer aus der reduzierten Anzahl an Registrierungsinformationsdatenstücken in dem Registrierungsinformationsspeicherabschnitt 109 (Schritt ST36). Wenn die Registrierungsinformation durch Bestimmung der ID Nummer bestimmt worden ist, berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jeder Registrierungsinformation und einem Eingabevektor (Eigenvektor, der basierend auf dem Eingabebild in dem Merkmalsmengenextrahierungsabschnitt 107 berechnet worden ist) oder einen Eingabeteilraum, um den Erkennungsprozess durch das Teilrahmenverfahren oder dergleichen durchzuführen (Schritt ST37).
  • Als Nächstes vergleicht der Erkennungsabschnitt 108 die in Schritt ST37 hergeleitete Ähnlichkeit mit einem voreingestellten Schwellenwert (Schritte ST38, ST39). Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Person erfolgreich erkannt worden ist, und gibt das Erkennungsergebnis aus (Schritt ST40). Wenn als Ergebnis des Vergleichs bestimmt wird, dass die Ähnlichkeit nicht größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass die Person nicht erfolgreich erkannt worden ist und gibt einen Erkennungsfehler aus (Schritt ST41).
  • Wie oben erklärt, kann gemäß dem ersten Ausführungsbeispiel der Effekt erzielt werden, dass eine Hand der Person, die das Passwort oder ID Nummer eingibt, nicht die Eingabe eines Gesichtsbildes stört, durch Anordnen des Zehn-Tasten-Abschnitts auf der unteren rechten Seite von oder direkt unter der Kamera gesehen von der zu erkennenden Person aus. Ferner kann verhindert werden, dass die zu erkennende Person das Vorliegen der Kamera wahrnimmt, indem die Kamera in dem Zehn-Tasten-Abschnitt angeordnet wird.
  • 19 zeigt schematisch den Aufbau einer Gesichtsbilderkennungsvorrichtung gemäß dem zweiten Ausführungsbeispiel. Das zweite Ausführungsbeispiel ist ähnlich dem ersten Ausführungsbeispiel, mit der Ausnahme, dass der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 wie gemäß dem ersten Ausführungsbeispiel weggelassen sind, und die Kamera 101 in dem Zehn-Tasten-Abschnitt 104 angeordnet ist, beispielsweise in dem zentralen Bereich des Zehn-Tasten-Abschnitts 104, in welchem Tasten in einer rechteckigen Form angeordnet sind, wie im Einzelnen in 20 zeigt. Die anderen Bereiche sind gleich denen gemäß dem ersten Ausführungsbeispiel, und eine Erklärung dieser wird weggelassen.
  • Der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 sind weggelassen, da die vorliegende Vorrichtung an einem Ort installiert ist, wo die externe Beleuchtung stabil ist. Wenn die externe Beleuchtung stabil ist, ist also die Abweichung in dem Gesichtsbild, das mit der Kamera 101 fotografiert wird, gering. Ein Einfluss auf den Prozess zum Ext rahieren eines Gesichtsbildes von einem Bild, das mit der Kamera 101 fotografiert worden ist, auf dem Prozess zum Extrahieren der Gesichtsmerkmalsmenge und dergleichen kann unterdrückt werden. Wenn die externe Beleuchtung stabil ist, kann speziell die Art und Weise der Bildung des Schattens auf dem Gesichtsbild stabil sein, so dass die Gesichtsmerkmalsmenge, die von dem Bild extrahiert wird, das mit der Kamera 101 fotografiert worden ist, stabil gehalten werden kann. Wenn die externe Beleuchtung stabil ist, kann ein Einfluss auf den Erkennungsprozess verhindert werden, selbst wenn der Beleuchtungsabschnitt nicht vorgesehen ist, und die Vorrichtung kann klein gehalten werden. Selbst wenn der erste Beleuchtungsabschnitt 102 und der zweite Beleuchtungsabschnitt 103 installiert werden, wenn die externe Beleuchtung stabil ist, wird kein Einfluss auf die Ausführung des Erkennungsprozesses und dergleichen ausgeübt.
  • Wie in 20 gezeigt, wenn die Kamera 101 in dem Zehn-Tasten-Abschnitt 104 angeordnet ist, kann verhindert werden, dass die zu erkennende Person das Vorliegen der Kamera wahrnimmt, und die Vorrichtung kann klein gebildet werden.
  • Gemäß dem zweiten Ausführungsbeispiel, wie oben beschrieben, ist es möglich eine Gesichtsbilderkennungsvorrichtung und eine Durchlasskontrollvorrichtung zu schaffen, bei der das Gesichtsbild einer zu erkennenden Person in einem natürlichen Zustand erfasst werden kann, ohne dass die zu erkennende Person die Existenz des Bildeingabeabschnitts wahrnimmt, indem der Bildeingabeabschnitt innerhalb des Tasteneingabeabschnitts angeordnet wird.
  • Als Nächstes wird ein drittes Ausführungsbeispiel erklärt.
  • Im dritten Ausführungsbeispiel wird der Erkennungsprozess für Registrierungsinformationsdatenstücke durchgeführt, deren Anzahl reduziert wird, jedes Mal, wenn eine Stelle der ID Nummer eingegeben wird. In dem ersten Ausführungsbeispiel wurde der Betrieb zur Reduzierung der Anzahl an Registrierungsinformationsdatenstücken bei jeder Eingabe einer Stelle der ID Nummer erklärt, in dem dritten Ausführungsbeispiel jedoch wird die Anzahl an Registrierungsinformationsdatenstücken reduziert und der Erkennungsprozess für die reduzierte Anzahl an Registrierungsinformationsdatenstücken durchgeführt, jedes Mal, wenn eine Stelle der ID Nummer eingegeben wird.
  • Der Aufbau der Gesichtsbilderkennungsvorrichtung gemäß dem dritten Ausführungsbeispiel ist gleich der Gesichtsbilderkennungsvorrichtung, die gemäß dem ersten oder zweiten Ausführungsbeispiel erklärt worden ist, und folglich erfolgt keine detaillierte Beschreibung dieser.
  • Das erste Beispiel des Betriebs gemäß dem dritten Ausführungsbeispiel wird im Folgenden erklärt.
  • 21 zeigt ein Flussdiagramm zur Verdeutlichung des ersten Betriebsbeispiel gemäß dem dritten Ausführungsbeispiel. Das Flussdiagramm gemäß 21 zeigt hauptsächlich den Fluss des Prozesses eines Erkennungsabschnitts 108. In der folgenden Erklärung wird ein Fall erklärt, bei dem die ID Nummer durch eine dreistellige Nummer gebildet ist.
  • Wenn eine erste Stelle (erste obere Stelle) der ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST51), bestimmt der Erkennungsabschnitt 108, ob ein Gesichtsbild in einem Bild existiert, das mit der Kamera 101 fotografiert worden ist (Schritt ST52). Wenn in dem oben genannten Bestimmungsprozess bestimmt wird, dass kein Gesichtsbild vorliegt, gibt der Erkennungsabschnitt 108 den Prozess an Schritt ST51 zurück und wiederholt den oben genannten Vorgang. Selbst wenn die ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, betrachtet der Erkennungsabschnitt 108 die Eingabeoperation als gefährliche Operation oder fehlerhafte Operation, wenn kein Gesichtsbild in dem Bild existiert, das mit der Kamera 101 fotografiert worden ist. Die ID Nummer, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben worden ist, wird dann durch den Nummerneingabeverarbeitungsabschnitt 111 ungültig gemacht.
  • In Schritt ST52 wird ferner bestimmt, dass das Gesichtsbild existiert, der Nummerneingabeverarbeitungsabschnitt 111 macht die ID Nummer, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben worden ist, gültig und liefert selbige an den Erkennungsabschnitt 108. Wenn die erste Stelle der ID Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird, also wenn die erste Stellenziffer von der oberen Position der ID Nummer eingegeben wird, reduziert der Erkennungsabschnitt 108 die Anzahl an Registrierungsinformationsdatenstücken, wenn der Nummerneingabeverarbeitungsabschnitt 111 bestimmt, dass die eingegebene ID Nummer gültig ist. Der Erkennungsabschnitt 108 wählt speziell Registrierungsinformationsdatenstücke von allen ID Nummern aus, die die gleiche Ziffer wie die eingegebene Stellenziffer haben, aus allen Registrierungsinformationsdatenstücken, die in dem Registrierungsinformationsspeicherabschnitt 109 gespeichert sind, und reduziert folglich die Anzahl an Registrierungsinformationsdatenstücken (Schritt ST53).
  • Nachdem die Anzahl an Registrierungsinformationsdatenstücken gemäß der ersten oberen Stelle der ID Nummer reduziert worden ist, liest der Erkennungsabschnitt 108 die Registrierungsinformationsdatenstücke von der reduzierten Anzahl aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST54). Nach dem Auslesen der Registrierungsinformationsdatenstücke der reduzierten Anzahl berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jeder Registrierungsinformation und einem Eingabevektor (Eigenvektor des Teilraums, der basierend auf dem Eingabebild in dem Merkmalsmengenextrahierungsabschnitt 107 berechnet worden ist) oder einen Eingabeteilraum, um den Erkennungsprozess mit dem Teilraumverfahren oder dergleichen basierend auf den ausgelesenen Registrierungsinformationsdatenstücken durchzuführen. Nachdem alle Ähnlichkeiten im Bezug auf die Registrierungsinformationsdatenstücke der reduzierten Anzahl berechnet worden sind, leitet der Erkennungsabschnitt 108 den maximalen Wert der berechneten Ähnlichkeiten her (maximale Ähnlichkeit) (Schritt ST55).
  • Als Nächstes vergleicht der Erkennungsabschnitt 108 die maximale Ähnlichkeit, die in Schritt ST55 hergeleitet worden ist, mit einem voreingestellten Schwellenwert (Schritte ST56, ST57). Als Vergleichsergebnis, wenn bestimmt wird, dass die maximale Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass der Vergleich zwischen dem Gesichtsbild, das mit der Kamera 101 fotografiert worden ist, und der Registrierungsinformation der maximalen Ähnlichkeit erfolgreich durchgeführt wurde, und gibt das Erkennungsergebnis basierend auf der Erkennungsinformation aus (Schritt ST58).
  • Wenn die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108 bis eine nächste Stelle der ID Nummer eingegeben wird, indem der Zehn-Tasten-Abschnitt 104 verwendet wird. In diesem Zustand, wenn eine Eingabe mit einer Bestimmungstaste, die verwendet wird, um die ID Nummer zu bestimmen, nicht erfolgt, und eine nächste Stellenziffer (die zweite Stellenziffer von der oberen Position der ID Nummer) eingegeben wird, indem der Zehn-Tasten-Abschnitt 104 verwendet wird (Schritt ST59), reduziert der Erkennungsabschnitt 108 weiter die Anzahl an Registrierungsinformationsdatenstücken von den Registrierungsinformationsdatenstücken der Anzahl, die in dem vorherigen Zyklus reduziert worden ist (die Registrierungsinformationsdatenstücke der Anzahl, die basierend auf der ersten oberen Stellenziffer reduziert worden sind) basierend auf der eingegebenen zweiten oberen Stellenziffer (Schritt ST53).
  • Wenn die Anzahl an Registrierungsinformationsdatenstücken gemäß der zweiten Stelle der ID Nummer reduziert ist, liest der Erkennungsabschnitt 108 die Registrierungsinformationsdatenstücke der reduzierten Anzahl aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST54). Der Registrierungsabschnitt 108 berechnet dann die Ähnlichkeit zwischen dem Teilraum jeder Registrierungsinformation und einem Eingabevektor (Eigenvektor des Teilraums, der basierend auf dem eingegebenen Bild in dem Merkmalsmengenextrahierungsabschnitt 107 berechnet wird) oder einen Eingabeteilraum, um den Erkennungsprozess mit dem Teilraumverfahren oder dergleichen durchzuführen. Zu diesem Zeitpunkt, da die Anzahl an Registrierungsinformationsdatenstücken weiter reduziert ist, im Vergleich zu einem Fall im vorherigen Zyklus, ist es für den Erkennungsabschnitt 108 möglich die Ähnlichkeit zwischen der Registrierungsinformation und dem Eingabevektor oder Eingabeteilraum zu berechnen, indem ein Differenzerkennungsverfahren verwendet wird. Der Erkennungsabschnitt 108 kann dem Merkmalsmengenextrahierungsabschnitt 107 erlauben den Extraktionsprozess zum Extrahieren des Eigenvektors oder Eingabeteilraums von dem Eingabebild erneut durchzuführen.
  • Nachdem alle Ähnlichkeiten bezüglich der Registrierungsinformationsdatenstücke der Anzahl, die gemäß der zweiten oberen Stelle der ID Nummer reduziert worden sind, berechnet worden sind, leitet der Erkennungsabschnitt 108 den maximalen Wert der berechneten Ähnlichkeiten her (maximale Ähnlichkeit) (Schritt ST55). Wenn die maximale Ähnlichkeit hergeleitet ist, vergleicht der Erkennungsabschnitt 108 die maximale Ähnlichkeit, die in Schritt ST55 hergeleitet worden ist, mit einem vorgesetzten Schwellenwert (Schritte ST56, ST57). In diesem Fall, da die Anzahl an Registrierungsinformationsdatenstücken weiter reduziert ist, im Vergleich zu einem Fall im vorherigen Zyklus, kann der Schwellenwert, der mit der maximalen Empfind lichkeit zu vergleichen ist, auf einen Wert eingestellt werden, der kleiner ist als der Schwellenwert, der in dem vorangegangenen Zyklus verwendet worden ist.
  • Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die maximale Empfindlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass der Vergleich zwischen dem Eingabegesichtsbild und der Registrierungsinformation der maximalen Empfindlichkeit erfolgreich durchgeführt wurde, und gibt das Erkennungsergebnis basierend auf der Registrierungsinformation aus (Schritt ST58).
  • Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108 bis eine nächste Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird. In diesem Zustand, wenn eine Eingabe mit der Bestimmungstaste, die verwendet wird, um eine Beendigung der Eingabe der ID Nummer zu spezifizieren, nicht erfolgt, und eine nächste Stellenziffer (die dritte Stellenziffer von der oberen Position der ID Nummer) eingegeben wird durch Verwendung des Zehn-Tasten-Abschnitts 104 (Schritt ST59), reduziert der Erkennungsabschnitt 108 weiter die Anzahl an Registrierungsinformationsdatenstücken von den Registrierungsinformationsdatenstücken der Anzahl, die in dem zweiten Zyklus reduziert worden ist (die Registrierungsinformationsdatenstücke der Anzahl, die basierend auf der ersten und zweiten oberen Stellenziffer reduziert worden sind) basierend auf der eingegebenen dritthöheren Stellenziffer (Schritt ST53).
  • Wenn die Anzahl an Registrierungsinformationsdatenstücken gemäß der dritten Stelle ID Nummer reduziert worden ist, liest der Erkennungsabschnitt 108 die Registrierungsinformationsdatenstücke der reduzierten Anzahl aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST54), ähnlich wie im Falle des vorangegangenen Zyklus. Nach dem Auslesen der reduzierten Anzahl von Registrierungsinformatioilsdatenstücken berechnet der Erkennungsabschnitt 108 die Ähnlichkeit zwischen dem Teilraum jeder Registrierungsinformation und einem Eingabevektor (Eigenvektor von dem Merkmalsmengenextrahierungsabschnitt 107) oder einen Eingabeteilraum. Zu diesem Zeitpunkt, da die Anzahl an Registrierungsinformationsdatenstücken weiter reduziert ist, im Vergleich zu einem Fall im Vorangegangenen Zyklus, wird es möglich für den Erkennungsabschnitt 108 die Ähnlichkeit zwischen der Registrierungsinformation und dem Eingabevektor oder Eingabeteilraum zu berechnen, durch Verwendung eines Erkennungsverfahrens, das verschieden ist von dem in dem vorangegangenen Zyklus verwendeten. Der Erkennungsabschnitt 108 kann dem Merkmalsmengenextrahierungsabschnitt 107 erlauben den Extrahierungsprozess zum Extrahieren des Eigenvektors oder Eingabeteilraums von dem Eingabebild erneut durchzuführen.
  • Nachdem alle Ähnlichkeiten bezüglich der Registrierungsinformationsdatenstücke der Anzahl, die gemäß der dritten oberen Stelle der ID Nummer reduziert worden ist, berechnet worden sind, leitet der Erkennungsabschnitt 108 den maximalen Wert der berechneten Ähnlichkeiten (maximale Ähnlichkeit) her (Schritt ST55). Der Erkennungsabschnitt 108 vergleicht die maximale Empfindlichkeit, die in Schritt ST55 hergleitet worden ist, mit einem voreingestellten Schwellenwert (Schritte ST56, ST57). In diesem Fall, da die Anzahl an Registrierungsinformationsdatenstücken weiter reduziert ist, im Vergleich zu einem Fall im vorangegangenen Zyklus, kann der Schwellenwert, der mit der maximalen Ähnlichkeit zu vergleichen ist, auf einen Wert eingestellt werden, der kleiner als der Schwellenwert ist, der in dem vorangegangenen Zyklus verwendet worden ist.
  • Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die maximale Ähnlichkeit größer als der Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass der Vergleich zwischen dem Eingabegesichtsbild und der Registrierungsinformation mit maximaler Ähnlichkeit erfolgreich durchgeführt wurde, und gibt das Erkennungsergebnis basierend auf der Registrierungsinformation aus (Schritt ST58).
  • Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die maximale Ähnlichkeit nicht größer als der Schwellenwert ist, wartet der Erkennungsabschnitt 108 bis eine nächste Nummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird. In diesem Zustand, wenn die Bestimmungstaste, die verwendet, um die Beendigung der Eingabe der ID Nummer zu spezifizieren, betätigt wird, bestimmt der Erkennungsabschnitt 108, dass die Erkennung in einem Fehler resultiert, und gibt einen Erkennungsfehler aus. Wenn eine Abbruchtaste, die betrieben wird, um die Nummerneingabe durch Verwendung des Zehn-Tasten-Abschnitts 104 abzubrechen, betätigt wird, gibt der Erkennungsabschnitt 108 den Prozess zu Schritt ST51 zurück und wiederholt den Prozess der Schritt ST51 bis ST59.
  • In der oben gegebenen Beschreibung wird ein Fall geschildert, bei dem eine ID Nummer drei Stellen hat, die gleiche Wirkung, wie oben beschrieben, kann jedoch auch erhalten werden, indem der Prozess gemäß den Schritten ST51 bis ST59 durchgeführt wird, bis alle Ziffern einer ID Nummer bestimmt sind, selbst wenn die ID Nummer irgendeine Anzahl an Stellen hat, die eine andere als drei ist.
  • Wenn ein Erkennungsfehler erfolgt, können ferner die Erkennungsdaten, die von dem Gesichtsbild zu diesem Zeitpunkt gewonnen worden sind, in dem Registrierungsinformationsspeicherabschnitt 109 als neue Erkennungsdaten (Registrierungsinformation) gehalten werden, wie unter Bezugnahme auf den Registrierungsinformationszufügungsabschnitt 110 erklärt. Der genaue Prozess ist der gleiche, wie oben erklärt, und folglich erfolgt keine erneute Erklärung.
  • Wie oben beschrieben, wird gemäß dem ersten Betriebsbeispiel des dritten Ausführungsbeispiels die Anzahl der Registrierungsinformationsdatenstücke basierend auf der eingegebenen Nummer reduziert, und der Erkennungsprozess jedes Mal durchgeführt, wenn die Nummern der ID Nummer eingegeben werden. Wenn der Erkennungsprozess erfolgreich durchgeführt wird im Laufe der Eingabe der ID Nummer wird das Erkennungsergebnis zu diesem Zeitpunkt ausgegeben. Als Ergebnis kann die Zeit bis zur Ausgabe des Erkennungsergebnisses für den registrierten reduziert werden, und der psychologische zeitreduzierende Effekt auf den Benutzer kann erzielt werden.
  • Als Nächstes wird ein zweites Beispiel des Betriebs gemäß dem dritten Ausführungsbeispiel erklärt. 22 zeigt ein Flussdiagramm zur Verdeutlichung des zweiten Betriebsbeispiels gemäß dem dritten Ausführungsbeispiel. Das Flussdiagramm in 22 zeigt hauptsächlich den Fluss eines Prozesses in dem Erkennungsabschnitt 108.
  • Die Schritte ST71 bis ST77, ST79, wie in 22 gezeigt, sind die gleichen, wie die Schritte ST51 bis ST57, ST59. Folglich wird eine detaillierte Erklärung für die Schritte ST71 bis ST77, ST79 weggelassen.
  • Wenn in Schritt ST77 bestimmt wird, dass die maximale Ähnlichkeit größer als ein Schwellenwert ist, bestimmt der Erkennungsabschnitt 108, dass der Vergleich zwischen dem Ein gangsgesichtsbild und der Registrierungsinformation mit der maximalen Ähnlichkeit erfolgreich durchgeführt wurde. Basierend auf dem Bestimmungsergebnis bestimmt der Erkennungsabschnitt 108 eine ID Nummer basierend auf der Registrierungsinformation, die erfolgreich mit dem Eingabegesichtsbild verglichen worden ist. Der Erkennungsabschnitt 108 speichert dann die ID Nummer (Erkennungs ID Nummer), die basierend auf der Registrierungsinformation bestimmt worden ist, die erfolgreich mit dem Eingangsgesichtsbild verglichen worden ist, in einem Speicher (nicht gezeigt) oder dergleichen.
  • Nachdem die ID Nummer, die basierend auf der Registrierungsinformation bestimmt worden ist, die erfolgreich verglichen worden ist, in dem Speicher gespeichert worden ist, wartet der Erkennungsabschnitt 108 bis die zu erkennende Person den Bestimmungsschlüssel eingibt, der verwendet wird, um eine Beendigung der Eingabe der ID Nummer anzugeben (Schritt ST80). In diesem Zustand, wenn die Bestimmungstaste eingegeben wird, bestimmt oder entscheidet der Erkennungsabschnitt 108 die ID Nummer (eingegebene ID Nummer), die durch den Benutzer eingegeben wurde (Schritt ST81). Wenn die ID Nummer folglich durch den Benutzer bestimmt worden ist, vergleicht der Erkennungsabschnitt 108 die Erkennungs ID Nummer, die in dem Speicher gespeichert ist, mit der eingegebenen ID Nummer, die von dem Benutzer eingegeben wurde (Schritt ST83).
  • Als Ergebnis des Vergleichs, wenn bestimmt wird, dass die ID Nummer (Erkennungs ID Nummer), die von dem Erkennungsergebnis gewonnen wird, mit der ID Nummer (Eingabe ID Nummer), die von der zu erkennenden Person eingegeben worden ist, übereinstimmt, bestimmt der Erkennungsabschnitt 108, dass die Erkennung des Gesichtsbildes basierend auf der ID Nummer erfolgreich durchgeführt wurde, und gibt das Erkennungsergebnis aus. Wenn bestimmt wird, dass die Erkennungs ID Nummer nicht mit der Eingabe ID Nummer übereinstimmt, bestimmt der Erkennungsabschnitt 108, dass die Erkennung des Gesichtsbildes basierend auf den ID Nummern einen Fehler zur Folge hat, und gibt einen Erkennungsfehler aus.
  • Wenn ein Erkennungsfehler erfolgt, kann eine Erkennungsinformation, die eine Merkmalsmenge enthält, die aus dem Gesichtsbild zu diesem Zeitpunkt gewonnen worden ist, in dem Registrierungsinformationsspeicherabschnitt 109 als neue Erkennungsinformation gespeichert werden, wie unter Bezugnahme auf den Registrierungsinformationseinfügungsabschnitt 110 erklärt. Der Registrierungsprozess der neuen Erkennungsinformation ist der gleiche, wie oben erklärt, und folglich wird keine erneute Erklärung gegeben.
  • Wie oben beschrieben, wird gemäß dem zweiten Betriebsbeispiel des dritten Ausführungsbeispiels die Anzahl der Registrierungsinformationsdatenstücke reduziert, und der Erkennungsprozess jedes Mal durchgeführt, wenn eine der Ziffern der ID Nummer eingegeben wird. Wenn der Erkennungsprozess erfolgreich durchgeführt wird im Laufe der Eingabe der ID Nummer, wird die ID Nummer, die basierend auf der Erkennungsinformation gewonnen worden ist (Erkennungsinformation, die die maximale Ähnlichkeit liefert), die verwendet wird zur erfolgreichen Durchführung des Erkennungsprozesses, gespeichert. Nach der Beendigung der Eingabe einer ID Nummer durch den Benutzer wird die eingegebene ID Nummer mit der ID Nummer verglichen, die basierend auf der Erkennungsinformation gewonnen worden ist, die verwendet wird zur erfolgreichen Durchführung des Erkennungsprozesses. Wenn die verglichenen ID Nummer miteinander übereinstimmen, wird das Erkennungsergebnis ausgegeben, und wenn die verglichenen ID Nummern nicht miteinander übereinstimmen, wird ein Erkennungsfehler ausgegeben. Als Ergebnis kann die Sicherheit in dem Erkennungsprozess verbessert werden.
  • Wie oben beschrieben, wird gemäß dem dritten Ausführungsbeispiel die Anzahl an Registrierungsinformationsdatenstücken reduziert, und der Erkennungsprozess wird jedes Mal durchgeführt, wenn die zu erkennende Person eine Stelle der ID Nummer eingibt. Wenn der Erkennungsprozess basierend auf der ID Nummer, die von der zu erkennenden Person eingegeben wird, durchgeführt wird, kann eine erforderliche Zeitperiode vom Zeitpunkt des Startens der Eingabe der ID Nummer bis zum Zeitpunkt, zu dem das Erkennungsergebnis gewonnen wird, im Wesentlichen reduziert werden.
  • Wenn der Vergleich mit spezifizierter Registrierungsinformation im Wesentlichen erfolgreich durchgeführt wurde bevor die zu erkennende Person alle Ziffern der ID Nummer eingegeben hat, wird die spezifizierte Registrierungsinformation, mit der der Vergleich erfolgreich durchgeführt wurde, gespeichert. Wenn die Eingabe der ID Nummer durch die zu erkennende Person beendet ist, wird bestimmt, ob die ID Nummer, die von der zu erkennenden Person eingegeben worden ist, mit der ID Nummer der Registrierungsinformation, die als das Erkennungs ergebnis gewonnen worden ist, übereinstimmt. Als Ergebnis kann einfach bestimmt werden, ob die Erkennung erfolgreich durchgeführt wurde, oder fehlerhafte Ergebnisse vorliegen, durch Bestimmung, ob die ID Nummern miteinander übereinstimmen, wenn die Eingabe der ID Nummer beendet ist. Eine erforderliche Zeitperiode vom Zeitpunkt der Beendigung der Eingabe der ID Nummer bis zum Zeitpunkt des Endbestimmungsergebnisses kann reduziert werden.
  • Als Nächstes wird ein viertes Ausführungsbeispiel erklärt. Das vierte Ausführungsbeispiel ist ein Beispiel, das einen Fall zeigt, bei dem die Gesichtsbilderkennungsvorrichtung, die in dem ersten Ausführungsbeispiel erklärt wurde, für eine Durchgangskontrollvorrichtung verwendet wird, die ein Gesichtsbild eines Passierers erkennt und den Durchlass des Passierers steuert. In diesem Fall, wie bei dem Beispiel gemäß dem vierten Ausführungsbeispiel wird ein Fall erklärt, bei dem die Gesichtsbilderkennungsvorrichtung, die gemäß dem ersten Ausführungsbeispiel erklärt wurde, für die Durchgangskontrollvorrichtung verwendet wird, jedoch ist es auch möglich die Gesichtsbilderkennungsvorrichtung, die gemäß dem zweiten oder dritten Ausführungsbeispiel erklärt wurde, für eine Durchgangskontrollvorrichtung zu verwenden.
  • 23 zeigt schematisch die Durchgangskontrollvorrichtung gemäß dem vierten Ausführungsbeispiel. Die Durchgangskontrollvorrichtung führt beispielsweise eine Eingangs/Ausgangs-Verwaltung durch bezüglich einer wichtigen Einrichtung (beispielsweise eines Raums, bei dem Wert auf Sicherheit gelegt wird), erkennt das Gesichtsbild eines Besuchers (Passierers) und kontrolliert den Offen/Geschlossen-Zustand der Eingangs/Ausgangs-Tür der wichtigen Einrichtung basierend auf dem Erkennungsergebnis.
  • Die Durchgangskontrollvorrichtung enthält eine Kamera 101, einen ersten Beleuchtungsabschnitt 102, einen zweiten Beleuchtungsabschnitt 103, einen Zehn-Tasten-Abschnitt 104, einen Verarbeitungsabschnitt 105, einen Türsteuerabschnitt 112 als Durchgangskontrollmittel und einen Bildaufzeichnungsabschnitt 113 als Bildaufzeichnungsmittel. Der Türsteuerabschnitt 112 steuert den Offen/Geschlossen-Zustand einer Eingangs/Ausgangs-Tür 202 einer wichtigen Einrichtung (Besucherziel) 201 basierend auf dem Erkennungsergebnis in einem Erkennungsabschnitt 108. Der Bildaufzeichnungsabschnitt 113 ist ein Speicher, der ein Gesichtsbild aufnimmt, das mit der Kamera 101 fotografiert worden ist. In 23, da Bereiche, die andere sind als der Türsteuerabschnitt 112 und der Bildaufzeichnungsabschnitt 113 die gleichen sind, wie bei der Gesichtsbilderkennungsvorrichtung gemäß 1, werden gleiche Bezugszeichen verwendet, und eine Erklärung weggelassen.
  • Wie in den 24, 25 gezeigt, enthält der Zehn-Tasten-Abschnitt 104 beispielsweise Zifferntasten „0" bis „9", eine Bestimmungstaste und eine Abbruchtaste. Wie in den 26,27 gezeigt kann zusätzlich eine Ruftaste 104a auf dem Zehn-Tasten-Abschnitt 104 vorgesehen sein. Die Ruftaste 104a wird verwendet, um eine Person, die in dem Besuchsziel 201 lebt, zu rufen, wenn das Erkennungsergebnis des Erkennungsabschnitts 108 anzeigt, dass die hergeleitete Ähnlichkeit kleiner als der Schwellenwert in Schritt ST6 in 7 ist. Die 24 und 26 zeigen den Zehn-Tasten-Abschnitt 104, in welchem die Tasten in einer rechteckigen Form angeordnet sind, und die 25 und 27 zeigen den Zehn-Tasten-Abschnitt 104, bei dem die Tasten linear angeordnet sind (in einer linearen Form).
  • Der Erkennungsabschnitt 108 gibt beispielsweise ein Signal „Tür öffnen" an den Türsteuerabschnitt 112, wenn in Schritt ST6 in 7 bestimmt wird, dass die hergeleitete Ähnlichkeit größer als der Schwellenwert ist, oder in Schritt ST11 bestimmt wird, dass die abgeleitete Ähnlichkeit größer als der Schwellenwert ist. Der Erkennungsabschnitt 108 gibt dagegen ein Signal „Tür schließen" an den Türsteuerabschnitt 112, wenn die abgeleitete Ähnlichkeit kleiner als der Schwellenwert ist.
  • Wenn das Signal „Tür öffnen" von dem Erkennungsabschnitt 108 empfangen wird, steuert der Türsteuerabschnitt 112 die Eingangs/Ausgangs-Tür 202 und setzt diese in einen offenen Zustand, um der zu erkennenden Person (in diesem Fall ein Besucher) 100 zu erlauben die Tür zu passieren. Wenn das Signal „Tür schließen" empfangen wird, hält ferner der Türsteuerabschnitt 112 die Eingangs/Ausgangs-Tür 202 in einem geschlossenen Zustand, um dem Besucher 100 keinen Zutritt zu geben.
  • Wenn der Erkennungsabschnitt 108 das eingegebene Gesichtsbild nicht erkennen kann, speichert der Bildaufzeichnungsabschnitt 113 das Eingabegesichtsbild. Ein Videorekorder, ein Festplattenlaufwerk oder dergleichen können beispielsweise als Bildaufzeichnungsabschnitt 113 verwendet werden. Durch Aufnehmen des eingegebenen Gesichtsbildes kann die Information über den Besucher angeordnet und das Gesichtsbild einer zweifelhaften Person überprüft werden.
  • Als Nächstes wird ein Fall erklärt, bei dem die vorliegende Vorrichtung am Eingang eines Appartementhauses (beispielsweise einer Villa) oder dergleichen installiert ist. In diesem Fall kann durch Eingeben der Raumnummer als Identifikationsinformation des Besuchsziels durch Verwendung des Zehn-Tasten-Abschnitts 104 die Anzahl an Registrierungsinformationsdatenstücken reduziert werden. Wenn die Erkennung durch den Erkennungsabschnitt 108 erfolgreich durchgeführt wurde, wird die Eingangs/Ausgangs-Tür 202 entriegelt, und wenn die Erkennungsergebnisse falsch sind, wird die Person in dem Objektbesuchsziel 201 durch Verwendung der Ruftaste 104a gerufen.
  • Als Nächstes wird der genaure Prozess unter Bezugnahme auf das in 28 gezeigte Flussdiagramm beschrieben, der durchgeführt wird, wenn die vorliegende Vorrichtung am Eingang des Appartementhauses (beispielsweise einer Villa) oder dergleichen installiert ist. Das in 28 gezeigte Flussdiagramm zeigt hauptsächlich den Fluss eines Prozesses des Erkennungsabschnitts 108. In diesem Beispiel sei angenommen, dass eine Mehrzahl von Registrierungsinformationsdatenstücken (für alle Mitglieder der Familie beispielsweise) entsprechend einer Raumnummer in einem Registrierungsinformationsspeicherabschnitt 109 gespeichert sind.
  • Wenn eine Raumnummer durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben wird (Schritt ST91), bestimmt beispielsweise der Gesichtsbildeingabeabschnitt 106 oder der Merkmalsmengenextrahierungsabschnitt 107, ob ein Gesichtsbild in dem Bild vorliegt, das mit der Kamera 101 fotografiert worden ist (Schritt ST92). Wenn ein Eingabebild (Gesichtsbild) nicht existiert, kehrt der Prozess zu Schritt ST91 zurück, und der oben beschriebene Betrieb wird wiederholt. Wenn in Schritt ST92 bestimmt wird, dass das Gesichtsbild existiert, macht der Nummerneingabeverarbeitungsabschnitt 111 die Nummer gültig, die durch Verwendung des Zehn-Tasten-Abschnitts 104 eingegeben worden ist, und liefert selbige an den Erkennungsabschnitt 108. Der Erkennungsabschnitt 108 liest eine Mehrzahl von Registrierungsinformationsdatenstücken (Teilräume) aus, die entsprechend der Nummer (Raumnummer) registriert sind, die über den Zehn-Tasten-Abschnitt 104 eingegeben wurde, aus dem Registrierungsinformationsspeicherabschnitt 109 aus (Schritt ST93).
  • Wenn die Mehrzahl der Registrierungsinformationsdatenstücke, die der eingegebenen Raumnummer entsprechen, ausgelesen werden, berechnet der Erkennungsabschnitt 108 die Ähnlichkeiten zwischen der Mehrzahl der Registrierungsinformationsdatenstücke, die aus dem Registrierungsinformationsspeicherabschnitt 109 ausgelesen worden sind, und die Merkmalsmenge (Teilraum), die von dem Merkmalsmengenextrahierungsabschnitt 107 extrahiert worden sind, von dem Bild, das mit der Kamera 101 fotografiert worden ist (Schritt ST94). Wenn die Ähnlichkeiten bezüglich der Mehrzahl von Registrierungsinformationsdatenstücken berechnet werden, wählt der Erkennungsabschnitt 108 das Maximum der berechneten Ähnlichkeiten aus (Schritt ST95). Nach der Bestimmung der maximalen Ähnlichkeit vergleicht der Erkennungsabschnitt 108 die maximale Ähnlichkeit mit einem voreingestellten Schwellenwert (Schritte ST96, ST97).
  • Als Ergebnis des Vergleichs, wenn die maximale Ähnlichkeit größer als der voreingestellte Schwellenwert ist, gibt der Erkennungsabschnitt 108 ein Signal „Tür öffnen" an den Türsteuerabschnitt 112 (Schritt ST98). Als Ergebnis des Vergleichs, wenn die maximale Ähnlichkeit nicht größer als der voreingestellte Schwellenwert ist, gibt dagegen der Erkennungsabschnitt 108 ein Signal „Tür schließen" an den Türsteuerabschnitt 112 (Schritt ST99).
  • Information, beispielsweise eine Telefonnummer einer Person, die in dem Besuchsziel 201 wohnt, kann an Stelle der Raumnummer eingegeben werden, und die eingegebene Information der Person kann in eine Raumnummer konvertiert werden. In diesem Fall wird auch der gleiche Effekt erhalten, wie bei dem oben beschriebenen Beispiel.
  • Ferner kann die Eingangs/Ausgangs-Tür 202 verriegelt oder entriegelt werden, durch Verwendung einer physikalischen Taste 114 am Eingang der Villa. In diesem Fall, wie in 23 gezeigt, sei angenommen, dass ein Schlüsselempfangsabschnitt 114a, der den. physikalischen Schlüssel 114 empfängt, an der Eingangs/Ausgangs-Tür 202 der vorliegenden Vorrichtung bereitgestellt ist, und mit dem Nummerneingabeverarbeitungsabschnitt 111 verbunden ist. Wie in 29 gezeigt hat der physikalische Schlüssel 114 eine bestimmte Form für jeden Raum.
  • Wie in 29 gezeigt hat der physikalische Schlüssel 114, der am Eingang des „High-Class" Hauses oder der Villa verwendbar ist, einen Rillenbereich 115, der entsprechenden Räume gemeinsam ist, und einen Rillenbereich (Identifizierungsbereich, der dem Besuchsziel eigen ist) 116, verschieden für jeden Raum. Wenn der physikalische Schlüssel 114 in den Schlüsselaufnahmeabschnitt 114a eingeführt wird, identifiziert der Schlüsselaufnahmeabschnitt 114a den Rillenbereich 116 als rechtmäßig gehörend zu jedem Raum. Folglich erkennt der Schlüsselaufnahmeabschnitt 114a oder der Nummerneingabeverarbeitungsabschnitt 111 die Raumnummer entsprechend dem physikalischen Schlüssel 114. Folglich kann der oben genannte physikalische Schlüssel 114 an Stelle der Eingabe der Raumnummer verwendet werden.
  • Der konkrete Prozess wird unter Bezugnahme auf das in 30 gezeigte Flussdiagramm erklärt, der durchgeführt wird, wenn der physikalische Schlüssel 114 verwendet wird. Das Flussdiagramm in 30 ist im Grunde gleich dem Flussdiagramm gemäß 28, mit der Ausnahme des Prozesses in Schritt ST101 und die anderen Prozesse der Schritte ST102 bis ST109 von 30 sind gleich denen der Schritte ST92 bis ST99 in 28. In dem Schritt ST101 von 30, wenn der physikalische Schlüssel 114 in den Schlüsselaufnahmeabschnitt 114a eingeführt wird, erkennt der Schlüsselaufnahmeabschnitt 114a oder der Nummerneingabeverarbeitungsabschnitt 111 die Raumnummer entsprechend dem physikalischen Schlüssel 114 gemäß der Form des Rillenbereichs 116 des physikalischen Schlüssels 114. Basierend auf dem Erkennungsergebnis liefert der Schlüsselaufnahmeabschnitt 114a oder der Nummerneingabeverarbeitungsabschnitt 111 die Raumnummer entsprechend dem physikalischen Schlüssel 114 an den Erkennungsabschnitt 108. Der Prozess, der danach durchgeführt wird, ist gleich dem gemäß 28, und eine Erklärung wird nicht wiederholt.
  • Ferner kann ein Kartenleser, der eine Karte (Speichermedium), beispielsweise eine Funkkarte, eine IC Karte, eine magnetische Karte oder dergleichen verwenden kann, an Stelle des Zehn-Tasten-Abschnitts 104 verwendet werden, und Information, beispielsweise eine Raumnummer, die auf dem Aufzeichnungsmedium aufgezeichnet ist, kann eingegeben werden. In diesem Fall kann die gleiche Wirkung erhalten werden, wie bei dem oben genannten Betriebsbeispiel.
  • Wie oben beschrieben, kann gemäß dem vierten Ausführungsbeispiel der Durchlass eines Passierers (Eingang/Ausgang eines Besuchers) gesteuert werden durch Verwendung der Gesichtsbilderkennungsvorrichtung gemäß dem ersten, zweiten oder dritten Ausführungsbeispiel).
  • Ferner kann gemäß dem vierten Ausführungsbeispiel Information über den Besucher leicht angeordnet und das Gesichtsbild einer zweifelhaften Person überprüft werden, indem das eingegebene Gesichtsbild aufgenommen wird, wenn das Eingabegesichtsbild nicht erkannt werden kann.

Claims (7)

  1. Gesichtsbilderkennungsvorrichtung, die eine Person basierend auf einem Gesichtsbild erkennt, enthaltend: einen Tasteneingabeabschnitt (104), der einer zu erkennenden Person (100) erlaubt die eigene Identifikationsinformation einzugeben, einen Bildeingabeabschnitt (101), der ein Gesichtsbild einer zu erkennenden Person (100) eingibt, einen Beleuchtungsabschnitt (102, 103), der Licht in Richtung mindestens eines Gesichts der zu erkennenden Person (100) zuführt, einen Merkmalsmengenextraktionsabschnitt (107), der eine Merkmalsmenge des Gesichts der zu erkennenden Person (100) basierend auf der Gesichtsbildeingabe durch den Bildeingabeabschnitt (101) extrahiert, einen Merkmalsmengenregistrierungsabschnitt (109), in dem eine Referenzmerkmalsmenge vorher registriert wird, entsprechend der Identifikationsinformation der zu erkennenden Person (100), und einen Erkennungsabschnitt (108), der das Gesichtsbild der zu erkennenden Person (100) erkennt, durch Erfassen einer Referenzmerkmalsmenge entsprechend der Identifikationsinformationseingabe durch Verwendung des Tasteneingabeabschnitts (104) von dem Merkmalsmengenregistrierungsabschnitt (109) basierend auf der Identifikationsinformation, und Vergleichen der folglich erfassten Referenzmerkmalsmenge mit einer Merkmalsmenge, die von dem Merkmalsmengenextrahierungsabschnitt (107) extrahiert worden ist, dadurch gekennzeichnet, dass der Bildeingabeabschnitt (101) in dem Tasteneingabeabschnitt (104) angeordnet ist.
  2. Gesichtsbilderkennungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Beleuchtungsabschnitt (102) von der zu erkennenden Person (100) aus auf der oberen rechten Seite oder unteren linken Seite des Bildeingabeabschnitts (101) angeordnet ist.
  3. Gesichtsbilderkennungsvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass der Beleuchtungsabschnitt (102, 103) einen ersten Beleuchtungsabschnitt (102) enthält, der von der zu erkennenden Person (100) aus auf der oberen rechten Seite oder unteren linken Seite des Bildeingabeabschnitts (101) angeordnet ist und Licht in Richtung auf mindestens das Gesicht der zu erkennenden Person (100) zuführt, und einen zweiten Beleuchtungsabschnitt (103), der von der zu erkennenden Person (100) aus unterhalb des Bildeingabeabschnitts (101) angeordnet ist und Licht in Richtung auf mindestens das Gesicht der zu erkennenden Person (100) zuführt.
  4. Gesichtsbilderkennungsvorrichtung nach einem der Ansprüche 1 bis 3, gekennzeichnet durch ferner aufweisend einen Steuerabschnitt (111), der verhindert, dass der Tasteneingabeabschnitt (104) arbeitet, wenn kein Gesichtsbild durch den Bildeingabeabschnitt (101) eingegeben wird.
  5. Gesichtsbilderkennungsvorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Bildeingabeabschnitt (101) ausgelegt ist eine Eingabe eines Gesichtsbilds der zu erkennenden Person (100) zu starten, nachdem die Eingabe der Identifikationsinformation durch den Tasteneingabeabschnitt (104) gestartet ist.
  6. Gesichtsbilderkennungsvorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Identifikationsinformation der zu erkennenden Person (100) durch n (mehrere) Stellen von Zeichen konfiguriert ist, und der Erkennungsabschnitt (108) ausgelegt ist, wiederholt ein Verfahren zur Reduzierung der Anzahl an Registrierungsinformationsdatenstücken durchzuführen, in Antwort auf die Eingabe des n-ten Stellenzeichens, wenn die n-stellige Identifikationsinformation durch den Tasteneingabeabschnitt (104) eingegeben wird, und ferner ausgelegt ist zum Reduzieren der Anzahl der Registrierungsinformationsdatenstücke in Antwort auf die Eingabe des (n – 1)-ten Stellenzeichens, bis das Zeichen der ersten Stelle eingegeben ist, und eine Referenzmerkmalsmenge entsprechend der n-stelligen Identifikationsinformation erfasst.
  7. Durchlasskontrollvorrichtung, die ein Gesichtsbild einer Person (100) erkennt und den Durchlass der Person (100) steuert, gekennzeichnet durch enthaltend: die Gesichtsbilderkennungsvorrichtung nach einem der Ansprüche 1 bis 6, und einen Durchlasssteuerabschnitt (112), der den Durchlass der Person (100) basierend auf dem Erkennungsergebnis des Erkennungsabschnitts (108) steuert.
DE60201867T 2001-07-27 2002-07-24 Gerät zur Gesichtserkennung Expired - Lifetime DE60201867T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2001228346 2001-07-27
JP2001228346 2001-07-27
JP2002138513 2002-05-14
JP2002138513A JP2003108984A (ja) 2001-07-27 2002-05-14 顔画像認識装置、通行制御装置、顔画像認識方法、及び通行制御方法

Publications (2)

Publication Number Publication Date
DE60201867D1 DE60201867D1 (de) 2004-12-16
DE60201867T2 true DE60201867T2 (de) 2005-10-27

Family

ID=26619464

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60207863T Expired - Lifetime DE60207863T2 (de) 2001-07-27 2002-07-24 Vorrichtung und Verfahren zur Gesichtserkennung
DE60201867T Expired - Lifetime DE60201867T2 (de) 2001-07-27 2002-07-24 Gerät zur Gesichtserkennung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE60207863T Expired - Lifetime DE60207863T2 (de) 2001-07-27 2002-07-24 Vorrichtung und Verfahren zur Gesichtserkennung

Country Status (6)

Country Link
US (1) US7239725B2 (de)
EP (2) EP1406206B1 (de)
JP (1) JP2003108984A (de)
KR (1) KR100494007B1 (de)
DE (2) DE60207863T2 (de)
TW (1) TWI265459B (de)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
US7541547B2 (en) * 2002-12-19 2009-06-02 Incentahealth, Llc System and method for measuring and distributing monetary incentives for weight loss
JP2005030861A (ja) * 2003-07-10 2005-02-03 Casio Comput Co Ltd 人物管理装置およびプログラム
US7693308B2 (en) * 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US7889381B2 (en) * 2004-05-28 2011-02-15 Fujifilm Corporation Photo service system
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
EP1647918A1 (de) * 2004-10-13 2006-04-19 SkiData AG Zugangskontrollsystem
US7783581B2 (en) * 2005-01-05 2010-08-24 Nec Corporation Data learning system for identifying, learning apparatus, identifying apparatus and learning method
KR100703693B1 (ko) * 2005-01-13 2007-04-05 삼성전자주식회사 얼굴 인식 시스템 및 방법
US7522750B2 (en) * 2005-01-18 2009-04-21 International Biometrics Recognition Technologies Co., Ltd. Biometrics verification system and a method thereof
ES2296443B1 (es) * 2005-04-15 2009-03-01 Universidad Rey Juan Carlos Sistema de verificacion facial.
JP4797517B2 (ja) * 2005-08-31 2011-10-19 オムロン株式会社 監視装置および方法、並びにプログラム
JP4543157B2 (ja) * 2005-09-07 2010-09-15 独立行政法人産業技術総合研究所 テーブルトップコミュニティシステム
JP4749916B2 (ja) * 2006-04-07 2011-08-17 株式会社日立ソリューションズ 生体情報利用電気錠システム
JP4832951B2 (ja) * 2006-04-28 2011-12-07 富士通株式会社 生体認証装置および生体認証プログラム
US20070268365A1 (en) * 2006-05-16 2007-11-22 Bin-Chang Lee Entrance surveillance system
JPWO2007135735A1 (ja) * 2006-05-23 2009-09-24 グローリー株式会社 顔認証装置、顔認証方法および顔認証プログラム
JP4305672B2 (ja) * 2006-11-21 2009-07-29 ソニー株式会社 個人識別装置、個人識別方法、識別用辞書データの更新方法および識別用辞書データの更新プログラム
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
JP4577410B2 (ja) * 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR20100010465A (ko) * 2008-07-22 2010-02-01 주식회사 미래인식 개인 식별 문자 및 생체 인식 정보 비교를 통한 출입 관리 장치 및 방법
DE102008053395A1 (de) 2008-10-21 2010-04-29 Cognitec Systems Gmbh Verfahren und Einrichtung zur fotografischen Bilderfassung des Gesichtsfelds einer Person
FR2938109A1 (fr) * 2008-11-05 2010-05-07 St Microelectronics Rousset Memoire eeprom protegee contre les effets de claquage de transistors mos
JP5438419B2 (ja) * 2009-07-29 2014-03-12 富士フイルム株式会社 人物照合装置及び人物照合方法
KR101053253B1 (ko) * 2009-09-01 2011-08-02 (주)실리콘화일 3차원 정보를 이용한 얼굴 인식 장치 및 방법
TWI488151B (zh) * 2010-06-25 2015-06-11 Shinsoft Co Ltd 具影像監視之門禁保全系統與其監控方法
GB2482291A (en) * 2010-07-26 2012-02-01 St Microelectronics Res & Dev Automatic Control Module for Electronic Apparatus
JP6132490B2 (ja) * 2012-08-20 2017-05-24 キヤノン株式会社 認証装置、認証方法、およびプログラム
US10742046B2 (en) * 2012-12-03 2020-08-11 ChargeItSpot, LLC System and method for providing interconnected and secure mobile device charging stations
KR102290392B1 (ko) * 2014-12-02 2021-08-17 삼성전자주식회사 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치
US9912861B1 (en) * 2016-03-02 2018-03-06 Amazon Technologies, Inc. Systems and methods for determining a depth or reflectance of objects
CN107347144A (zh) * 2016-05-05 2017-11-14 掌赢信息科技(上海)有限公司 一种人脸特征点的编解码方法、设备及系统
CN105935191A (zh) * 2016-06-03 2016-09-14 海宁滴滴箱包智能科技有限公司 基于人脸识别的自能箱包
CN106157408A (zh) * 2016-07-05 2016-11-23 重庆蓝岸通讯技术有限公司 带视频监控远程开锁系统的智能锁
JP7050231B2 (ja) 2016-12-16 2022-04-08 パナソニックIpマネジメント株式会社 顔画像処理方法および顔画像処理装置
KR101878654B1 (ko) * 2016-12-21 2018-07-16 주식회사 슈프리마 광 조사 장치 및 방법
CN106971496A (zh) * 2017-05-02 2017-07-21 阜阳师范学院 一种具有行为识别功能的智能监控系统
US10089809B1 (en) 2017-06-14 2018-10-02 International Business Machines Corporation Cognitive intercom assistant
CN109544728B (zh) * 2017-09-21 2021-08-27 鸿富锦精密电子(天津)有限公司 区域人口管控系统及方法
CN108537922B (zh) * 2018-03-27 2020-06-02 南京甄视智能科技有限公司 基于人脸识别的访客预警方法和系统
JP7336683B2 (ja) * 2019-02-04 2023-09-01 パナソニックIpマネジメント株式会社 インターホンシステム、インターホンシステムの制御方法及びプログラム
CN111145403A (zh) * 2019-12-27 2020-05-12 航天信息股份有限公司 安防管理方法及系统
TWI722752B (zh) * 2020-01-03 2021-03-21 大鵬科技股份有限公司 智慧家庭保全系統及保全設定的解除方法
KR102464186B1 (ko) 2021-02-08 2022-11-09 주식회사 픽넘버 안면인식 및 열화상 검출기능을 갖는 키오스크 시스템 및 이를 이용한 출입통제방법
TWI806030B (zh) * 2021-03-31 2023-06-21 瑞昱半導體股份有限公司 應用於人臉辨識系統的處理電路及處理方法
CN113434851A (zh) * 2021-06-28 2021-09-24 国网山东省电力公司电力科学研究院 一种基于数据采集的密匙管理方法及系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4712103A (en) * 1985-12-03 1987-12-08 Motohiro Gotanda Door lock control system
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
JP3119558B2 (ja) 1994-05-16 2000-12-25 ホーユーテック株式会社 顔画像データ取り込み方法および装置並びにシステム
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
US6230148B1 (en) * 1994-11-28 2001-05-08 Veristar Corporation Tokenless biometric electric check transaction
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
JPH09212644A (ja) * 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd 虹彩認識装置および虹彩認識方法
JPH103339A (ja) * 1996-06-14 1998-01-06 Hitachi Ltd パーソナルコンピュータ用キーボード
JPH10134188A (ja) 1996-11-01 1998-05-22 Yamatake Honeywell Co Ltd 顔画像照合装置
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
US6145738A (en) * 1997-02-06 2000-11-14 Mr. Payroll Corporation Method and apparatus for automatic check cashing
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
JP3564984B2 (ja) 1997-12-02 2004-09-15 オムロン株式会社 本人特定装置及び本人特定方法
JP3621245B2 (ja) 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
JPH11191856A (ja) 1997-12-25 1999-07-13 Canon Inc 撮像装置および撮像方法
US6160903A (en) * 1998-04-24 2000-12-12 Dew Engineering And Development Limited Method of providing secure user access
JP3580129B2 (ja) 1998-05-06 2004-10-20 オムロン株式会社 本人識別装置
JP2001005836A (ja) 1999-04-23 2001-01-12 Oki Electric Ind Co Ltd アイリス登録システム

Also Published As

Publication number Publication date
EP1406206A1 (de) 2004-04-07
DE60207863D1 (de) 2006-01-12
US20030185423A1 (en) 2003-10-02
JP2003108984A (ja) 2003-04-11
TWI265459B (en) 2006-11-01
KR100494007B1 (ko) 2005-06-10
DE60207863T2 (de) 2006-08-10
US7239725B2 (en) 2007-07-03
DE60201867D1 (de) 2004-12-16
EP1280095A1 (de) 2003-01-29
EP1280095B1 (de) 2004-11-10
EP1406206B1 (de) 2005-12-07
KR20030011582A (ko) 2003-02-11

Similar Documents

Publication Publication Date Title
DE60201867T2 (de) Gerät zur Gesichtserkennung
DE60313105T2 (de) Fingerabdruck-basierte Authentifizierungsvorrichtung
DE60125759T2 (de) Biometrische identitätsprüfung
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE60217597T2 (de) Gerät und Verfahren zur Personenerkennung
DE60121784T2 (de) Fernbedienung für eine klimaanlage und klimaanlage
DE60133788T2 (de) Bildverarbeitungsgerät und Verfahren zum Ermitteln von Merkmalen von Gesichtern
DE69922082T2 (de) System und Verfahren zur biometrischen Authentifizierung eines Benutzers mit einer Chipkarte
DE69920296T2 (de) Verfahren und Vorrichtung zum Registrieren und Vergleichen von Handflächenabdrücken
DE60119418T2 (de) Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE60220284T2 (de) Fingerabdrucknarbenerkennungsverfahren und -vorrichtung
DE2831582C2 (de) Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens
US7050608B2 (en) Face image recognition apparatus
DE60314989T2 (de) Verfahren und Einrichtung zur Überprüfung von Fingerabdrücken
DE19610066C1 (de) Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen
EP1395943A2 (de) Verfahren zum prüfen eines fingerabdrucks
DE60017088T2 (de) System und verfahren zur überprüfung von fingerabdrücken
EP2070010A1 (de) Verfahren und vorrichtung zum erkennen eines gesichts sowie ein gesichtserkennungsmodul
AT501370B1 (de) Vorrichtung zur biometrischen steuerung von anlagen
DE202022107266U1 (de) Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern
DE112004002555T5 (de) Verfahren und System zum qualitätsbasierten Fingerabdruckabgleich
JPH02187866A (ja) 個人照合方法および装置
DE60223088T2 (de) Biometrisches sicherheitssystem
DE102011054449B4 (de) Selbstlernende personallose biometrische Zutrittskontrolle

Legal Events

Date Code Title Description
8364 No opposition during term of opposition