WO2001088857A1 - Biometrisches identifizierungs- und authentifizierungsverfahren - Google Patents

Biometrisches identifizierungs- und authentifizierungsverfahren Download PDF

Info

Publication number
WO2001088857A1
WO2001088857A1 PCT/CH2000/000270 CH0000270W WO0188857A1 WO 2001088857 A1 WO2001088857 A1 WO 2001088857A1 CH 0000270 W CH0000270 W CH 0000270W WO 0188857 A1 WO0188857 A1 WO 0188857A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
named
eye movement
biometric identification
authentication method
Prior art date
Application number
PCT/CH2000/000270
Other languages
English (en)
French (fr)
Inventor
Eric Lauper
Adriano Huber
Original Assignee
Swisscom Mobile Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2001584373A priority Critical patent/JP2003533801A/ja
Priority to EP00925008A priority patent/EP1285409B1/de
Priority to IL15275600A priority patent/IL152756A0/xx
Priority to DE50010319T priority patent/DE50010319D1/de
Application filed by Swisscom Mobile Ag filed Critical Swisscom Mobile Ag
Priority to ES00925008T priority patent/ES2241598T3/es
Priority to AT00925008T priority patent/ATE295585T1/de
Priority to AU2000243889A priority patent/AU2000243889A1/en
Priority to DK00925008T priority patent/DK1285409T3/da
Priority to PCT/CH2000/000270 priority patent/WO2001088857A1/de
Priority to CNB00819730XA priority patent/CN1236397C/zh
Priority to PT00925008T priority patent/PT1285409E/pt
Publication of WO2001088857A1 publication Critical patent/WO2001088857A1/de
Priority to US10/290,663 priority patent/US7346195B2/en
Priority to IL152756A priority patent/IL152756A/en
Priority to US12/020,962 priority patent/US7630524B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Definitions

  • the present invention relates to a biometric identification and authentication method.
  • the present invention relates in particular to a method which allows users with eye-based features to be identified and / or authenticated.
  • an identification module for example in the form of a chip card
  • the identity of the user for example his IMSI (International Mobile Subscriber Identity) in the case of a mobile radio network
  • IMSI International Mobile Subscriber Identity
  • this identity only allows identification of the chip card used. If the same module is used by several users (for example if several users use the same mobile phone), the identity of the actual user of the terminal cannot be determined using this method.
  • biometric identification methods allow the identification of a user on the basis of personal body characteristics (for example fingerprints, language characteristics, iris or retina patterns, etc.).
  • An example of such a method is described in patent application WO99 / 24938.
  • Fingerprints, iris and retina patterns can be determined with a biometric sensor (e.g. with a camera).
  • the sensor supplies an image file which is compared with reference images stored in a reference database.
  • Various methods are known for comparing the determined image file with stored references in the database and for finding the most suitable sample file.
  • Another goal is to offer a new biometric method to identify a user in a communication network regardless of the terminal used.
  • Another goal is a new biometric identification
  • Offer authentication method that generates comparison data with a relatively small size.
  • these goals are achieved in that the user is identified and / or authenticated by determining personal involuntary eye movement patterns with an eye movement determination module.
  • Involuntary eye movements depend on personal neurological connections between different imagining functions in the neurological system and between different neural structures. Each person scans an image with their eyes in a very personal way, some faster, others with more saccades, etc. Some viewers blink more often than others, or in response to other events (for example, changes in lighting conditions or emotional states). Variations in the pupil diameter also result in personal patterns.
  • comparison data can thus be determined which uniquely identify the viewer and / or with which the user identity can be checked.
  • the instant direction determination module can be a camera use, which does not necessarily have to be in the immediate vicinity of the user's eye.
  • FIG. 1 shows a block diagram in which, on the one hand, a terminal according to the invention and, on the other hand, a server according to the invention, which is connected to this terminal via a communication network, are illustrated schematically.
  • Figure 2 shows an example of the eye trajectory of a user viewing an image with a virtual retinal device.
  • Figure 3 shows an example of an image that can be presented to the user.
  • reference number 1 relates to the user of a terminal 2, with which transactions can be carried out with a remote server 4 via a communication network 2.
  • Terminal 2 is preferably portable and, in a preferred variant, can consist of a mobile radio telephone, a palm top, a laptop or a combination of various interconnected components, the connection preferably being able to be established via a PC card, IrDA or Bluetooth interface ,
  • the terminal contains a chip card, not shown, for example a SIM card (Subscriber Identification Module), in which user-specific data are stored.
  • SIM card Subscriber Identification Module
  • the terminal contains a module 20 for determining eye movements.
  • the module 20 consists, for example, of an instant direction determination module (eye tracker), which can determine the current viewing direction based on the position of the pupil and / or the head of the user 1.
  • instant direction determination modules have been described, inter alia, in patent application WO94 / 09472.
  • the module 20 can preferably determine different types of involuntary eye movements, for example blinking, as described in patent application GB2281838, variations in the diameter of the pupil, etc.
  • movements of only one eye or of both eyes can be determined; in this latter case, squinting eye movements can also be determined.
  • body reactions are preferably determined by the module.
  • a parameter dependent on the body temperature is measured, for example the reaction of the retina to heating caused by the terminal 2.
  • the response of the iris to light variations caused by Terminal 2 is determined. In this way it can be checked whether the determined image of the eye really belongs to a person.
  • the terminal 2 preferably comprises image display means 21 which can display visible images for the user 1.
  • the image display means 21 consist of a conventional display, for example a CRT, liquid crystal or plasma display.
  • they consist of a so-called microdisplay with a suitable lens system, preferably a virtual retinal display device (VRD, Virtual Retinal Display) which projects the image directly onto the retina of one or both eyes of the user 1.
  • VRD Virtual Retinal Display
  • Virtual retinal display devices have been described, for example, in patent applications WO94 / 09472, WO97 / 37339 and WO98 / 13720 and therefore need no longer be described.
  • the VRD device 21 is controlled by a video controller 22 to project image signals corresponding to a two-dimensional or three-dimensional image onto the fovea of the user's eye.
  • Terminal 2 is controlled by data processing means 23, for example in the form of a processor 23 with a memory area (not shown).
  • the processor 23 controls in particular the video controller 22 and processes the data from the eye part movement determination module 20.
  • a software and / or hardware module 230 in the processor 23 or connected to this processor is for securing the data transmission with external devices 4 responsible, as explained later.
  • the data processing means 23 and the security module 230 can be produced from a single chip, or from a large number of components logically connected to one another.
  • the data processing means 23 preferably comprise components in the mobile phone and components in the removable chip card (SIM card) which is connected to this mobile phone.
  • SIM card removable chip card
  • security-critical components that are used by the security module 230 are located in the chip card.
  • the terminal also includes a communication part 24 with which it can connect to a communication network 3.
  • the communication part 24 preferably consists of a GSM or UMTS communication part, a modem, or a contactless interface in the close range, for example according to IrDA, Bluetooth, HomeRF or DECT.
  • the communication network 3 is, for example, a mobile radio network, for example according to GSM or UMTS, but could also be the Internet or consist of several networks.
  • the terminal 2 can connect to a central remote server 4, for example an http or WAP server, which is managed by the operator of the communication network 3 and / or by a service provider.
  • the data transmission between the terminal 2 and the remote server 4 is preferably secured end-to-end, for example using the protocol SSL (Secure Sockets Layer), TLS (Transport Layer Security) and / or WTLS (Wireless Transport Layer Security).
  • Data that are sent from the terminal 2 to the server 4 are preferably electronically signed by the security module 230, preferably with an electronic private key, which is stored in an electronic certificate in the SIM card.
  • the terminal 2 preferably includes additional data input means, not shown, for example a keyboard, a mouse, a rolling element, a microphone, etc., with which the processor 23 can be controlled.
  • additional data input means for example a keyboard, a mouse, a rolling element, a microphone, etc., with which the processor 23 can be controlled.
  • the user 1 can set up a session with the server 4 by entering the corresponding URL address or telephone number in his terminal 2.
  • a session can be set up, for example, to carry out a transaction between the user 1 and the service provider who operates the server, for example to order and / or pay for a product or service from the service provider 4.
  • FIG. 2 schematically shows a user 1 with an embodiment variant of the terminal according to the invention, which is integrated here in glasses.
  • the glasses contain the mobile radio part 24, the VRD display device 21, which can project images onto the retina of the user 1, the processor 23 and the eye tracking system 20.
  • the reference number 5 shows an example of the trajectory of an eye when scanning one of them User presented picture 5.
  • the Ver- Terminal 2 can be identified relatively easily on the basis of the transmitted caller number (MSISDN) or the number stored in the chip card in the terminal (IMSI, International Mobile Subscriber Identification); this identity can also be determined with an electronic signature of the transaction documents.
  • MSISDN transmitted caller number
  • IMSI International Mobile Subscriber Identification
  • Terminal 2 is operated by several people (for example by several family members), the stored identification is not sufficient to identify the person who actually uses Terminal 2; only the chip card is identified, not the current user of this card. If Terminal 2 is stolen or used by an unauthorized person, the transmitted identity must be authenticated for security-critical transactions.
  • this identification and authentication process is carried out using a biometric method in which personal involuntary eye movement patterns are determined.
  • the eye movement determination module 20 can be used to determine various types of involuntary eye movements, which can be used to identify and / or authenticate the user; we will only describe a few examples.
  • the eye moves along a trajectory 51, an example of which is shown in FIG. 2. It has been observed by neurologists and doctors that this trajectory is not linear; the eye remains focused on certain points 52, 53 longer, then moves quickly until it finds another point of interest, etc.
  • the eye also makes rapid movements known as saccades 54 to perceive the fringe field.
  • saccades 54 to perceive the fringe field.
  • the eye makes large saccades, usually from one edge to the other.
  • the eye also makes so-called microsaccades around a position, which are local.
  • the shape, the number and the triggering of the Saccades are personal and therefore form an identification and / or authentication feature.
  • the trajectory of the eye of a user 1 on a specific image depends on the physiology of the eye, among other things on its muscles, but above all on the neurological structures of the user brain. It is therefore absolutely personal and can be used to identify and / or authenticate the user.
  • this trajectory for example the preferred scanning direction, the average scanning speed and / or acceleration, the number of viewing points, the time at each point, the number and shape of the microsaccades and the larger saccades, the entropy of the trajectory, etc.
  • Eye movement determination module and / or determined by the processor 23 in order to thus define a user-specific eye movement pattern with which the user can be identified and / or authenticated.
  • the processor 23 can also determine other movement patterns, for example blink movement patterns. Some users blink more often than others, or in response to other events. If the user 1 is presented with a three-dimensional image, it is also possible to determine the accommodation of the eye at a distance (eye focalization pattern). As a variant or as an additional parameter one can use the variations of the pupil diameter (for example the reaction time, the adaptation speed, the absolute value, etc.). It will be understood that the determined eye movement pattern can also take movements of both eyes into account. In a preferred variant, the determined eye movement pattern takes into account different types of eye movements.
  • a two- or three-dimensional image 5 is preferably presented to the user with the image display means 21.
  • the module 20 determines the named eye movement pattern while viewing of this picture. In this way, the eye movement pattern is determined using a known reference image, so that no image-related pattern variations occur.
  • the image presented to the user can contain, for example, a logo or an introductory image of the service provider 4, which is presented to the user 1 each time the server of this service provider is accessed.
  • An example of such an image is shown in FIG. 3.
  • the image is logically divided into several image areas 500 to 507;
  • the personal eye movement pattern can then also contain information about the areas to which the eye has been directed longest, the sequence of the image areas viewed, etc.
  • the user 1 can also be presented with a sequence of several images.
  • the scanning trajectory over each image, the variations in the pupil diameter when the image changes, the blinking in response to changes in the light conditions or the image content, etc. can then be used to identify and / or authenticate the user.
  • eye movements can also be caused (for example by presenting special images or image sequences) and the reaction to these images or image sequences (for example the variations in the pupil diameter or the blinking) is determined as a pattern.
  • the determined eye movement pattern is then encoded by the processor 23 to calculate a numerical or alphanumeric code which identifies the user 1 as clearly as possible and whose size is minimal so that it can be transmitted quickly.
  • the resulting comparison data are then passed via a suitable transmission channel (for example with a known WAP bearer) from the communication part 24 to the server 4 of a service provider.
  • the transmission is preferably secured end-to-end; the comparison data are preferably also electronically signed by a security module 230 in the processor 23 or in a chip card in the terminal 2 and thus encrypted with the public key of the service provider 4 only he can decrypt the comparison data and check their origin.
  • the server 4 contains or accesses a reference database 40 in which eye movement data of all registered users are stored. These reference data are determined, for example, when users register with the service provider and are stored in database 4.
  • the server compares the comparison data received with all reference data stored in database 40. From the reference database 40, the server determines the identity of the user with those reference data which are most similar to the comparison data obtained. This identity can be used for further transactions.
  • the comparison between the comparison data obtained and the stored reference data can be carried out, for example, with a Viterbi grid, which indicates the most likely user among all registered users.
  • the server can only research among the ordinary users of this terminal (for example among the family members). The method according to the invention can thus be used to determine the actual current user of the terminal 2 among all authorized or regular users of the terminal.
  • This procedure can also be used to check an already known identity (authentication). If the user identity has already been recorded by the user himself, a comparison between the comparison data obtained and the reference data stored for this user in the database 40 can be used to determine whether the entered identity is plausible.
  • the person skilled in the art will understand that the comparison between the determined and the stored data can also take place in Terminal 2. In this case, access to this terminal or to certain functions or programs in this terminal is only guaranteed if the result of this comparison is positive, that is to say if the user identified and / or authenticated with his involuntary eye movements is authorized to access.
  • the method according to the invention can also be used for the identification and authentication of users of other devices.
  • this method can also be used with computers, for example for transactions with the Internet or to secure access to corporate servers.

Abstract

Biometrisches Identifizierungs- und/oder Authentifizierungsverfahren, um den Benutzer (1) eines Terminals (2) zu identifizieren und/oder zu authentifizieren, in welchem der benannte Benutzer durch Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern mit einem Augenbewegungsbestimmungsmodul (20) identifiziert und/oder authentifiziert wird. Der Benutzer wird beispielsweise durch Ermittlung von Merkmalen der persönlichen Trajektorie (51) der Augen auf einem Bild identifiziert und/oder authentifiziert.

Description

Biometrisches Identifizierungs- und Authentifizierungsverfahren.
Die vorliegende Erfindung betrifft ein biometrisches Identifizierungs- und Authentifizierungsverfahren. Die vorliegende Erfindung betrifft insbesondere ein Verfahren, welches erlaubt, Benutzer mit augenbasieren- den Merkmalen zu identifizieren und/oder zu authentifizieren.
Es sind schon verschiedene Verfahren bekannt, um die Identität eines Benutzers in einem Kommunikationsnetz zu ermitteln. Oft wird vom Benutzer verlangt, dass er selbst seine Identität eingibt; meistens wird ein Passwort verlangt, damit nur der berechtigte Benutzer diese Identität im Netz verwenden kann. Es ist jedoch schwierig, sich an viele verschiedene Passwörter für verschiedene Anwendungen zu erinnern. Die Eingabe von Passwörtern mit Terminals, die nur über eine kleine Tastatur verfügen (beispielsweise mit Mobilfunktelefonen oder mit Palmtops) ist ausserdem umständlich und fehleranfällig.
Es ist auch bekannt, ein Identifizierungsmodul (beispielsweise in der Form einer Chipkarte) zu verwenden, in welchem die Identität des Benutzers, beispielsweise im Fall eines Mobilfunknetzes seine IMSI (International Mobile Subscriber Identity), in einem gesicherten Gebiet abgelegt ist. Diese Identität erlaubt jedoch nur eine Identifizierung der verwendeten Chipkarte. Wird das selbe Modul von mehreren Benutzern verwendet (beispielsweise wenn mehrere Benutzer das selbe Mobilfunktelefon verwenden) kann mit diesem Verfahren die Identität des tatsächlichen Benutzers des Terminals nicht ermittelt werden.
Es wurden auch sogenannte biometrische Identifizierungsver- fahren vorgeschlagen, die erlauben, die Identität eines Benutzers anhand von persönlichen Körpermerkmalen (beispielsweise Fingerabdrücke, Sprachmerkmale, Iris- oder Retina-Muster usw.) zu ermitteln. Ein Beispiel eines solchen Verfahren ist in der Patentanmeldung WO99/24938 beschrieben. Fingerabdrücke, Iris- und Retina-Muster können mit einem biometrischen Sensor (beispielsweise mit einer Kamera) ermittelt werden. Der Sensor liefert eine Bilddatei, die mit in einer Referenzdatenbank abgelegten Referenzbildern verglichen wird. Es sind verschiedene Verfahren bekannt, um die ermittelte Bilddatei mit abgelegten Referenzen in der Datenbank zu vergleichen und um die am besten passende Musterdatei zu finden.
Solche Bilddateien sind jedoch relativ gross und müssen vor der Übertragung zur Referenzdatenbank komprimiert werden, damit die Über- tragungszeit nicht zu lang wird. Diese Komprimierung ist jedoch zeitaufwendig und verlangt eine nicht immer vorhandene Rechnungsleistung; die komprimierte Datei ist für eine schnelle und billige Übertragung oft immer noch zu gross. Ausserdem ist der Bildvergleichsprozess in der Referenzdatenbank sehr zeitaufwendig.
Ähnliche Lösungen, die ähnliche Probleme aufweisen, werden auch für die Authentifizierung von Benutzern in einem Kommunikationsnetz verwendet, das heisst für die Prüfung der Identität eines bereits identifizierten Benutzers.
Es ist eine Aufgabe dieser Erfindung, ein neues und besseres Verfahren anzubieten, um den Benutzer eines Terminals zu identifizieren, und/oder um die Identität eines Benutzers zu prüfen (Authentifikation).
Ein anderes Ziel ist es, ein neues biometrisches Verfahren anzubieten, um einen Benutzer in einem Kommunikationsnetz unabhängig vom verwendeten Terminal zu identifizieren.
Ein anderes Ziel ist, ein neues biometrisches Identifizierungs- und
Authentifizierungs-Verfahren anzubieten, das Vergleichsdaten mit einer relativ kleinen Grosse erzeugt.
Gemäss der vorliegenden Erfindung werden diese Ziele insbesondere durch die Merkmale der unabhängigen Ansprüche erreicht. Weitere vorteilhafte Ausführungsformen gehen ausserdem aus den abhängigen Ansprüchen und der Beschreibung hervor.
Insbesondere werden diese Ziele dadurch erreicht, dass der Benutzer durch Ermittlung von persönlichen unwillkürlichen Augenbe- wegungsmustern mit einem Augenbewegungsbestimmungsmodul identifiziert und/oder authentifiziert wird.
Unwillkürliche Augenbewegungen (beispielsweise die Trajektorie des Auges beim Scanning eines Bildes) sind von persönlichen neurologischen Verbindungen zwischen verschiedenen Vorstellungsfunktionen im neurologischen System und zwischen verschiedenen neuralen Strukturen abhängig. Jede Person scannt ein Bild mit den Augen auf eine sehr persönliche Art, manche schneller, andere mit mehr Saccaden, usw. Manche Betrachter blinzeln öfter als andere, oder als Reaktion auf andere Ereignisse (beispielsweise auf Änderungen der Lichtverhältnisse oder auf emotionale Zustände). Auch Variationen im Pupillendiameter ergeben persönliche Muster.
Durch Ermittlung dieser unwillkürlichen Augenbewegungsmuster (beispielsweise mit einem Augenbewegungsbestimmungsmodul) lassen sich somit Vergleichsdaten bestimmen, die den Betrachter eindeutig identifi- zieren und/oder mit welchen die Benutzeridentität geprüft werden kann.
Dies hat den Vorteil, dass die ermittelten Vergleichsdaten relativ klein sind und somit sehr schnell und kostengünstig übertragen werden können. Ausserdem kann das erfindungsgemässe Verfahren nur schwer betrogen werden.
Wird dieses Verfahren mit Terminals, die schon über ein
Augenblickrichtungsbestimmungsmodul verfügen, angewendet, kann es mit einem relativ geringem Aufwand durchgeführt werden. Im Vergleich zu Systemen, die ein Bild der Iris oder der Retina aufnehmen, ist das erfindungsgemässe Verfahren nur wenig intrusiv. Das Augenblickrichtungsbestimmungsmodul kann beispielsweise eine Kamera verwenden, die sich nicht unbedingt in unmittelbarer Nähe des Benutzerauges befinden muss.
Nachfolgend wird eine Ausführung der vorliegenden Erfindung anhand eines Beispiels beschrieben. Das Beispiel der Ausführung wird durch folgende beigelegten Figuren illustriert:
Figur 1 zeigt ein Blockdiagramm, in welchem schematisch einerseits ein erfindungsgemässes Terminal und andererseits ein erfindungs- gemässer Server, der über ein Kommunikationsnetz mit diesem Terminal verbunden ist, illustriert werden.
Figur 2 zeigt ein Beispiel der Augentrajektorie eines Benutzers, der ein Bild mit einer virtuellen retinalen Vorrichtung betrachtet.
Figur 3 zeigt ein Beispiel eines Bildes, das dem Benutzer vorgestellt werden kann.
In der Figur 1 bezieht sich die Bezugsziffer 1 auf den Benutzer eines Terminals 2, mit welchem Transaktionen über ein Kommunikationsnetz 2 mit einem Fernserver 4 durchgeführt werden können. Das Terminal 2 ist vorzugsweise tragbar und kann in einer bevorzugten Variante aus einem Mobilfunktelefon, aus einem Palmtop, aus einem Laptop oder aus einer Kombination von verschiedenen miteinander verbundenen Komponenten bestehen, wobei die Verbindung vorzugsweise über eine PC- Card, IrDA oder Bluetooth Schnittstelle erfolgen kann. In einer bevorzugten Variante enthält das Terminal eine nicht dargestellte Chipkarte, beispielsweise eine SIM-Karte (Subscriber Identification Module), in welcher benutzerspezifischen Daten abgelegt sind.
Das Terminal enthält ein Modul 20 zur Bestimmung von Augenbewegungen. Das Modul 20 besteht beispielsweise aus einem Augenblickrichtungsbestimmungsmodul (Eye Tracker), welches die aktuelle Betrachtungsrichtung basierend auf der Position der Pupille und/oder des Kopfes des Benutzers 1 bestimmen kann. Solche Augenblickrichtungsbestimmungsmodule wurden unter anderem in der Patentanmeldung WO94/09472 beschrieben. Vorzugsweise kann das Modul 20 verschiedene Typen von unwillkürlichen Augenbewegungen bestimmen, beispielsweise Blinzeln, wie in der Patentanmeldung GB2281838 beschrieben, Variationen im Diameter der Pupille, usw. Je nach Variante können entweder Bewegungen nur eines Auges oder beider Augen ermittelt werden; in diesem letzten Fall können auch schielende Augenbewegungen ermittelt werden.
Es sind auch andere Systeme zur Ermittlung von Augenbewe- gungen bekannt, die auch in speziellen Kontaktlinsen montiert werden, oder die ein Videobild des Auges aufnehmen. Eine schnellere Abtastrate wurde mit Laserscannern erreicht, die die Iris bis zu 200 Mal pro Sekunde abscannen.
Damit das Terminal nur auf Bewegungen von lebenden Wesen reagiert und nicht beispielsweise durch Vorstellung von animierten Bildern betrogen werden kann, werden vorzugsweise vom Modul 20 Körperreaktionen ermittelt. In einer bevorzugten Variante wird ein von der Körpertemperatur abhängiger Parameter gemessen, beispielsweise die Reaktion der Retina auf eine durch das Terminal 2 verursachte Erwärmung. In einer anderen Variante wird die Reaktion der Iris auf durch das Terminal 2 verursachte Lichtvariationen ermittelt. Auf diese Weise kann geprüft werden, ob das ermittelte Bild des Auges wirklich zu einem Menschen gehört.
Das Terminal 2 umfasst vorzugsweise Bildwiedergabemittel 21, die sichtbare Bilder für den Benutzer 1 wiedergeben können. In einer ersten Variante bestehen die Bildwiedergabemittel 21 aus einer konventionellen Anzeige, beispielsweise aus einer CRT-, Flüssigkristall- oder Plasma-Anzeige. In einer bevorzugten Variante bestehen sie aus einem sogenannten Microdisplay mit einem passenden Linsensystem, vorzugsweise aus einer virtuellen retinalen Anzeigevorrichtung (VRD, Virtual Retinal Display), die das dargestellte Bild direkt auf die Retina eines oder beider Augen des Benutzers 1 projiziert. Virtuelle retinale Anzeigevorrichtungen wurden beispielsweise in den Patentanmeldungen WO94/09472, WO97/37339 und WO98/13720 beschrieben und brauchen demzufolge nicht mehr beschrieben zu werden. Die VRD-Vorrichtung 21 wird von einem Videokontroller 22 gesteuert, um Bildsignale, die einem zweidimensionalen oder dreidimensionalen Bild entsprechen, auf die Fovea des Benutzerauges zu projizieren.
Das Terminal 2 wird von Datenverarbeitungsmitteln 23, beispielsweise in der Form eines Prozessors 23 mit einem nicht dargestellten Speicherbereich, gesteuert. Der Prozessor 23 steuert insbesondere den Video- kontroller 22 und bearbeitet die Daten vom Augenteil-Bewegungsbestim- mungsmodul 20. Ein Software und/oder Hardware-Modul 230 im Prozessor 23 oder verbunden mit diesem Prozessor, ist für die Sicherung der Datenübertragung mit externen Vorrichtungen 4 zuständig, wie später erläutert.
Der Fachmann wird verstehen, dass die Datenverarbeitungs- mittel 23 und das Sicherheitsmodul 230 aus einem einzigen Chip hergestellt werden können, oder aus einer Vielzahl von miteinander logisch verbundenen Komponenten. In einer bevorzugten Variante, in welcher das Terminal 2 aus einem Mobiltelefon besteht, umfassen die Datenverarbeitungsmittel 23 vorzugsweise Komponenten im Mobiltelefon sowie Komponenten in der entfernbaren Chipkarte (SIM-Karte), die mit diesem Mobiltelefon verbunden wird. In einer bevorzugten Variante befinden sich insbesondere sicherheitskritische Komponenten, die vom Sicherheitsmodul 230 verwendet werden, in der Chipkarte.
Das Terminal umfasst ausserdem einen Kommunikationsteil 24, mit welchem es sich mit einem Kommunikationsnetz 3 verbinden kann. Das Kommunikationsteil 24 besteht vorzugsweise aus einem GSM oder UMTS- Kommunikationsteil, aus einem Modem, oder aus einer kontaktlosen Schnittstelle im Nahbereich, beispielsweise gemäss IrDA, Bluetooth, HomeRF oder DECT.
Das Kommunikationsnetz 3 ist beispielsweise ein Mobilfunknetz, beispielsweise gemäss GSM oder UMTS, könnte aber auch das Internet sein oder aus mehreren Netzen bestehen. Über das Kommunikationsnetz 3 kann sich das Terminal 2 mit einem zentralen Fernserver 4 verbinden, beispielsweise mit einem http oder WAP-Server, der vom Betreiber des Kommunikationsnetzes 3 und/oder von einem Dienstanbieter verwaltet wird. Die Datenübertragung zwischen dem Terminal 2 und dem Fernserver 4 wird vorzugsweise End-zu-End gesichert, beispielsweise mit dem Protokoll SSL (Secure Sockets Layer), TLS (Transport Layer Security) und/oder WTLS (Wireless Transport Layer Security). Daten, die vom Terminal 2 zum Server 4 gesendet werden, werden vorzugsweise vom Sicherheitsmodul 230 elektronisch signiert, vorzugsweise mit einem elektronischen privaten Schlüssel, der in einem elektronischen Zertifikat in der SIM-Karte abgelegt ist.
Das Terminal 2 umfasst vorzugsweise zusätzliche nicht dargestellte Dateneingabemittel, beispielsweise eine Tastatur, eine Maus, ein Rollelement, ein Mikrophon, usw., mit welchen der Prozessor 23 gesteuert werden kann.
Der Benutzer 1 kann eine Session mit dem Server 4 aufbauen, indem er die entsprechende URL-Adresse oder Telefonnummer in sein Terminal 2 eingibt. Eine Session kann beispielsweise aufgebaut werden, um eine Transaktion zwischen dem Benutzer 1 und dem Dienstanbieter der den Server betreibt, durchzuführen, beispielsweise um ein Produkt oder eine Dienstleistung des Dienstanbieters 4 zu bestellen und/oder zu bezahlen.
Die Figur 2 zeigt schematisch einen Benutzer 1 mit einer Ausführungsvariante des erfindungsgemässen Terminals, das hier in einer Brille integriert ist. Die Brille enthält das Mobilfunkteil 24, die VRD-Anzeigevor- richtung 21, die Bilder auf die Retina des Benutzers 1 projizieren kann, den Prozessor 23 und das Eye-Trackingssystem 20. Das Bezugszeichen 5 zeigt ein Beispiel der Trajektorie eines Auges beim Scanning eines dem Benutzers vorgestellten Bildes 5.
Damit eine Transaktion zwischen dem Benutzer 1 und dem Server
4 durchgeführt wird, muss der Benutzer 1 identifiziert werden. Das ver- wendete Terminal 2 kann relativ leicht anhand der übermittelten Anrufer- Nummer (MSISDN) oder der in der Chipkarte im Terminal abgelegten Nummer (IMSI, International Mobile Subscriber Identification) identifiziert werden; diese Identität kann auch mit einer elektronischen Signatur der Transaktionsbelege ermittelt werden.
Wird das Terminal 2 von mehreren Personen bedient (beispielsweise von mehreren Familienmitgliedern), reicht die abgelegte Identifizierung nicht aus, um die Person, die das Terminal 2 tatsächlich benutzt, zu identifizieren; nur die Chipkarte wird identifiziert, nicht der aktuelle Benutzer dieser Karte. Wird das Terminal 2 gestohlen oder von einer nicht berechtigten Person verwendet, muss für sicherheitskritische Transaktionen die übermittelte Identität authentifiziert werden.
Erfindungsgemäss wird dieser Identifizierungs- und Authentifi- zierungsprozess mit einem biometrischen Verfahren durchgeführt, in welchem persönliche unwillkürliche Augenbewegungsmuster ermittelt werden.
Mit dem Augenbewegungsbestimmungsmodul 20 können verschiedene Typen von unwillkürlichen Augenbewegungen ermittelt werden, die zur Identifikation und/oder Authentifikation des Benutzers dienen können; davon werden wir nur einige Beispiele beschreiben.
Beim Scanning eines Bildes bewegt sich das Auge entlang einer Trajektorie 51, von der ein Beispiel auf der Figur 2 dargestellt wird. Es wurde schon von Neurologen und Ärzten beobachtet, dass diese Trajektorie nicht linear ist; das Auge bleibt länger auf bestimmte Punkte 52, 53 gerichtet, bewegt sich dann schnell, bis es einen anderen Interessenpunkt findet, usw. Das Auge macht ausserdem schnelle, als Saccaden 54 bekannte Bewegungen, um das Randfeld wahrzunehmen. Um ein neues Bild zu scannen, macht das Auge grosse Saccaden, in der Regel von einer Kante zur anderen. Rund um eine Position macht das Auge auch sogenannten Microsaccaden, die lokal sind. Die Form, die Anzahl und das Auslösen der Saccaden sind persönlich und bilden somit ein Identifizierungs- und/oder Authentifizierungsmerkmal.
Die Trajektorie des Auges eines Benutzers 1 auf einem bestimmten Bild ist von der Physiologie des Auges, unter anderem von seiner Muskulatur, aber vor allem von neurologischen Strukturen des Benutzergehirns, abhängig. Sie ist somit absolut persönlich und kann verwendet werden, um den Benutzer zu identifizieren und/oder zu authentifizieren.
Erfindungsgemäss werden gewisse Merkmale dieser Trajektorie (beispielsweise die bevorzugte Scanningsrichtung, die durchschnittliche Scanningsgeschwindigkeit und/oder Beschleunigung, die Anzahl Betrachtungspunkte, die Zeit auf jedem Punkt, die Anzahl und Form der Microsaccaden und der grösseren Saccaden, die Entropie der Trajektorie, usw.) vom Augenbewegungsbestimmungsmodul und/oder vom Prozessor 23 ermittelt, um somit ein benutzerspezifisches Augenbewegungsmuster zu definieren, mit welchem der Benutzer identifiziert und/oder authentifiziert werden kann.
Der Prozessor 23 kann auch andere Bewegungsmuster ermitteln, beispielsweise Blinzelbewegungsmuster. Manche Benutzer blinzeln öfter als andere, oder als Reaktion auf andere Ereignisse. Wird dem Benutzer 1 ein dreidimensionales Bild vorgestellt, ist es auch möglich, die Akkomodation des Auges auf die Entfernung (Augenfokalisierungsmuster) zu ermitteln. Als Variante oder als zusätzlichen Parameter kann man die Variationen des Pupillendiameters (beispielsweise die Reaktionszeit, die Anpassungsgeschwindigkeit, den absoluten Wert, usw.) verwenden. Man wird verstehen, dass das ermittelte Augenbewegungsmuster auch Bewegungen beider Augen berücksichtigen kann. In einer bevorzugten Variante berücksichtigt das ermittelte Augenbewegungsmuster verschiedene Typen von Augenbewegungen.
Vorzugsweise wird dem Benutzer mit den Bildwiedergabemitteln 21 ein zwei- oder drei-dimensionales Bild 5 vorgestellt. Das Modul 20 ermittelt das benannte Augenbewegungsmuster während des Betrachtens dieses Bildes. Auf diese Weise wird das Augenbewegungsmuster mit einem bekannten Referenzbild ermittelt, so dass keine bildbedingte Mustervariationen auftreten.
Das dem Benutzer vorgestellte Bild kann beispielsweise ein Logo oder ein Einleitungsbild des Dienstanbieters 4 enthalten, das dem Benutzer 1 bei jedem Zugriff auf den Server dieses Dienstanbieters vorgestellt wird. Ein Beispiel eines solchen Bildes ist auf der Figur 3 dargestellt. Das Bild ist in diesem Beispiel logisch in mehrere Bildbereiche 500 bis 507 aufgeteilt; das persönliche Augenbewegungsmuster kann dann auch Angaben enthalten, über jene Bereiche, auf die das Auge am längsten gerichtet ist, über die Reihenfolge der betrachteten Bildbereiche, usw.
Als Variante kann dem Benutzer 1 auch eine Sequenz von mehreren Bildern vorgestellt werden. Die Scanningstrajektorie über jedes Bild, die Variationen im Pupillendiameter bei Bildwechseln, das Blinzeln als Reaktion auf Änderungen der Lichtverhältnisse oder auf den Bildinhalt, usw. können dann verwendet werden, um den Benutzer zu identifizieren und/ oder zu authentifizieren. Somit können auch Augenbewegungen verursacht werden (beispielsweise indem speziellen Bilder oder Bildersequenzen vorgestellt werden) und die Reaktion auf diese Bilder oder Bildersequenzen (beispielsweise die Variationen des Pupillendiameters oder das Blinzeln) wird als Muster ermittelt.
Das ermittelte Augenbewegungsmuster wird dann vom Prozessor 23 codiert, um einen numerischen oder alphanumerischen Code zu errechnen, welcher den Benutzer 1 so eindeutig wie möglich identifiziert, und dessen Grosse minimal ist, damit er schnell übertragen wird. Die sich daraus ergebenden Vergleichsdaten werden dann über einen geeigneten Übertragungskanal (beispielsweise mit einem bekannten WAP-Bearer) vom Kommunikationsteil 24 an den Server 4 eines Dienstanbieters geleitet. Die Übertragung wird vorzugsweise End-zu-End gesichert; vorzugsweise werden die Vergleichsdaten noch von einem Sicherungsmodul 230 im Prozessor 23 oder in einer Chipkarte im Terminal 2 elektronisch signiert und mit dem öffentlichen Schlüssel des Dienstanbieters 4 verschlüsselt, damit nur dieser die Vergleichsdaten entschlüsseln und deren Herkunft prüfen kann.
Der Server 4 enthält oder greift auf eine Referenzdatenbank 40 zu, in welcher Augenbewegungsdaten aller registrierten Benutzer abgelegt sind. Diese Referenzdaten werden beispielsweise bei der Registration der Benutzer beim Dienstanbieter ermittelt und in der Datenbank 4 abgelegt.
Um den Benutzer 1 zu identifizieren, vergleicht der Server die erhaltenen Vergleichsdaten mit allen in der Datenbank 40 abgelegten Referenzdaten. Der Server ermittelt aus der Referenzdatenbank 40 die Identität des Benutzers mit jenen Referenzdaten, die den erhaltenen Vergleichsdaten am ähnlichsten sind. Diese Identität kann für weitere Transaktionen verwendet werden.
Der Vergleich zwischen den erhaltenen Vergleichsdaten und den abgelegten Referenzdaten kann beispielsweise mit einem Viterbi-Gitter durchgeführt werden, welches den wahrscheinlichsten Benutzer unter allen registrierten Benutzern angibt.
Oft ist es nicht notwendig, die erhaltenen Vergleichsdaten mit allen Referenzdaten in der Referenzdatenbank 40 zu vergleichen. Ist beispielsweise die Identifizierung des verwendeten Terminals 2 schon bekannt, kann der Server nur unter den gewöhnlichen Benutzern dieses Terminals (beispielsweise unter den Familienmitgliedern) recherchieren. Das erfindungsgemässe Verfahren kann somit eingesetzt werden, um den tatsächlichen aktuellen Benutzer des Terminals 2 unter allen autorisierten oder regelmässigen Benutzern des Terminals zu ermitteln.
Dieses Verfahren kann auch eingesetzt werden, um eine schon bekannte Identität zu prüfen (Authentifikation). Wurde die Benutzeridentität schon vom Benutzer selbst erfasst, kann mit einem Vergleich zwischen den erhaltenen Vergleichsdaten und den für diesen Benutzer in der Datenbank 40 abgelegten Referenzdaten entschieden werden, ob die eingegebene Identität plausibel ist. Der Fachmann wird verstehen, dass der Vergleich zwischen den ermittelten und den abgelegten Daten auch im Terminal 2 erfolgen kann. In diesem Fall wird der Zugriff auf dieses Terminal oder auf bestimmte Funktionen oder Programme in diesem Terminal erst dann gewährleistet, wenn das Ergebnis dieses Vergleichs positiv ist, dass heisst wenn der mit seinen unwillkürlichen Augenbewegungen identifizierte und/oder authentifizierte Benutzer zugriffberechtigt ist.
Ebenso ist es möglich, in der Referenzdatenbank 40 nur eine abgeleitete Form des Augenbewegungsmusters zu speichern, die vor jedem Identif ikations- oder Authentifikations-Vorgang an das Terminal 2 geleitet wird. Der Vergleich zwischen den ermittelten Vergleichsdaten und diesen Referenzdaten erfolgt dann im Terminal. Diese Variante hat den Vorteil, dass die eventuell datenschutzgeschützten persönlichen Referenzdaten nicht in der Referenzdatenbank 40 abgelegt sind.
Obwohl sich diese Beschreibung insbesondere auf den speziellen
Fall der Identifikation und Authentifikation eines Benutzers eines Mobilfunktelefons bezieht, wird der Fachmann verstehen, dass das erfindungsgemässe Verfahren auch für die Identifikation und Authentifikation von Benutzern anderer Vorrichtungen verwendet werden kann. Beispielsweise kann man dieses Verfahren auch mit Rechnern verwenden, beispielsweise für Transaktionen mit dem Internet oder um den Zugriff auf Unternehmens-Server zu sichern.

Claims

Ansprüche
1. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren, um den Benutzer (1) eines Terminals (2) zu identifizieren und/oder zu authentifizieren, dadurch gekennzeichnet, dass der benannte Benutzer durch Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern mit einem Augenbewegungsbestimmungsmodul (20) identifiziert und/oder authentifiziert wird.
2. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem vorhergehenden Anspruch, in welchem dem Benutzer (1) mindestens ein vordefiniertes Bild (5) vorgestellt wird, und in welchem der benannte Benutzer durch Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern beim Betrachten des benannten Bildes ermittelt wird.
3. Biometrisches Identifizierung- und/oder Authentifizierungs- verfahren gemäss einem der vorhergehenden Ansprüche, in welchem dem
Benutzer (1) eine Bildsequenz vorgestellt wird, und in welchem der benannte Benutzer durch Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern beim Betrachten der benannten Bildsequenz ermittelt wird.
4. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss einem der Ansprüche 2 oder 3, in welchem das benannte Bild (5) mit einer virtuellen retinalen Anzeigevorrichtung (21) wiedergegeben wird.
5. Biometrisches Identifizierung- und/oder Authentifizierungs- verfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der benannte Benutzer durch Ermittlung von persönlichen Augenrichtungstrajektorien (51) identifiziert und/oder authentifiziert wird.
6. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem vorhergehenden Anspruch, in welchem die benannten Augenrichtungstrajektorien (51) Saccaden (54) enthalten.
7. Biometrisches Identifizierung- und/oder Authentifizierungs- verfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der benannte Benutzer (1) durch Ermittlung von Augen- fokalisierungsmustern identifiziert und/oder authentifiziert wird.
8. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass der benannte Benutzer (1) durch Ermittlung von persönlichen Variationen im Pupillendiameter identifiziert und/oder authentifiziert wird.
9. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem vorhergehenden Anspruch, in welchem die be- nannten Variationen durch Änderungen der Lichtverhältnisse verursacht werden.
10. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem Anspruch 8, in welchem dem Benutzer mindestens eine vordefinierte Bildsequenz vorgestellt wird, und in welchem der be- nannte Benutzer durch Ermittlung der benannten Variationen beim Bildwechsel identifiziert und/oder authentifiziert wird.
11. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der benannte Benutzer (1) durch Ermittlung von persön- liehen Blinzelbewegungsmustern identifiziert und/oder authentifiziert wird.
12. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem vorhergehenden Anspruch, in welchem die benannten Blinzelbewegungen durch Änderungen der Lichtverhältnisse verursacht werden.
13. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss dem Anspruch 11, in welchem dem Benutzer (1) mindestens eine vordefinierte Bildsequenz vorgestellt wird, und in welchem der benannte Benutzer durch Ermittlung der benannten Blinzelbewegungen beim Bildwechsel identifiziert und/oder authentifiziert wird.
14. Biometrisches Identifizierung- und/oder Authentifizierungsverfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die benannten Augenbewegungsmuster Bewegungen beider Augen berücksichtigen.
15. Biometrisches Identifizierung- und/oder Authentifizierungs- verfahren gemäss einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die benannten Augenbewegungsmuster in Vergleichsdaten codiert werden und mit in einer Referenzdatenbank (40) abgelegten Referenzdaten verglichen werden.
16. Biometrisches Verfahren gemäss dem vorhergehenden An- spruch, in welchem der Vergleich zwischen den benannten ermittelten
Vergleichsdaten und den benannten in einer Referenzdatenbank (40) abgelegten Referenzdaten mit einem Viterbi-Gitter durchgeführt wird.
17. Verfahren gemäss einem der vorhergehenden Ansprüche, in welchem ein von der Körpertemperatur abhängiger Parameter gemessen wird und als zusätzlicher Authentifizierungsparameter verwendet wird.
18. Verfahren gemäss einem der vorhergehenden Ansprüche, in welchem ein von der Erwärmung der Retina abhängiger Parameter gemessen und als zusätzlicher Authentifizierungsparameter verwendet wird.
19. Verfahren gemäss einem der vorhergehenden Ansprüche, in welchem die Reaktion der Iris auf Lichtvariationen gemessen wird und als zusätzlicher Authentifizierungsparameter verwendet wird.
20. Verfahren gemäss einem der vorhergehenden Ansprüche, in welchem die benannten Augenbewegungsmuster durch ein tragbares
Terminal (2) ermittelt werden und durch ein Mobilfunkteil (24) im benannten Terminal über ein Mobilfunknetz (3) an einen Fernserver (4) übertragen werden.
21. Verfahren gemäss dem vorhergehenden Anspruch, in welchem der benannte Server (4) von einem Dienstanbieter verwaltet wird, und in welchem die Verbindung zwischen dem benannten Mobilfunkteil (24) und dem benannten Server (4) End-zu-End verschlüsselt wird.
22. Verfahren gemäss einem der Ansprüche 20 oder 21 , in welchem das benannte Augenbewegungsmuster elektronisch signiert wird.
23. Verfahren gemäss dem vorhergehenden Anspruch, in welchem
Augenbewegungsmuster mit dem privaten Schlüssel des benannten Benutzers elektronisch signiert werden.
24. Verfahren, um den Benutzer eines Terminals (2) für eine Transaktion mit einem Server (4) zu identifizieren und/oder zu authentifizieren, wobei das benannte Terminal (2) ein Kommunikationsteil (24) und ein Augenbewegungsermittlungsmodul (20) enthält, wobei das benannte Mobilfunkteil (24) eine Chipkarte mit einer Chipkartenidentifizierung enthält, wobei das benannte Terminal (2) Instruktionen für die benannte Transaktion über ein Kommunikationsnetz (3) an den benannten Server (4) sendet, wobei der benannte Server (4) den Benutzer (1) anhand der benannten Identifizierung und durch Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern identifiziert und/oder authentifiziert.
25. Terminal (2), das dadurch gekennzeichnet ist, dass es Mittel (20, 23) zur Ermittlung von persönlichen unwillkürlichen Augenbewegungsmustern umfasst, dass es Mittel (23) zur Codierung der benannten Augenbewegungsmuster umfasst, und dass es Mittel (24) zur Sendung der benannten codierten Augenbewegungsmuster an einen Fernserver (4) umfasst.
26. Terminal (2) gemäss dem vorhergehenden Anspruch, das eine virtuelle retinale Anzeigevorrichtung (21) umfasst.
PCT/CH2000/000270 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren WO2001088857A1 (de)

Priority Applications (14)

Application Number Priority Date Filing Date Title
AT00925008T ATE295585T1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren
IL15275600A IL152756A0 (en) 2000-05-16 2000-05-16 Biometric identification and authentication method
DE50010319T DE50010319D1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren
DK00925008T DK1285409T3 (da) 2000-05-16 2000-05-16 Fremgangsmåde ved biometrisk identificering og autentificering
ES00925008T ES2241598T3 (es) 2000-05-16 2000-05-16 Procedimiento biometrico de identificacion y autenticacion.
EP00925008A EP1285409B1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren
AU2000243889A AU2000243889A1 (en) 2000-05-16 2000-05-16 Biometric method for identification and authorisation
JP2001584373A JP2003533801A (ja) 2000-05-16 2000-05-16 生物測定学的な身元確認方法及び認証方法
PCT/CH2000/000270 WO2001088857A1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren
CNB00819730XA CN1236397C (zh) 2000-05-16 2000-05-16 生物计量的识别及鉴权方法和相应的终端设备
PT00925008T PT1285409E (pt) 2000-05-16 2000-05-16 Processo de identificacao ou autenticacao biometrico
US10/290,663 US7346195B2 (en) 2000-05-16 2002-11-08 Biometric identification and authentication method
IL152756A IL152756A (en) 2000-05-16 2002-11-11 Biometric identification and authentication method
US12/020,962 US7630524B2 (en) 2000-05-16 2008-01-28 Biometric identification and authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2000/000270 WO2001088857A1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/290,663 Continuation US7346195B2 (en) 2000-05-16 2002-11-08 Biometric identification and authentication method

Publications (1)

Publication Number Publication Date
WO2001088857A1 true WO2001088857A1 (de) 2001-11-22

Family

ID=4358077

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2000/000270 WO2001088857A1 (de) 2000-05-16 2000-05-16 Biometrisches identifizierungs- und authentifizierungsverfahren

Country Status (12)

Country Link
US (2) US7346195B2 (de)
EP (1) EP1285409B1 (de)
JP (1) JP2003533801A (de)
CN (1) CN1236397C (de)
AT (1) ATE295585T1 (de)
AU (1) AU2000243889A1 (de)
DE (1) DE50010319D1 (de)
DK (1) DK1285409T3 (de)
ES (1) ES2241598T3 (de)
IL (2) IL152756A0 (de)
PT (1) PT1285409E (de)
WO (1) WO2001088857A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004039449A1 (de) * 2004-08-13 2006-02-23 Schoeller Logistics Industries Gmbh Multifunktionales mobiles tragbares Fernsprechgerät
DE102005003208A1 (de) * 2005-01-24 2006-07-27 Giesecke & Devrient Gmbh Authentisierung eines Benutzers
WO2014025448A1 (en) * 2012-08-10 2014-02-13 EyeVerify LLC Spoof detection for biometric authentication
DE102006036864B4 (de) * 2005-08-05 2015-12-24 Heidelberg Engineering Gmbh Verfahren und System zur biometrischen Identifikation oder Verifikation
US9721150B2 (en) 2015-09-11 2017-08-01 EyeVerify Inc. Image enhancement and feature extraction for ocular-vascular and facial recognition
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10878238B2 (en) 2016-01-15 2020-12-29 Fujitsu Limited Biometric authentication device, biometric authentication method and computer-readable non-transitory medium
US11343277B2 (en) 2019-03-12 2022-05-24 Element Inc. Methods and systems for detecting spoofing of facial recognition in connection with mobile devices
US11425562B2 (en) 2017-09-18 2022-08-23 Element Inc. Methods, systems, and media for detecting spoofing in mobile authentication
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4269654B2 (ja) * 2002-11-20 2009-05-27 ソニー株式会社 指紋認証装置及び方法、並びに、認証装置及び方法
US7337466B2 (en) * 2003-07-08 2008-02-26 Intel Corporation Information hiding through time synchronization
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US7593550B2 (en) * 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US7761453B2 (en) * 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US20050128192A1 (en) * 2003-12-12 2005-06-16 International Business Machines Corporation Modifying visual presentations based on environmental context and user preferences
JP4481663B2 (ja) * 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
JP4617121B2 (ja) * 2004-09-01 2011-01-19 学校法人東京理科大学 個人認証装置及び個人認証方法
US20060072793A1 (en) * 2004-10-05 2006-04-06 Honeywell International, Inc. Security alarm notification using iris detection systems
JP2006136450A (ja) * 2004-11-11 2006-06-01 Matsushita Electric Ind Co Ltd 虹彩認証装置
US20060104483A1 (en) * 2004-11-12 2006-05-18 Eastman Kodak Company Wireless digital image capture device with biometric readers
US20060115130A1 (en) * 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
IL165586A0 (en) * 2004-12-06 2006-01-15 Daphna Palti Wasserman Multivariate dynamic biometrics system
EP1910973A1 (de) * 2005-08-05 2008-04-16 Heidelberg Engineering GmbH Verfahren xmd system zur lebenderkennung bei retinaerkennung
US7599525B2 (en) * 2005-08-17 2009-10-06 Industrial Technology Research Institute Image password lock system by tracing position information of the organism or article feature
JP4738488B2 (ja) 2006-03-03 2011-08-03 ハネウェル・インターナショナル・インコーポレーテッド 画像品質メトリックを有する虹彩認識システム
GB2450024B (en) 2006-03-03 2011-07-27 Honeywell Int Inc Modular biometrics collection system architecture
WO2007101275A1 (en) 2006-03-03 2007-09-07 Honeywell International, Inc. Camera with auto-focus capability
AU2007220010B2 (en) 2006-03-03 2011-02-17 Gentex Corporation Single lens splitter camera
WO2008019169A2 (en) 2006-03-03 2008-02-14 Honeywell International, Inc. Iris encoding system
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US9946930B2 (en) * 2007-06-11 2018-04-17 Jeffrey A. Matos Apparatus and method for verifying the identity of an author and a person receiving information
IL184399A0 (en) * 2007-07-03 2007-10-31 Yossi Tsuria Content delivery system
US7857452B2 (en) * 2007-08-27 2010-12-28 Catholic Healthcare West Eye movements as a way to determine foci of covert attention
ES2326205B1 (es) 2007-11-27 2010-06-29 Universidad Complutense De Madrid Metodo y dispositivo para el reconocimiento de individuos basado en la imagen de la retina que incorpora como constante biometrica el area imagen del punto de fijacion.
US8462949B2 (en) * 2007-11-29 2013-06-11 Oculis Labs, Inc. Method and apparatus for secure display of visual content
CN101488855B (zh) * 2008-01-16 2011-06-01 上海摩波彼克半导体有限公司 无线网络中移动设备实现持续鉴权联合入侵检测的方法
US8436907B2 (en) * 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US9002120B2 (en) * 2008-10-03 2015-04-07 Intellectual Ventures Fund 83 Llc Interactive image selection method
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
WO2010143118A1 (en) * 2009-06-12 2010-12-16 Koninklijke Philips Electronics N.V. System and method for biometric identification
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
CA2814236C (en) * 2009-10-20 2017-09-12 Dignity Health Eye movements as a way to determine foci of covert attention
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US9507926B2 (en) 2010-10-26 2016-11-29 Bi2 Technologies, LLC Mobile wireless hand-held identification system and method for identification
US9753025B2 (en) 2010-10-26 2017-09-05 Bi2 Technologies, LLC Mobile wireless hand-held identification system and breathalyzer
US10068080B2 (en) 2010-10-26 2018-09-04 Bi2 Technologies, LLC Mobile wireless hand-held biometric identification system
US8719584B2 (en) 2010-10-26 2014-05-06 Bi2 Technologies, LLC Mobile, wireless hand-held biometric capture, processing and communication system and method for biometric identification
US8849845B2 (en) 2010-11-03 2014-09-30 Blackberry Limited System and method for displaying search results on electronic devices
US8717393B2 (en) 2010-11-03 2014-05-06 Blackberry Limited System and method for controlling a display of a mobile device
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
GB201109311D0 (en) 2011-06-03 2011-07-20 Avimir Ip Ltd Method and computer program for providing authentication to control access to a computer system
RU2014111041A (ru) * 2011-08-22 2015-09-27 Конинклейке Филипс Н.В. Система и способ администрирования данных
EP2795535A4 (de) * 2011-12-23 2015-08-26 Intel Corp Auf augenbewegung basierende wissensdemonstration
US9083532B2 (en) 2012-03-06 2015-07-14 Ebay Inc. Physiological response PIN entry
US9390256B2 (en) 2012-03-06 2016-07-12 Paypal, Inc. System and methods for secure entry of a personal identification number (PIN)
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
WO2013147763A1 (en) * 2012-03-28 2013-10-03 Texas State University - San Marcos Person identification using ocular biometrics
US9164580B2 (en) 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US8963806B1 (en) * 2012-10-29 2015-02-24 Google Inc. Device authentication
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
EP2962175B1 (de) 2013-03-01 2019-05-01 Tobii AB Blickinteraktion mit verzögerter ausführung
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US20150007290A1 (en) * 2013-06-27 2015-01-01 Franck Franck Stimuli-Response-Driven Authentication Mechanism
US9146618B2 (en) 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
TWI498769B (zh) * 2013-11-18 2015-09-01 Quanta Comp Inc 頭戴式顯示裝置及其登入方法
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US9241360B2 (en) * 2013-11-22 2016-01-19 Brian Mullin Friedman Systems, apparatus, and methods for programmatically associating nearby users
TWI578184B (zh) * 2013-12-27 2017-04-11 由田新技股份有限公司 基於眼部開闔狀態的密碼輸入方法及應用其之保全裝置
WO2015164807A1 (en) 2014-04-25 2015-10-29 Texas State University Detection of brain injury and subject state with eye movement biometrics
CN103995460B (zh) * 2014-05-16 2017-10-27 北京印刷学院 一种智能手表
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
US10448867B2 (en) 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
US10617342B2 (en) 2014-09-05 2020-04-14 Vision Service Plan Systems, apparatus, and methods for using a wearable device to monitor operator alertness
US11918375B2 (en) 2014-09-05 2024-03-05 Beijing Zitiao Network Technology Co., Ltd. Wearable environmental pollution monitor computer apparatus, systems, and related methods
FR3028980B1 (fr) * 2014-11-20 2017-01-13 Oberthur Technologies Procede et dispositif d'authentification d'un utilisateur
US10740465B2 (en) 2014-12-05 2020-08-11 Texas State University—San Marcos Detection of print-based spoofing attacks
US9886598B2 (en) * 2014-12-29 2018-02-06 Paypal, Inc. Automatic adjustment of a display to obscure data
US10215568B2 (en) 2015-01-30 2019-02-26 Vision Service Plan Systems and methods for tracking motion, performance, and other data for an individual such as a winter sports athlete
JP6377545B2 (ja) * 2015-02-17 2018-08-22 日本電信電話株式会社 個人識別方法、個人識別装置、プログラム
US10275902B2 (en) 2015-05-11 2019-04-30 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
CN107533600A (zh) * 2015-05-14 2018-01-02 奇跃公司 用于跟踪生物特征数据的增强现实系统和方法
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10044710B2 (en) 2016-02-22 2018-08-07 Bpip Limited Liability Company Device and method for validating a user using an intelligent voice print
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10469653B2 (en) * 2016-05-15 2019-11-05 Fmr Llc Proximity and movement detection of a mobile computing device during a user session
US9883403B2 (en) * 2016-05-15 2018-01-30 Fmr Llc Monitoring presence of authorized user during user session based upon mobile computing device motion
US9686644B1 (en) 2016-05-15 2017-06-20 Fmr Llc Geospatial-based detection of mobile computing device movement
ES2649052B1 (es) * 2016-07-07 2018-10-18 Manuel Alejandro ADASME VEGA Escaparate digital
US11544359B2 (en) * 2016-11-08 2023-01-03 Proprius Technolgies S.A.R.L Unique patterns extracted from involuntary eye motions to identify individuals
CN107066079A (zh) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
US9910298B1 (en) 2017-04-17 2018-03-06 Vision Service Plan Systems and methods for a computerized temple for use with eyewear
KR102042422B1 (ko) * 2018-01-18 2019-11-27 에어런딜 모바일 인코포레이티드 생체인식기술을 활용한 사용자 인증방법, 인증장치 및 전자장치 액세스 제어 방법
JP6774975B2 (ja) * 2018-03-19 2020-10-28 株式会社東芝 眼球回転検出装置、電子機器及びシステム
US10722128B2 (en) 2018-08-01 2020-07-28 Vision Service Plan Heart rate detection system and method
US11880441B2 (en) 2018-08-26 2024-01-23 The Research Foundation For The State University Of New York System and method for inter-individual discrimination based on oculomotor kinematics
BR112021006439A2 (pt) * 2018-10-09 2021-07-06 Essilor Int método para adaptação de equipamento oftálmico de acordo com uma estratégia de exploração visual do portador
KR102504526B1 (ko) * 2019-01-28 2023-02-28 에어런딜 모바일 인코포레이티드 생체 인식 기술을 활용한 사용자 식별, 인증 및 암호화 장치 및 그의 동작 방법
DE102021126907A1 (de) 2021-10-18 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
WO1997046978A1 (en) * 1996-06-06 1997-12-11 British Telecommunications Public Limited Company Personal identification
WO1998008439A1 (en) * 1996-08-25 1998-03-05 Sensar, Inc. Apparatus for the iris acquiring images
WO1999024938A1 (de) 1997-11-07 1999-05-20 Swisscom Ag Verfahren, system und vorrichtungen zur bestimmung der authentizität von personen
DE19810792A1 (de) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467104A (en) 1992-10-22 1995-11-14 Board Of Regents Of The University Of Washington Virtual retinal display
JPH0749744A (ja) 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
US5937383A (en) * 1996-02-02 1999-08-10 International Business Machines Corporation Apparatus and methods for speech recognition including individual or speaker class dependent decoding history caches for fast word acceptance or rejection
US5701132A (en) 1996-03-29 1997-12-23 University Of Washington Virtual retinal display with expanded exit pupil
WO1998013720A1 (en) 1996-09-27 1998-04-02 Medcam, Inc. Method and apparatus for optical scanning
US6193153B1 (en) * 1997-04-16 2001-02-27 Francis Lambert Method and apparatus for non-intrusive biometric capture
WO1999018842A1 (en) * 1997-10-16 1999-04-22 The Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
US6850631B1 (en) * 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
US6104922A (en) * 1998-03-02 2000-08-15 Motorola, Inc. User authentication in a communication system utilizing biometric information
US6083193A (en) * 1998-03-10 2000-07-04 Allergan Sales, Inc. Thermal mode phaco apparatus and method
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
DE19901881A1 (de) * 1999-01-19 2000-07-27 Dcs Dialog Communication Syste Verfahren und System zur Fälschungssicherung bei biometrischer Personenerkennung
US6592223B1 (en) * 1999-10-07 2003-07-15 Panaseca, Inc. System and method for optimal viewing of computer monitors to minimize eyestrain

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
WO1997046978A1 (en) * 1996-06-06 1997-12-11 British Telecommunications Public Limited Company Personal identification
WO1998008439A1 (en) * 1996-08-25 1998-03-05 Sensar, Inc. Apparatus for the iris acquiring images
WO1999024938A1 (de) 1997-11-07 1999-05-20 Swisscom Ag Verfahren, system und vorrichtungen zur bestimmung der authentizität von personen
DE19810792A1 (de) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004039449A1 (de) * 2004-08-13 2006-02-23 Schoeller Logistics Industries Gmbh Multifunktionales mobiles tragbares Fernsprechgerät
DE102005003208A1 (de) * 2005-01-24 2006-07-27 Giesecke & Devrient Gmbh Authentisierung eines Benutzers
DE102005003208B4 (de) * 2005-01-24 2015-11-12 Giesecke & Devrient Gmbh Authentisierung eines Benutzers
DE102006036864B4 (de) * 2005-08-05 2015-12-24 Heidelberg Engineering Gmbh Verfahren und System zur biometrischen Identifikation oder Verifikation
US9971920B2 (en) 2012-08-10 2018-05-15 EyeVerify LLC Spoof detection for biometric authentication
WO2014025448A1 (en) * 2012-08-10 2014-02-13 EyeVerify LLC Spoof detection for biometric authentication
US8675925B2 (en) 2012-08-10 2014-03-18 EyeVerify LLC Spoof detection for biometric authentication
US8787628B1 (en) 2012-08-10 2014-07-22 EyeVerify LLC Spoof detection for biometric authentication
US9104921B2 (en) 2012-08-10 2015-08-11 EyeVerify, LLC. Spoof detection for biometric authentication
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9836643B2 (en) 2015-09-11 2017-12-05 EyeVerify Inc. Image and feature quality for ocular-vascular and facial recognition
US10311286B2 (en) 2015-09-11 2019-06-04 EyeVerify Inc. Fusing ocular-vascular with facial and/or sub-facial information for biometric systems
US9721150B2 (en) 2015-09-11 2017-08-01 EyeVerify Inc. Image enhancement and feature extraction for ocular-vascular and facial recognition
US10878238B2 (en) 2016-01-15 2020-12-29 Fujitsu Limited Biometric authentication device, biometric authentication method and computer-readable non-transitory medium
US11425562B2 (en) 2017-09-18 2022-08-23 Element Inc. Methods, systems, and media for detecting spoofing in mobile authentication
US11343277B2 (en) 2019-03-12 2022-05-24 Element Inc. Methods and systems for detecting spoofing of facial recognition in connection with mobile devices
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking

Also Published As

Publication number Publication date
US7346195B2 (en) 2008-03-18
JP2003533801A (ja) 2003-11-11
ATE295585T1 (de) 2005-05-15
IL152756A (en) 2006-06-11
CN1236397C (zh) 2006-01-11
DK1285409T3 (da) 2005-08-22
CN1454371A (zh) 2003-11-05
EP1285409B1 (de) 2005-05-11
DE50010319D1 (de) 2005-06-16
PT1285409E (pt) 2005-08-31
US20030091215A1 (en) 2003-05-15
US20080137916A1 (en) 2008-06-12
US7630524B2 (en) 2009-12-08
EP1285409A1 (de) 2003-02-26
IL152756A0 (en) 2003-06-24
AU2000243889A1 (en) 2001-11-26
ES2241598T3 (es) 2005-11-01

Similar Documents

Publication Publication Date Title
EP1285409B1 (de) Biometrisches identifizierungs- und authentifizierungsverfahren
EP1285326B1 (de) Verfahren und terminal zur eingabe von instruktionen
US11727098B2 (en) Method and apparatus for user verification with blockchain data storage
US10698995B2 (en) Method to verify identity using a previously collected biometric image/data
US10915618B2 (en) Method to add remotely collected biometric images / templates to a database record of personal information
DE60223129T2 (de) Verfahren und system zur sicherung eines rechnernetzwerks und persönliches identifikationsgerät, das für die steuerung des netzwerkkomponentenzugangs verwendet wird
DE60131534T2 (de) Umfassender Authentifizierungsmechanismus
IL152969A (en) A method of producing powder containing hard metal
EP1645929A1 (de) Kommunikationskarte für mobile Netzwerkgeräte sowie Authentifikationsverfahren für Benutzer mobiler Netzwerkgeräte
EP3963485B1 (de) Benutzerauthentifizierung
WO2018114676A1 (de) Verfahren und system zur verhaltensbasierten authentifizierung eines nutzers
EP3385875B1 (de) Verfahren und system zur authentifizierung
EP3404569B1 (de) Verfahren, system und computerprogrammprodukt zur verhaltensbasierten authentifizierung eines nutzers
EP1864196B1 (de) Lesegerät mit integrierter kryptographieeinheit
CN107390864B (zh) 基于眼球轨迹追踪的网络调研方法、电子设备及存储介质
DE102017204626A1 (de) Verfahren und System zur verhaltensbasierten Authentifizierung eines Nutzers
EP3889807A1 (de) Authentifizierungssystem auf basis eines telekommunikationsgeräts mit einem hirnaktivitätssensor
EP3657750B1 (de) Verfahren zur authentifizierung einer datenbrille in einem datennetz
EP3404570B1 (de) Verfahren und system zur verhaltensbasierten authentifizierung
US20230073410A1 (en) Facial recognition and/or authentication system with monitored and/or controlled camera cycling
EP3889835A2 (de) Authentifizierungssystem auf basis von fremdbildern und bekanntbildern und entsprechenden hirnaktivitätssignalen
DE102020109284A1 (de) Authentifizierungssystem auf Basis von Hirnaktivitätssignalen
ZA200210043B (en) Biometric method for identification and authorisation.
CH716218B1 (de) System und Verfahren zur Autorisierung von Transaktionen.
DE102010046035A1 (de) Endgerät zur Nutzung in einem Mobilfunknetz und Verfahren zum Betrieb desselben in einem Mobilfunknetz

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AT AU AZ BA BB BG BR BY CA CH CN CR CU CZ CZ DE DE DK DK DM DZ EE EE ES FI FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 00819730X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000925008

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10290663

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 152756

Country of ref document: IL

WWE Wipo information: entry into national phase

Ref document number: 2002/10043

Country of ref document: ZA

Ref document number: 200210043

Country of ref document: ZA

WWP Wipo information: published in national office

Ref document number: 2000925008

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2000925008

Country of ref document: EP