DE60217143T2 - Schätzung von kopfbewegung aus vier merkmalspunkten - Google Patents

Schätzung von kopfbewegung aus vier merkmalspunkten Download PDF

Info

Publication number
DE60217143T2
DE60217143T2 DE60217143T DE60217143T DE60217143T2 DE 60217143 T2 DE60217143 T2 DE 60217143T2 DE 60217143 T DE60217143 T DE 60217143T DE 60217143 T DE60217143 T DE 60217143T DE 60217143 T2 DE60217143 T2 DE 60217143T2
Authority
DE
Germany
Prior art keywords
sub
points
head
image
mrow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60217143T
Other languages
English (en)
Other versions
DE60217143D1 (de
Inventor
Miroslav Trajkovic
Vasanth Philomin
V. Srinivas GUTTA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE60217143D1 publication Critical patent/DE60217143D1/de
Publication of DE60217143T2 publication Critical patent/DE60217143T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

  • Die vorliegende Erfindung bezieht sich auf ein System und ein Verfahren zum Berechnen von Kopfbewegungsschätzung aus den Gesichtsbildpositionen, beispielsweise Augen- und Mundecken, und insbesondere auf ein lineares Verfahren zum Durchführen einer Kopfposenschätzung unter Verwendung von vier (4) Gesichtsmerkmalsdaten. Als Spezialfall wird zusätzlich ein Algorithmus für Kopfhaltungsschätzung aus vier Merkmalspunkten beschrieben.
  • Kopfposenerkennung ist ein wichtiges Gebiet in der menschlichen Computerinteraktion und es wurden bereits viele Annäherungen von Kopfposenerkennung vorgeschlagen. Die meisten dieser Annäherungen modellieren ein Gesicht mit bestimmten Gesichtsmerkmalen. So benutzen beispielsweise die meisten bestehenden Annäherungen sechs Gesichtsmerkmalspunkte, einschließlich der Pupillen, Nasenlöcher und Lippenecken, die verwendet werden zum Modellieren eines Gesichtes, während andere, wie berichtet in dem Bezugsmaterial von Z. Liu und Z. Zhang mit dem Titel: "Robust Head Motion Computation by Taking Advantage of Physical Properties", "Proc. Workshop on Human Motion" Seiten 73–80, Austin, Dezember 2000, fünf Gesichtsmerkmalspunkte benutzen, einschließlich Augen- und Mundecken und Nasenspitze. In dem Artikel von Zhang wird die Kopfbewegung von den fünf Merkmalspunkten aus durch nicht-lineare Optimierung geschätzt. Im Wesentlichen sind bestehende Algorithmen für Gesichtsposenschätzung nicht-linear.
  • Qian Cheng u. a. beschreibt ein Verfahren zur Kopfposenschätzung von einem einzigen Bild aus, und zwar unter Verwendung von Hautgebieten und Harrgebieten zum Ermitteln einer Schätzung der Kopfpose in den Eingangsbildern. Das Verfahren benutzt weiterhin einen Susan-Eckendetektor zum Ermitteln von Merkmalspunkten jedes Gesichtsmerkmals, die dann benutz werden um die Kopfpose zu ermessen. Qian Cheng u. a. schlägt einen ersten Satz von Gleichungen vor zum Schätzen der Kopfpose. Da aber dieser erste Satz von Gleichungen unter bestimmten Umständen große Fehler aufweist, wird ein zweiter Satz von Gleichungen vorgeschlagen, der vorbestimmte Werte der Kopfverlagerungen benutzt zum Lösen des zweiten Satzes von Gleichungen. Die Kopfverlagerungen werden durch Berechnung des Schwerpunktes des Gesichtsgebietes ermittelt.
  • Es wäre sehr erwünscht, einen Kopfposenschätzungsalgorithmus zu schaffen, der linear ist und rechnerisch weniger anspruchsvoll als licht-lineare Lösungen.
  • Es wäre weiterhin sehr erwünscht, einen Gesichtsposenschätzungsalgorithmus zu schaffen, der linear ist und sich auf nur vier Merkmalspunkte, wie die Augen- und Mundecken, verlässt.
  • Auf entsprechende Weise ist es nun u. a. eine Aufgabe der vorliegenden Erfindung, einen Kopfbewegungsschätzungsalgorithmus zu schaffen, der eine lineare Lösung ist.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, einen Kopfbewegungsschätzungsalgorithmus zu schaffen, der linear ist und vier Gesichtsmerkmalspunkte benutzt.
  • Es ist weiterhin eine Aufgabe der vorliegenden Erfindung, einen Kopfposenschätzungsalgorithmus zu schaffen, der sich auf einen Kopfbewegungsschätzungsalgorithmus verlässt.
  • Nach den Grundlagen der vorliegenden Erfindung wird ein lineares Verfahren zum Durchführen von Kopfbewegungsschätzung von Gesichtsmerkmalsdaten geschaffen, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: das Erhalten eines ersten Gesichtsbildes und das Detektieren eines Kopfes in dem ersten Bild; das Detektieren der Position von vier Punkten P des genannten ersten Gesichtsbildes, wobei P = {p1, p2, p3, p4}, und pk = (xk, yk); das Erhalten eines zweiten Gesichtsbildes und das Detektieren eines Kopfes in dem zweiten Bild; das Detektieren der Position von vier Punkten P' des zweiten Gesichtsbildes, wobei P' = {p'1, p'2, p'3, p'4} und p'k = (x'k, y'k) ist; und dass Ermitteln der Bewegung des Kopfes, dargestellt durch eine Rotationsmatrix R und eines Translationsvektors T unter Verwendung der Punkte P und P'. Die Kopfbewegungsschätzung erfolgt entsprechend einer Gleichung:
    Figure 00020001
    Kameradrehung bzw. Kameratranslation darstellt, wobei die Kopfposenschätzung ein spezifischer Zeitpunkt der Kopfbewegungsschätzung ist.
  • Auf vorteilhafte Weise kann der Kopfposenschätzungsalgorithmus von vier Merkmalspunkten für Avatar-Steuerapplikationen, Video-Chatt- und Gesichtserkennungsapplikationen benutzt werden.
  • Ausführungsbeispiele der vorliegenden Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 die Konfiguration typischer Merkmalspunkte für einen typischen Kopf,
  • 2 die Gesichtsgeometrie 10, welche die Basis des Kopfposenschätzungsalgorithmus der vorliegenden Erfindung schafft.
  • Nach den Grundlagen der vorliegenden Erfindung, wie in Anspruch 1 beschrieben, wird ein lineares Verfahren zum Berechnen der Kopfbewegungsschätzung aus den Bildpositionen von Augen- und Mundecken geschaffen. Insbesondere wird ein Verfahren zum Schätzen von Kopfbewegung aus vier Punktübereinstimmungen geschaffen, wobei die Kopfposenschätzung ein Sonderfall ist, wenn ein Bild einer Vorderansicht als Bezugslage verwendet wird.
  • Das Verfahren ist besser als andere bestehende Verfahren, die entweder mehr Punkübereinstimmungen (wenigstens 7) brauchen, oder nicht-linear sind, wobei wenigstens 5 Gesichtsmerkmalübereinstimmungen erforderlich sind.
  • Im Allgemeinen ist das Verfahren zur Kopfbewegungsschätzung wie folgt: der erste Schritt ist das Erfassen eines ersten Bildes I1 und das Detektieren des Kopfes in I1. Danach werden Punkte P detektiert, die den Außenecken von Augen und Mund in I1 entsprechen, d.h. P = {p1, p2, p3, p4}, wobei pk = (xk, yk) Bildkoordinaten eines Punktes bezeichnet. Danach wird ein zweites Bild I2 erfasst mit dem Kopf, detektiert in I2. Dann werden Punkte P' detektiert, die den Augen und dem Mund und deren Außenecken in I2 entsprechen, d.h. P' = {p'1, p'2, p'3, p'4}, wobei p'k = (x'k, y'k)). Aus P und P' betrifft der nächste Schritt die Ermittlung der Bewegung des Kopfes, dargestellt durch eine Rotationsmatrix R und einen Translationsvektor T. Es dürfte einleuchten, dass, wenn die Bewegungsparameter R und T einmal berechnet worden sind, die 3-D Struktur aller Punktübereinstimmungen berechnet werden können. Struktur und Translation können aber nur bis zu einem Maßstab ermittelt werden, so dass, wenn die Größe von T fest liegt, nur die Struktur einzigartig ermittelt wird. Wenn die Tiefe eines Punktes in 3D fest liegt, wird T einzigartig ermittelt.
  • Wie erwähnt, ist der Algorithmus für Kopfposenschätzung ein Sonderfall des Kopfbewegungsschätzungsalgorithmus und es gibt zwei Möglichkeiten, wie dies durchgeführt werden kann: 1) interaktiv, was ein Bezugbild erfordert; und 2) annähernd, wobei eine allgemeine (mittelbiometrische) Kopfgeometrieinformation verwendet wird, auch als "Generic Head Model" (GHM) bezeichnet.
  • Für den interaktiven Algorithmus werden die nachfolgenden Verfahrensschritte implementiert: 1) Vor der Anwendung des Systems wird ein Benutzer gebeten, in einer vorher definierten Bezugslage in die Kamera zu schauen. Die Bezugs-Augenecken und Bezugs-Mundecken P0 sind erforderlich, wie in den oben stehenden Schritten beschrieben. 2) Wenn ein neues Bild erforderlich ist, werden die Augen- und Mundecken detektiert und die Kopfbewegung wird geschätzt, wie in den restlichen Schritten, angegeben in dem oben stehenden Algorithmus. 3) Die Kopfrotationsmatrix entspricht der Kopfposenmatrix.
  • Der Annäherungsalgorithmus erfordert Interaktion mit dem Benutzer, setzt aber voraus, dass bestimmte biometrische Information verfügbar und für alle Benutzer fest ist. So wird beispielsweise, wie in 1 dargestellt, der Annäherungsalgorithmus mit der Konfiguration typischer Merkmalspunkte für einen typischen Kopf 10 in Bezug auf ein Kamerakoordinationssystem 20 als System Cxyz bezeichnet. In 1 stellen die Punkte P1 und P3 die Augen- bzw. Mundecken des geometrischen Kopfmodells 19 dar. Es dürfte einleuchten, dass für die Vorderansicht, dargestellt in 1, diese Punkte P1 und P3 verschiedene Tiefen (Z1 bzw. Z3) haben. Es wird vorausgesetzt, dass der Winkel τ bekannt ist und es wird ein Mittelwert für alle möglichen menschlichen Köpfe verwendet. Dies ist nicht ein genauer Wert, aber ein Kippwinkel lässt sich schwer genau berechnen, da sogar dieselbe Person, gebeten wird gerade in die Kamera zu schauen, den Kopf bei wiederholten Versuchen auf verschieden kippen kann. Für den festen Winkel τ kann die Kopfpose einzigartig aus nur einem einzigen Bild des Kopfes ermittelt werden, wie nachstehend noch näher erläutert wird.
  • Zur Beschreibung wird vorausgesetzt, dass eine Kamera oder eine digitale Bilderzeugungsanordnung zwei Bilder eines Modellkopfes in verschiedenen Lagen erfasst. Dabei bezeichnen die Punkte p1, p2, p3 und p4 die Bildkoordinaten der Augenecken (die Punkte p1, p2) und der Mundecken (die Punkte p3 und p4) in einem ersten Bild und es wird vorausgesetzt, dass p'1, p'2, p'3, p'4 die entsprechenden Augeneckenkoordinaten und Mundeckenkoordinaten in einem zweiten Bild. Wenn diese Merkmalskoordinaten gegeben sind, ist die Aufgabe Kopfbewegung zu ermitteln (dargestellt durch Drehung und Translation) zwischen den ersten und den zweiten zwei Bildern.
  • Im Allgemeinen wird der Algorithmus in den nachfolgenden Schritten durchgeführt: 1) Unter Verwendung von Gesichtsbeschränkungen, das Berechnen der dreidimensionalen (3-D) Koordinaten für die Merkmalspunkte der beiden Bilder; und 2) wenn die 3-D Lagen der Merkmalspunkte gegeben sind, das Berechnen der Bewegungsparameter (Rotation R und Translation T Matrices).
  • Die Schritte der Berechnung der 3-D Koordinaten von Merkmalspunkten nach dem Algorithmus werden nun beschrieben. Wie in der Gesichtsgeometrie 10, dargestellt in 2, bezeichnen die Merkmale an den Punkten P1, P2, P3, P4 und P1', P2', P3', P4' die 3-D Koordinaten der betreffenden Augen- und Mundecken in den ersten zwei Bildern. Aus der Gesichtsgeometrie, dargestellt in 2 werden die nachfolgenden Eigenschaften vorausgesetzt: 1) der Linienabschnitt 12, der die Punkte P1P2 verbindet, erstreckt sich parallel zu dem Liniensegment 15, entsprechend den Punkten P3P4, d.h. P1P2 || P3P4; 2) das Liniensegment 12, das die Punkte P1P2 verbindet, steht senkrecht auf einem Liniensegment, das die Punkte P5P6 verbindet (wobei P5 und P6 Mittelpunkte der Segmente P1P2 bzw. P3P4 sind). Numerisch können diese Eigenschaften 1 und 2 entsprechend betreffenden Gleichungen (1) und (2) wie folgt geschrieben werden:
    Figure 00050001
    wobei Pi = [Xi Yi Zi]T 3-D Koordinaten eines Bildpunktes pi bezeichnet. Die Beziehung zwischen Bild und den dreidimensionalen (3-D) Koordinaten eines beliebigen Punktes Pk wird durch eine durchaus bekannte betreffende Gleichung wie folgt gegeben:
    Figure 00050002
  • Da es durchaus bekannt ist, dass die Strukturwiederherstellung aus einäugigen Bildsequenzen nur bis zu einem Maßstab durchgeführt werden kann, ist eine der Z Koordinaten fest, und die anderen Koordinaten werden anhand dieser einen berechnet. Folglich wird zum Vereinfachen der Berechnung und ohne Verlust der Allgemeinheit wird vorausgesetzt, dass Z1 = 1 ist. Durch Kreuzmultiplikation der Gleichung (1) und durch Substitution von (3) in (1) resultieren die nachfolgenden Beziehungen, die in den Gleichungen (4) und (5) beschrieben werden: Z3[(x1 – x3) – Z2(x2 – x3)] – Z4[(x1 – x4) – Z2(x2 – x4)] = 0 (4) Z3[(y1 – y3) – Z2(y2 – y3)] – Z4[(y1 – y4) – Z2(y2 – y4)] = 0 (5)
  • Wenn die Gleichungen (4) und (5) in Matrixform beschrieben werden, entsteht die Gleichung (6):
    Figure 00060001
  • Diese Gleichung wird unbedeutende Lösungen in Z3 und Z4 haben, wenn und nur dann, wenn der Bestimmungsfaktor in der Gleichung (7) gleich Null ist, d.h.
  • Figure 00060002
  • Auf gleiche Weise kann die Gleichung (7) als Gleichung (8) wie folgt geschrieben werden:
    Figure 00060003
  • Die Gleichung (8) ist ein Polynom zweiter Ordnung und hat zwei Lösungen. Es ist leicht zu überprüfen (beispielsweise durch Substitution in (7), dass es eine bedeutende Lösung gibt, Z2 = 1, und die zweite Lösung wird gefunden als:
    Figure 00060004
  • Durch Substitution von Z2 in eine der Gleichungen (4) und (5) wird eine einzige lineare Gleichung in Z3 und Z4 erhalten. Eine andere Gleichung wird durch Substitution (3) in (2) erhalten und ist von der Form:
    Figure 00070001
    wobei phi = [xi yi 1]T ist. Z3 und Z4 können nun aus den Gleichungen (10) und (4) gelöst werden.
  • Bekanntlich kann die Bewegung der Kopfpunkte entsprechend der Gleichung (11) ausgedrückt werden, wie: Pi' = RPi + T (11)wobei
    Figure 00070002
    Kameradrehung bzw. Kameratranslation darstellen. Die Gleichung (11) kann nun in Termen von R und T beschrieben werden wie:
    Figure 00070003
  • Aus der Gleichung (12) ist ersichtlich, dass jedes Punktepaar 3 Gleichungen ergibt. Da die gesamte Anzahl Unbekannter zwölf (12) ist, sind wenigstens vier Punktepaare notwendig um Rotation und Translation linear zu lösen.
  • Es dürfte einleuchten, dass die Elemente der Matrix R nicht unabhängig sind (d.h. RRT = I) so dass es, wenn Matrix R einmal gelöst worden ist, notwendig sein kann, dass sie korrigiert wird, so dass sie die richtige Rotationsmatrix darstellt. Dies kann durch Zerlegung von R unter Anwendung von "Singular Value Decomposition" (SVD) in eine Form R = USVT und durch Berechnung einer neuen Rotationsmatrix entsprechend der Gleichung (3) wie Folgt durchgeführt werden: R = UVT (13)
  • Bekanntlich kann eine Kopfpose auf einzigartige Weise als ein Satz von drei Winkeln (Gierung, Roll und Teilung) dargestellt werden, oder, als eine Rotationsmatrix R (wenn gegeben ist, dass es zwischen der Rotationsmatrix und den Posenwinkeln eine genaue Übereinstimmung gibt). Interaktive Kopfposenschätzung ist aber gleichwertig mit Kopfbewegungsschätzung, es wird aber eine nahezu Kopfposenschätzung beschrieben, die durch Zerlegung in drei Schritte vereinfacht werden kann, und zwar wie folgt: 1) es wird vorausgesetzt, dass der Benutzer den Kopf gehoben hat, so dass die Augen- und Mundecken im gleichen Abstand von der Kamera sind (z1 = z2 = z3 = z4) und dass dies eine "Auxiliary Reference Position" (ARP) ist; 2) das Berechnen der Kopfpose für die ARP; und 3) das Aktualisieren eines Teilungswinkels durch einfache Subtraktion von τ von dem Wert in ARP.
  • Die Rotationsmatrix R kann wie folgt geschrieben werden:
    Figure 00080001
    was die Bedingung RRT = I erfüllt, oder gleichwertig:
    Figure 00080002
  • Es wird nun vorausgesetzt, dass F1, F2, F3, F4 die 3-D Koordinaten der Augen- und Mundecken der als Bezugswert betrachteten Vorderansicht des Gesichtes bezeichnen. Dann werden, unter Berücksichtigung der Gesichtsgeometriebeschränkungen und der oben genannten Beschränkung 1) die Beziehungen erhalten, die durch die Gleichung 15) gesteuert werden, und zwar wie folgt: F2 – F1 ∝ [1 0 0]T F6 – F5 ∝ [0 1 0]T (15)wobei das Symbol ∝ "gleich bis zu einem bestimmten Maßstab" oder Proportional bedeu tet. Das von der vorliegenden Erfindung durchgeführte Ziel ist eine Posenmatrix R zu finden, welche die Punkte Pk bis Fk abbildet, d.h. R(P2 – P1) ∝ [1 0 0]T R(P6 – P5) ∝ [0 1 0]T (16)
  • In Termen von Reihen der Rotationsmatrix kann die Gleichung (6) wie folgt geschrieben werden:
    Figure 00090001
  • Aus der zweiten und vierten Gleichung in (17) kann r3 wie folgt berechnet werden: r3 = (P6 – P5) × (P2 – P1) (18)
  • Die restlichen Komponenten der Rotationsmatrix können aus (14) und (17) wie folgt berechnet werden: r2 = r3 × (P2 – P1) r1 = r2 × r3 (19)
  • Aus der Gleichung (19) ist es ziemlich einfach, Gierungswinkel, Rollwinkel und Neigungswinkel zu berechnen. Der wirkliche Neigungswinkel wird dann durch Subtraktion von τ von dem aktuellen Wert erhalten.
  • Während dargestellt und beschrieben worden ist, was als bevorzugte Ausführungsformen der vorliegenden Erfindung betrachtet wird, dürfte es selbstverständlich einleuchten, dass mehrere Modifikationen und Änderungen in Form oder Einzelheit auf einfache Art und Weise im Rahmen der vorliegenden Erfindung durchgeführt werden können. Deswegen soll die vorliegende Erfindung nicht auf die beschriebenen und dargestell ten genauen Formen begrenzt sein, sondern soll als alle Modifikationen, die im Rahmen der beiliegenden Patentansprüche liegen, deckend betrachtet werden.

Claims (10)

  1. Lineares Verfahren zum Durchführen einer Kopfbewegungsschätzung aus Gesichtsmerkmalsdaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erhalten eines ersten Gesichtsbildes und das Detektieren eines Kopfes in dem genannten ersten Bild; – das Detektieren von vier Punkten P des genannten ersten Gesichtsbildes, wobei P = {p1, p2, p3, p4}, und pk = (xk, yk); – das Erhalten eines zweiten Gesichtsbildes und das Detektieren eines Kopfes in dem genannten zweiten Bild; – das Detektieren der Lage von vier Punkten P' des genannten zweiten Gesichtbildes entsprechend denselben Punkten P des ersten Gesichtsbildes, wobei P' = {p'1, p'2, p'3, p'4} und p'k = (x'k, y'k)); – das Berechnen der dreidimensionalen (3-D) Koordinaten P und P' aus P bzw. P'; und – das Ermitteln der Bewegung des Kopfes, dargestellt durch eine Drehungsmatrix R und eines Translationsvektors T unter Verwendung der genannten P und P'.
  2. Lineares Verfahren nach Anspruch 1, wobei die genannten vier Punkte P des genannten ersten Gesichtsbildes (10) und die genannten vier Punkte P' des genannten zweiten Gesichtsbildes Stellen von Außenecken von Augen und Mund jedes betreffenden ersten und zweiten Gesichtsbildes enthalten.
  3. Lineares Verfahren nach Anspruch 1, wobei die genannte Kopfbewegungsschätzung nach der unten stehenden Gleichung verwaltet wird:
    Figure 00110001
    Kameradrehung bzw. geradlinige Verlagerung darstellen, wobei die genannte Kopfhaltungsschätzung ein bestimmter Zeitpunkt der Kopfbewegungsschätzung ist.
  4. Lineares Verfahren nach Anspruch 3, wobei die genannte Kopfbewegungsschätzung entsprechend der genannten Drehungsmatrix G verwaltet wird, wobei das genannte Verfahren weiterhin die nachfolgenden Verfahrensschritt umfasst: das Ermitteln der Drehungsmatrix G, die Punkte Pk bis Fk abbildet zum Kennzeichnen einer Kopfhaltung, wobei die genannten Punkte F1, F2, F3, F4 dreidimensionale (3-D) Koordinaten der betreffenden nicht mehr als vier Punkte eines Bezugswertes entsprechend denselben Punkten P des ersten Gesichtsbildes, der Vorderansicht des genannten Gesichtsbildes, und Pk die dreidimensionalen (3-D) Koordinaten eines beliebigen Punktes ist, wobei Pi = [Xi Yi Zi]T ist, wobei die genannte Abbildung entsprechend der nachstehenden Beziehung gesteuert wird: R(P2 – P1) ∝ [1 0 0]T R(P6 – P5) ∝ [0 1 0]T wobei P5 und P6 Mittelpunkte betreffender Linienabschnitte sind, welche die Punkte P1 mit P2 (12) und P3 mit P4 verbindet (15) und wobei der Linienabschnitt, der die Punkte P1 mit P2 verbindet, zu einem Linienabschnitt, der die Punkte P5 mit P6 verbindet, orthogonal ist, und wobei ∝ den Proportionalitätsfaktor angibt.
  5. Lineares Verfahren nach Anspruch 4, wobei die Elemente g1, g2 und g3 wie folgt berechnet werden:
    Figure 00120001
  6. Lineares Verfahren nach Anspruch 5, wobei die Elemente g1, g2 und g3 wie folgt berechnet werden: r3 = (P6 – P5) × (P2 – P1), r2 = r3 × (P2 – P1) r1 = r2 × r3
  7. Lineares Verfahren nach Anspruch 3, wobei
    Figure 00130001
    wobei jedes Punktepaar 3 Gleichungen liefert, wobei wenigstens vier Punktepaare notwendig sind um auf lineare Weise die genannte Drehung und geradlinige Verlagerung zu lösen.
  8. Lineares Verfahren nach Anspruch 7, das weiterhin den nachfolgenden Verfahrensschritt umfasst: – das Das Zerlegen der genannten Drehungsmatrix R unter Anwendung der SVD ("Singular Value Decomposition") zum Erhalten einer Form R = USVT.
  9. Lineares Verfahren nach Anspruch 7, das weiterhin den Verfahrensschritt der Berechnung einer neuen Drehungsmatrix entsprechend R = UVT umfasst.
  10. Mit einer Maschine auslesbare Programmspeicheranordnung, fühlbar ein Programm mit Instruktionen verkörpernd, die von der Maschine durchführbar sind zum Durchführen der Verfahrensschritte zum Durchführen einer Kopfbewegungsschätzung aus Gesichtsmerkmalsdaten mit Hilfe des Verfahren nach einem der vorstehenden Ansprüche.
DE60217143T 2001-09-28 2002-09-10 Schätzung von kopfbewegung aus vier merkmalspunkten Expired - Fee Related DE60217143T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US966410 2001-09-28
US09/966,410 US7027618B2 (en) 2001-09-28 2001-09-28 Head motion estimation from four feature points
PCT/IB2002/003713 WO2003030086A1 (en) 2001-09-28 2002-09-10 Head motion estimation from four feature points

Publications (2)

Publication Number Publication Date
DE60217143D1 DE60217143D1 (de) 2007-02-08
DE60217143T2 true DE60217143T2 (de) 2007-10-04

Family

ID=25511358

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60217143T Expired - Fee Related DE60217143T2 (de) 2001-09-28 2002-09-10 Schätzung von kopfbewegung aus vier merkmalspunkten

Country Status (8)

Country Link
US (1) US7027618B2 (de)
EP (1) EP1433119B1 (de)
JP (1) JP2005505063A (de)
KR (1) KR20040037152A (de)
CN (1) CN1316416C (de)
AT (1) ATE349738T1 (de)
DE (1) DE60217143T2 (de)
WO (1) WO2003030086A1 (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218774B2 (en) * 2003-08-08 2007-05-15 Microsoft Corp. System and method for modeling three dimensional objects from a single image
US7508979B2 (en) * 2003-11-21 2009-03-24 Siemens Corporate Research, Inc. System and method for detecting an occupant and head pose using stereo detectors
US20070263923A1 (en) * 2004-04-27 2007-11-15 Gienko Gennady A Method for Stereoscopic Measuring Image Points and Device for Carrying Out Said Method
CN100358340C (zh) * 2005-01-05 2007-12-26 张健 可选择最佳拍照时机的数码相机
US9030486B2 (en) 2008-08-22 2015-05-12 University Of Virginia Patent Foundation System and method for low bandwidth image transmission
CN101697199B (zh) * 2009-08-11 2012-07-04 北京盈科成章科技有限公司 头面部动作检测方法及应用该方法操控计算机的助残系统
US8363919B2 (en) 2009-11-25 2013-01-29 Imaging Sciences International Llc Marker identification and processing in x-ray images
US9082036B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for accurate sub-pixel localization of markers on X-ray images
US9082182B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Extracting patient motion vectors from marker positions in x-ray images
US9082177B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for tracking X-ray markers in serial CT projection images
US9826942B2 (en) * 2009-11-25 2017-11-28 Dental Imaging Technologies Corporation Correcting and reconstructing x-ray images using patient motion vectors extracted from marker positions in x-ray images
KR20120059994A (ko) 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
US8964041B2 (en) * 2011-04-07 2015-02-24 Fr Vision Ab System and method for video stabilization of rolling shutter cameras
CN102842146B (zh) * 2011-06-25 2015-01-07 湖南大学 一种基于构造分解法的运动数据转换方法
CN102289844B (zh) * 2011-07-18 2013-11-06 中国科学院自动化研究所 一种三维图像尺度不变特征的候选点选取方法
US8803800B2 (en) * 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9020192B2 (en) 2012-04-11 2015-04-28 Access Business Group International Llc Human submental profile measurement
CN102999164B (zh) * 2012-11-30 2016-08-03 广东欧珀移动通信有限公司 一种电子书翻页控制方法及智能终端
KR102085180B1 (ko) * 2013-10-08 2020-03-05 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
US9898674B2 (en) 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition
CN106774936B (zh) * 2017-01-10 2020-01-07 上海木木机器人技术有限公司 人机交互方法及系统
WO2019000462A1 (zh) 2017-06-30 2019-01-03 广东欧珀移动通信有限公司 人脸图像处理方法、装置、存储介质及电子设备
WO2019073732A1 (ja) * 2017-10-10 2019-04-18 株式会社 資生堂 ストレスの評価方法
US10373332B2 (en) * 2017-12-08 2019-08-06 Nvidia Corporation Systems and methods for dynamic facial analysis using a recurrent neural network
CN114007054B (zh) * 2022-01-04 2022-04-12 宁波均联智行科技股份有限公司 车载屏幕画面投影矫正的方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586215A (en) * 1992-05-26 1996-12-17 Ricoh Corporation Neural network acoustic and visual speech recognition system
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
TW413795B (en) * 1999-02-26 2000-12-01 Cyberlink Corp An image processing method of 3-D head motion with three face feature points
GB0004165D0 (en) * 2000-02-22 2000-04-12 Digimask Limited System for virtual three-dimensional object creation and use
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation

Also Published As

Publication number Publication date
US7027618B2 (en) 2006-04-11
EP1433119B1 (de) 2006-12-27
CN1561499A (zh) 2005-01-05
ATE349738T1 (de) 2007-01-15
EP1433119A1 (de) 2004-06-30
JP2005505063A (ja) 2005-02-17
US20030063777A1 (en) 2003-04-03
WO2003030086A1 (en) 2003-04-10
KR20040037152A (ko) 2004-05-04
DE60217143D1 (de) 2007-02-08
CN1316416C (zh) 2007-05-16

Similar Documents

Publication Publication Date Title
DE60217143T2 (de) Schätzung von kopfbewegung aus vier merkmalspunkten
DE60023447T2 (de) Verfahren zur berechnung der lage und ausrichtung eines objektes im dreidimensionalen raum
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE69919464T2 (de) Elektronische Vorrichtung zur Bildausrichtung
EP3308361B1 (de) Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
DE102017215283A1 (de) Verfahren zum Anonymisieren eines Bilds für ein Kamerasystem eines Kraftfahrzeugs, Bildverarbeitungseinrichtung, Kamerasystem sowie Kraftfahrzeug
DE112017006976B4 (de) Überlagerungspositionskorrektureinrichtung und überlagerungspositionskorrekturverfahren
DE3709919C2 (de)
WO2008034646A1 (de) Verfahren und vorrichtung zum erkennen eines gesichts sowie ein gesichtserkennungsmodul
DE102014225848A1 (de) Vorrichtung, Verfahren und computerlesbares Medium zum Korrigieren eines Interpolationskoeffizienten für einen Stereoabgleich
DE102019100011B4 (de) Verfahren zur 3D-Rekonstruktion eines Objekts
EP3420533B1 (de) Verfahren zum kalibrieren eines optischen messaufbaus
DE60020234T2 (de) Verfahren und vorrichtung zur bildwiedergabe
WO2008154989A1 (de) Verfahren zur optimierung eines stereoskopischen bildes
EP1425709A2 (de) Modellbasierte objektklassifikation und zielerkennung
EP1756748B1 (de) Verfahren zur klassifizierung eines objekts mit einer stereokamera
EP1402460B1 (de) Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke
DE102014108357B4 (de) Ganzkörperbildaufnahme- und Bildverarbeitungssystem sowie Verfahren zu dessen Betrieb
DE3903838C2 (de)
WO2012150150A1 (de) Verfahren zur rechnergestützten lageschätzung eines objekts
DE69912853T2 (de) Verfahren zur manuellen bearbeitung von geschlossenen kurven
DE19934904C2 (de) Verfahren und Vorrichtung zur Bildzuordnung
DE102022204009A1 (de) Verfahren und Einrichtung zur Bestimmung der 6D-Geste eines Objekts
DE102020212181A1 (de) Verfahren zum Validieren von Simulationsmodellen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee