DE69934478T2 - Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen - Google Patents

Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen Download PDF

Info

Publication number
DE69934478T2
DE69934478T2 DE69934478T DE69934478T DE69934478T2 DE 69934478 T2 DE69934478 T2 DE 69934478T2 DE 69934478 T DE69934478 T DE 69934478T DE 69934478 T DE69934478 T DE 69934478T DE 69934478 T2 DE69934478 T2 DE 69934478T2
Authority
DE
Germany
Prior art keywords
model
face
faces
image
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69934478T
Other languages
English (en)
Other versions
DE69934478D1 (de
Inventor
Blanz Volker
Vetter Thomas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Original Assignee
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Max Planck Gesellschaft zur Foerderung der Wissenschaften eV filed Critical Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Publication of DE69934478D1 publication Critical patent/DE69934478D1/de
Application granted granted Critical
Publication of DE69934478T2 publication Critical patent/DE69934478T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Bildverarbeitung, insbesondere auf die Manipulation (Detektion, Erkennung und/oder Synthetisierung) von Bildern von dreidimensionalen Objekten, wie z.B. menschlichen Gesichtern, auf der Basis eines morphing-fähigen Modells (Metamorphosemodells) zur Bildsynthese. Des Weiteren betrifft die vorliegende Erfindung ein Bildverarbeitungssystem zur Implementierung eines derartigen Verfahrens.
  • Ein Gebiet der Bildmanipulation betrifft insbesondere die Manipulation von menschlichen Gesichtern. Die Modellierung menschlicher Gesichter hat Forscher im Gebiet der Computergrafik seit deren Anfängen herausgefordert. Seit der Pionierarbeit von Parke [23, 24, siehe beigefügte Literaturliste] wurde über verschiedene Techniken zur Modellierung der Geometrie von Gesichtern [9, 10, 20, 31, 19] und zu deren Animation [26, 13, 17, 29, 20, 35, 27] berichtet. Eine detaillierte Übersicht findet sich im Buch von Parke und Waters [22].
  • Die für die Animation von Gesichtern entwickelten Techniken können grob in solche, die auf einer physikalischen Modellierung von Gesichtsmuskeln [35] und solche unterteilt werden, die vorher aufgenommene Gesichtsausdrücke einem Gesicht zuordnen [23, 2]. Diese Leistungs-basierten Animationstechniken berechnen die Korrespondenz zwischen den verschiedenen Gesichtsausdrücken einer Person, indem Markierungen, die auf das Gesicht aufgeklebt sind, von Bild zu Bild verfolgt werden. Um photorealistische Gesichtsanimationen zu erhalten, muss eine große Anzahl von Markierungen (z.B. bis zu 182 Markierungen) verwendet werden [13].
  • Die computergestützte Modellierung von menschlichen Gesichtern erfordert noch einen großen Anteil von Expertise und manueller Kontrolle, um unrealistische, nicht-gesichtsähnliche Ergebnisse zu vermeiden. Die meisten Beschränkungen von automatisierten Techniken zur Gesichtssynthese, zur Gesichtsanimation oder für allgemeine Änderungen im Erscheinungsbild eines einzelnen Gesichts können entweder als das Problem des Auffindens entsprechender Merkmalsorte in verschiedenen Gesichtern oder als das Problem des Trennens realistischer Gesichter von Gesichtern beschrieben werden, die in der realen Welt nie auftreten würden. Das Korrespondenzproblem ist für alle Morphing-Techniken, für die beiden Anwendungen von Bewegungsaufnahmedaten auf Bilder oder 3D-Gesichtsmodelle, und für die meisten 3D-Gesichtsrekonstruktionstechniken aus Bildern kritisch. Eine begrenzte Anzahl von markierten Merkmalspunkten, die in einem Gesicht markiert sind, z.B. die Spitze der Nase, der Augenwinkel und weniger prominente Punkte auf der Wange, müssen in einem anderen Gesicht genau lokalisiert werden. Die Anzahl von manuell markierten Merkmalspunkten variiert von Anwendung zu Anwendung, reicht jedoch gewöhnlich von 50 bis 300. Nur eine richtige Ausrichtung von all diesen Punkten erlaubt annehmbare Zwischen-Morphing-Ergebnisse, eine überzeugende Abbildung von Bewegungsdaten von der Referenz auf ein neues Modell oder die Anpassung eines 3D-Gesichtsmodells an 2D-Bilder zum „Video-Cloning". Menschliches Wissen und Erfahrung sind notwendig, um die Variationen zwischen individuellen Gesichtern zu kompensieren und eine gültige Ortszuordnung in den verschiedenen Gesichtern zu garantieren. Gegenwärtig können automatisierte Anpassungstechniken nur für sehr prominente Merkmalspunkte, so wie die Winkel der Augen oder des Mundes, verwendet werden.
  • Ein zweiter Problemtyp beim Gesichtsmodellieren ist die Trennung von natürlichen Gesichtern von Nicht-Gesichtern. Hierfür ist menschliches Wissen sogar entscheidender. Viele Anwendungen beinhalten die Gestaltung von vollständig neuen, natürlich aussehenden Gesichtern, die in der realen Welt auftreten können, jedoch kein „reales" Gegenstück haben. Andere erfordern die Manipulation eines existierenden Gesichtes entsprechend Änderungen im Alter oder Körpergewicht oder einfach zur Betonung der Charakteristika des Gesichts. Derartige Aufgaben erfordern gewöhnlich zeitaufwändige manuelle Arbeit in Kombination mit den Fähigkeiten eines Künstlers.
  • Weitere Techniken des Standes der Technik sind unten beschrieben.
  • Es ist die Aufgabe der Erfindung, verbesserte Bildverarbeitungsverfahren und -systeme bereitzustellen, die in der Lage sind, den obengenannten Problemen zu begegnen und die insbesondere Bilder von dreidimensionalen Objekten in einer flexibleren und wirksameren Weise verarbeiten.
  • Diese Aufgabe wird durch ein Verfahren gelöst, das die Merkmale von Anspruch 1 umfasst. Vorteilhafte Ausführungsformen und Implementierungen der Erfindung sind in den abhängigen Ansprüchen definiert.
  • Erfindungsgemäß wird eine parametrische Gesichtsmodellierungstechnik präsentiert, die bei beiden obigen Problemen behilflich ist. Erstens können willkürliche menschliche Gesichter erzeugt werden, wobei gleichzeitig die Wahrscheinlichkeit der erzeugten Gesichter gesteuert wird. Zweitens ist das System in der Lage, eine Korrespondenz zwischen neuen Gesichtern zu berechnen. Unter Ausnutzung der Statistiken eines großen Datensatzes von 3D-Gesichtsabtastungen (geometrische und tex turbezogene Daten, CyberwareTM) wurde ein morphing-fähiges Gesichtsmodell aufgebaut, das erlaubt, durch Anwendung von Musterklassifizierungsverfahren Domänenkenntnisse über Gesichtsvariationen zu gewinnen. Das morphing-fähige Gesichtsmodell ist eine multidimensionale 3D-Morphingfunktion, die auf der Linearkombination einer großen Anzahl von 3D-Gesichtsabtastungen basiert. Durch die Berechnung des Mittelwert-Gesichts und der Hauptmoden einer Variation im Datensatz wird eine Wahrscheinlichkeitsverteilung auf der Morphingfunktion eingeführt, um unwahrscheinliche Gesichter zu vermeiden. Es sind auch parametrische Beschreibungen von Gesichtsattributen, so wie Geschlecht, Unterscheidbarkeit, „Hakennasen" oder das Gewicht einer Person, abgeleitet, indem die Verteilung von exemplarischen Gesichtern für jedes Attribut innerhalb unseres Gesichtsraumes bewertet wurde.
  • Indem ein parametrisches Gesichtsmodell konstruiert wurde, das in der Lage ist, nahezu jedes Gesicht zu erzeugen, wird das Korrespondenzproblem in ein mathematisches Optimierungsproblem gewandelt. Neue Gesichter, Bilder oder 3D-Gesichtsabtastungen können registriert werden, indem die Differenz zwischen dem neuen Gesicht und seiner Rekonstruktion durch die Gesichtsmodellfunktion minimiert wird. Ein Algorithmus ist entwickelt worden, der die Modellparameter automatisch für eine optimale Rekonstruktion des Targets einstellt, wobei nur ein Minimum manueller Initialisierung erforderlich ist. Die Ausgangsgröße der Anpassungsprozedur ist ein 3D-Gesichtsmodell hoher Qualität, das in voller Korrespondenz mit dem morphing-fähigen Gesichtsmodell ist. Folglich können alle Gesichtsmanipulationen, die in der Modellfunktion parametrisiert sind, in das Targetgesicht abgebildet werden. Das Vorwissen über die Gestalt und Textur von Gesichtern im Allgemeinen, das in unserer Modellfunktion aufgenommen ist, ist genügend, um recht gute Bestimmungen der gesamten 3D- Gestalt und -Textur eines Gesichts selbst dann herzustellen, wenn nur ein einziges Bild verfügbar ist. Wenn das Verfahren auf mehrere Bilder einer Person angewendet wird, erreichen die Rekonstruktionen nahezu die Qualität von Laser-Abtastungen.
  • Der Schlüsselteil der Erfindung ist ein verallgemeinertes Modell menschlicher Gesichter. Ähnlich dem Ansatz von DeCarlos et al. [9] wird der Bereich zulässiger Gesichter entsprechend den Zwangsbedingungen beschränkt, die von prototypischen menschlichen Gesichtern abgeleitet werden. Anstelle der Verwendung eines begrenzten Satzes von Messungen und Proportionen zwischen einem Satz von Gesichts-Charakteristika wird jedoch die dicht abgetastete Geometrie der exemplarischen Gesichter, die durch Laserabtastung (CyberwareTM) erhalten wird, direkt verwendet. Die dichte Modellierung der Gesichtsgeometrie (einige Tausend Scheitelpunkte pro Gesicht) führt direkt zu einer Triangulation der Oberfläche. Folglich besteht kein Bedarf an variierenden Oberflächeninterpolationstechniken [9, 21, 30]. Die Erfinder fügten auch ein Modell von Texturvariationen zwischen Gesichtern hinzu. Das morphing-fähige 3D-Gesichtsmodell ist eine konsequente Ausdehnung der Interpolationstechnik zwischen Gesichtsgeometrien, wie sie durch Parke [24] eingeführt wurde. Mit der automatischen Berechnung der Korrespondenz zwischen individuellen 3D-Gesichtsdaten ermöglicht die Erfindung, die Anzahl von Scheitelpunkten, die in der Gesichtsrepräsentation verwendet werden, von einigen Hundert auf Zehntausende zu vergrößern.
  • Darüber hinaus kann eine größere Anzahl von Gesichtern verwendet werden, und so kann eher zwischen Hunderten als eben einigen „Basis"-Gesichtern interpoliert werden. Das Ziel eines derart ausgedehnten morphing-fähigen Gesichtsmodells ist es, jedes Gesicht als eine Linearkombination eines limitier ten Basissatzes von Gesichtsprototypen zu repräsentieren. Die Repräsentation des Gesichts einer willkürlichen Person als eine Linearkombination (Morph) von „Prototypen"-Gesichtern wurde erstmalig für die Bildkompression in der Telekommunikation formuliert [7]. Bildbasierte, lineare 2D-Gesichtsmodelle, die große Datensätze von Prototypen-Gesichtern ausnutzen, wurden für die Gesichtserkennung und Bildcodierung entwickelt [3, 16, 34].
  • Verschiedene Ansätze wurden genommen, um den Anpassungsschritt zu automatisieren, der notwendig ist, um morphing-fähige Modelle aufzubauen. Eine Klasse von Techniken ist auf optischen Flussalgorithmen [4, 3] und eine andere Klasse auf einer aktiven Modellanpassungsstrategie [11, 15] basiert. Kombinationen von beiden Techniken wurden auf das Problem der Bildanpassung angewendet [33]. Erfindungsgemäß wurde eine Ausdehnung dieses Ansatzes auf das Problem des Anpassens von 3D-Gesichtern erhalten.
  • Das Problem der Korrespondenz zwischen verschiedenen dreidimensionalen Gesichtsdaten wurde jüngst durch Lee et al. angesprochen [18]. Deren Formanpassungsalgorithmus unterscheidet sich in mehreren Beziehungen signifikant von der Erfindung. Erstens wird die Korrespondenz in hoher Auflösung berechnet, wobei Form- und Texturdaten gleichzeitig in Betracht gezogen werden. Zweitens werden statt der Verwendung eines physikalischen Gewebemodells zur Beschränkung des Bereichs von zulässigen Netzdeformationen die Statistiken von Beispielgesichtern verwendet, um Deformationen plausibel zu halten. Drittens ist das erfindungsgemäße System nicht von Routinen abhängig, die spezifisch gestaltet sind, um die Merkmale zu erfassen, die ausschließlich in menschlichen Gesichtern, zum Beispiel Augen, Nasen, vorgefunden werden.
  • Die allgemeine Anpassungsstrategie gemäß der Erfindung kann verwendet werden, um das morphing-fähige Modell nicht nur an eine 3D-Gesichtsabtastung, sondern auch an 2D-Bilder von Gesichtern anzupassen. Anders als bei einem früheren Ansatz [32] wird das morphing-fähige 3D-Gesichtsmodell jetzt direkt an Bilder angepasst, wobei der Umweg der Erzeugung von 2D-morphing-fähigen Bild-Zwischenmodellen vermieden wird. Als eine vorteilhafte Konsequenz können die Kopforientierung, die Beleuchtungsbedingungen und andere Parameter freie Variablen sein, die einer Optimierung unterzogen werden. Es ist ausreichend, grobe Abschätzungen von ihren Werten als ein Startpunkt der automatisierten Anpassungsprozedur zu verwenden.
  • Die meisten Techniken zum „Gesichts-Klonen", die Rekonstruktion eines 3D-Gesichtsmodells von einem oder mehreren Bildern, sind noch von der manuellen Unterstützung zum Anpassen eines deformierbaren 3D-Gesichtsmodells an die Bilder abhängig [24, 1, 28]. Der Ansatz von Pighin et al. [26] zeigt den hohen Realismus, der bei der Synthese von Gesichtern und Gesichtsausdrücken aus Fotografien erreicht werden kann, wenn mehrere Bilder eines Gesichts an ein einzelnes 3D-Gesichtsmodell angepasst werden. Die automatisierte Anpassungsprozedur gemäß der Erfindung könnte verwendet werden, um den manuellen Initialisierungsschritt zu ersetzen, bei dem mehrere entsprechende Merkmale in den präsentierten Bildern markiert werden müssen.
  • Ein spezieller Vorteil der Erfindung ist es, dass sie direkt auf Gesichtern ohne manuelle Markierungen funktioniert. Bei dem automatisierten Ansatz wird die Anzahl von Markierungen zu ihrer Grenze erweitert. Es wird die gesamte Anzahl von Scheitelpunkten, die im Gesichtsmodell verfügbar sind, an Bilder angepasst. Die sich ergebenden dichten Korrespondenz felder können sogar Änderungen von Falten erfassen und diese von einem Gesicht zu einem anderen abbilden.
  • Die Erfindung lehrt eine neue Technik zur Modellierung texturierter 3D-Gesichter. 3D-Gesichter können entweder automatisch aus einer oder mehreren Fotografien erzeugt oder direkt mit einer intuitiven Nutzerschnittstelle modelliert werden. Nutzern wird bei zwei Schlüsselproblemen der computergestützten Gesichtsmodellierung geholfen. Erstens können neue Gesichtsbilder oder neue 3D-Gesichtsmodelle automatisch registriert werden, indem eine dichte 1:1-Korrespondenz zu einem internen Gesichtsmodell berechnet wird. Zweitens reguliert der Ansatz die Natürlichkeit von modellierten Gesichtern, wobei Gesichter mit einem „unwahrscheinlichen" Erscheinungsbild vermieden werden.
  • Anwendungen der Erfindung bestehen insbesondere im Gebiet der Gesichtsmodellierung, der Registrierung, der Photogrammetrie, des Morphing, der Gesichtsanimation und des Computersehens.
  • Weitere Vorteile und Einzelheiten der Erfindung werden unter Bezug auf die beigefügten Zeichnungen beschrieben, die zeigen:
  • 1: eine schematische Repräsentation von Grundprinzipien der Erfindung;
  • 2: eine Illustration der Gesichtssynthese auf der Basis des morphing-fähigen Modells,
  • 3: eine Illustration der Variation von Gesichtsattributen eines einzelnen Gesichts,
  • 4: ein Flussdiagramm, das Verfahrensschritte zur Rekonstruktion der 3D-Gestalt und -Textur eines neuen Gesichts aus einem einzelnen Bild illustriert,
  • 5: ein Flussdiagramm der gleichzeitigen Rekonstruktion einer 3D-Gestalt und -Textur eines neuen Gesichts aus zwei Bildern,
  • 6: eine Illustration der Erzeugung von neuen Bildern mit modifizierten Wiedergabeparametern,
  • 7: eine Illustration der auf der Erfindung basierten Rekonstruktion eines 3D-Gesichts von Mona Lisa, und
  • 8: eine schematische Illustration eines Bildverarbeitungssystems gemäß der Erfindung.
  • Ausgehend von einem Beispielsatz von 3D-Gesichtsmodellen wird, wie in 1 illustriert ist, ein morphing-fähiges Gesichtsmodell abgeleitet, in dem die Gestalt und Textur der Beispiele in eine Vektorraumrepräsentation transformiert werden. Das morphing-fähige Gesichtsmodell trägt zu zwei Hauptschritten der Gesichtsmanipulation bei: (1) Ableitung eines 3D-Gesichtsmodells von einem neuen Bild, und (2) Modifizierung der Gestalt und Textur in einer natürlichen Weise. Neue Gesichter und Ausdrücke können durch die Bildung von Linearkombinationen der Prototypen modelliert werden. Gestalt- und Textur-Randbedingungen, die von den Statistiken von unseren Beispielgesichtern abgeleitet sind, werden verwendet, um eine manuelle Modellierung oder automatisierte Anpassungsalgorithmen zu leiten. 3D-Gesichtsrekonstruktionen aus einzelnen Bildern und deren Anwendungen für photorealistische Bildmanipulationen können erhalten werden. Des Weiteren werden Gesichtsmanipulationen gemäß komplexen Parametern, so wie dem Geschlecht, der Fülle eines Gesichts oder seiner Eigentümlichkeit demonstriert.
  • Die weitere Beschreibung ist wie folgt strukturiert. Sie beginnt mit einer Beschreibung (I) der Datenbasis von 3D-Gesichtsabtastungen, aus der unser morphing-fähiges Modell aufgebaut ist. Im folgenden Abschnitt (II) wird das Konzept des morphing-fähigen Gesichtsmodells eingeführt, wobei ein Satz von 3D-Gesichtsabtastungen angenommen wird, die in voller Korrespondenz sind. Unter Ausnutzung der Statistiken eines Datensatzes wird eine parametrische Beschreibung von Gesichtern sowie der Bereich von plausiblen Gesichtern abgeleitet. Zusätzlich werden Gesichtsattribute aus dem markierten Datensatz zu dem Parameterraum des Modells abgebildet. In Abschnitt III wird ein Verfahren zur Anpassung des flexiblen Modells gemäß der Erfindung an neue Bilder oder 3D-Abtastungen von Gesichtern beschrieben. Neben einer 3D-Rekonstruktion kann das Verfahren basiert auf dem morphing-fähigen Modell eine Korrespondenz berechnen. Abschnitt IV beschreibt ein iteratives Verfahren zum automatischen Aufbau eines morphing-fähigen Modells aus einem Rohdatensatz von 3D-Gesichtsabtastungen, wenn keine Korrespondenzen zwischen den Beispielgesichtern verfügbar sind. Schließlich werden Anwendungen der Technik auf neue Bilder gezeigt.
  • Die Beschreibung des Verfahrens gemäß der Erfindung bezieht sich auf die beigefügten Figuren. Es wird betont, dass diese Figuren aus drucktechnischen Gründen (in einer Patentanmeldung) nicht in der Lage sind, die hohe Qualität der Bilder wiederzugeben, die durch die Erfindung erhalten werden.
  • I Datenbasis
  • Laserabtastungen (CyberwareTM) von 200 Köpfen von jungen Erwachsenen (100 Männer und 100 Frauen) wurden verwendet, um Prototypen zu erhalten. Die Laserabtastungen liefern Kopfstrukturdaten in einer zylindrischen Repräsentation mit Radien r(h, ϕ) von Oberflächenpunkten, die an 512 gleich beabstandeten Winkeln ϕ und bei 512 gleich beabstandeten vertikalen Schritten h abgetastet wurden. Zusätzlich wurden RGB-Farbwerte R (h, ϕ), G (h, ϕ), und B (h, ϕ) mit derselben Ortsauflösung aufgezeichnet und in einem Texturabbild mit 8 Bit pro Kanal gespeichert.
  • Alle Gesichter waren ohne Schminke, Schmuck und Gesichtshaar. Die Personen wurden abgetastet, während sie Badekappen trugen, die digital entfernt wurden. Eine weitere automatische Vorverarbeitung der Abtastungen, die für die meisten Köpfe keine menschliche Wechselwirkung erforderte, bestand aus einem vertikalen Schnitt hinter den Ohren, einem horizontalen Schnitt, um die Schultern zu entfernen, und einer Normierungsroutine, die jedes Gesicht in eine Standardorientierung und -position im Raum brachte. Die sich ergebenden Gesichter wurden durch ungefähr 70.000 Scheitelpunkte und dieselbe Anzahl von Farbwerten repräsentiert.
  • II Morphing-fähiges 3D-Gesichtsmodell
  • Das morphing-fähige Modell ist auf einem Datensatz von 3D-Gesichtern basiert. Ein Morphing-Vorgang zwischen Gesichtern erfordert eine vollständige Korrespondenz zwischen sämtlichen der Gesichter. In diesem Abschnitt wird angenommen, dass alle Beispielgesichter in vollständiger Korrespondenz sind. Der Algorithmus zur Berechnung der Korrespondenz wird in Abschnitt IV beschrieben.
  • Wir repräsentieren die Geometrie eines Gesichts mit einem Gestaltvektor
    S = (X1, Y1, Z1, X2, ..., Yn, Zn)T
    Figure 00120001
    der die X-, Y- und Z-Koordinaten von seinen n Scheitelpunkten enthält. Zur Vereinfachung nehmen wir an, dass die Anzahl von gültigen Texturwerten in dem Texturabbild gleich der Anzahl der Scheitelpunkte ist. Wir repräsentieren daher die Textur eines Gesichts durch einen Texturvektor T = (R1, G1, B1, R2, ..., Gn, Bn)T
    Figure 00120002
    der die R-, G- und B-Farbwerte der n entsprechenden Scheitelpunkte enthält. Ein morphing-fähiges Gesichtsmodell wurde dann unter Verwendung eines Datensatzes von m Beispielgesichtern konstruiert, von denen jedes durch seinen Gestaltvektor Si und Texturvektor Ti repräsentiert wird. Da wir annehmen, dass alle Gesichter in vollständiger Korrespondenz sind (siehe Abschnitt IV), können neue Gestalten Smod und neue Texturen Tmod in baryzentrischen Koordinaten als eine Linearkombination der Gestalten und Texturen der m Beispielgesichter ausgedrückt werden:
    Figure 00120003
  • Wir definieren das morphing-fähige Modell als den Satz von Gesichtern (Smod(a →), Tmod(b →)), der durch die Koeffizienten a → = (a1, a2 ..., am)T und b → = (b1, b2 ..., bm)T parametrisiert ist. (Ein Standard-Morphing zwischen zwei Gesichtern (m = 2) wird erhalten, falls die Parameter a1, b1 zwischen 0 und 1 variiert werden, wobei a2 = 1 – a1 und b2 = 1 – b1 gesetzt werden).
  • Willkürliche neue Gesichter können erzeugt werden, indem die Parameter a → und b → erzeugt werden, welche die Gestalt und die Textur steuern.
  • Für ein nützliches Gesichtssynthesesystem ist es wichtig, in der Lage zu sein, die Ergebnisse in Bezug auf ihre Plausibilität, Gesichter zu sein, zu quantifizieren. Wir bestimmten daher die Wahrscheinlichkeitsverteilung der Koeffizienten ai und bi von unserem Beispielsatz von Gesichtern. Diese Verteilung ermöglicht uns, die Wahrscheinlichkeit der Koeffizienten ai und bi zu kontrollieren und reguliert folglich die Wahrscheinlichkeit des Auftretens der erzeugten Gesichtern.
  • Wir passten eine multivariate Normalverteilung an unseren Datensatz von 200 Gesichtern basiert auf den Mittelwerten der Gestalt S und der Textur T und der Kovarianzmatrizen CS und CT an, die über die Gestalt- und Texturdifferenzen ΔSi = SiS und ΔTi = TiT berechnet wurden.
  • Eine herkömmliche Technik zur Datenkompression, die als Hauptkomponentenanalyse (englisch: principal component analysis, PCA) [14] bekannt ist, führt eine Basistransformation zu einem orthogonalen Koordinatensystem aus, das durch die Eigenvektoren si und ti der Kovarianzmatrizen gebildet wird (in absteigender Reihenfolge entsprechend ihren Eigenwerten):
    Figure 00130001
    α →, β → ∈
    Figure 00130002
    Die Wahrscheinlichkeit der Koeffizienten α → ist gegeben durch
    Figure 00130003
    wobei σ 2 / i die Eigenwerte der Gestalt-Kovarianzmatrix CS sind. Die Wahrscheinlichkeit ~p(β) wird ähnlich berechnet.
  • Segmentiertes morphing-fähiges Modell: Das morphing-fähige Modell, das in Gleichung (1) beschrieben ist, hat m – 1 Freiheitsgrade für die Textur und m – 1 Freiheitsgrade für die Gestalt. Die Ausdrucksfähigkeit des Modells kann vergrößert werden, indem Gesichter in zwei unabhängige Unterbereiche, zum Beispiel in Augen, Nase, Mund und einen umgebenden Bereich (siehe 2), unterteilt werden, die unabhängig gemorpht werden.
  • Gemäß 2 fügt ein einzelner Prototyp eine große Varietät von neuen Gesichtern zu dem morphing-fähigen Modell hinzu. Die Abweichung des Prototypen vom Mittelwert wird dem Mittelwert zugefügt (+) oder von diesem abgezogen (–). Ein Standard-Morph (*) ist auf halber Strecke zwischen dem Mittelwert und dem Prototypen angeordnet. Die Subtraktion der Differenzen von dem Mittelwert ergibt ein „Anti"-Gesicht (#). Ein Addieren und Subtrahieren von Abweichungen unabhängig von der Gestalt (S) und der Textur (T) auf jedem von vier Segmenten erzeugt eine Anzahl von verschiedenen Gesichtern.
  • Da von allen Gesichtern angenommen wird, dass sie in Korrespondenz sind, ist es genügend, diese Bereiche auf einem Referenzgesicht zu definieren. Diese Segmentierung ist äquivalent mit der Unterteilung des Vektorraums von Gesichtern in unabhängige Unterräume. Ein vollständiges 3D-Gesicht wird erzeugt, indem Linearkombinationen für jedes Segment separat berechnet und diese an den Grenzen entsprechend einem Algorithmus verschmolzen werden, der für Bilder durch [6] vorgeschlagen wird.
  • II.1 Gesichtsattribute
  • Die Gestalt- und Texturkoeffizienten ai und bi in unserem morphing-fähigen Gesichtsmodell entsprechen nicht den Gesichtsattributen, die in der menschlichen Sprache verwendet werden. Während einige Gesichtsattribute einfach mit biophysikalischen Messungen in Beziehung gesetzt werden können [12, 9], wie zum Beispiel die Breite des Mundes, können andere Gesichtsattribute, wie zum Beispiel die Weiblichkeit des Gesichts oder die mehr oder weniger ausgeprägte Kantigkeit eines Gesichts nur schwer durch Zahlen beschrieben werden. In diesem Abschnitt wird ein Verfahren zur Abbildung von Gesichtsattributen, die durch einen Hand-markierten Satz von Beispielgesichtern definiert sind, zu dem Parameterraum unseres morphing-fähigen Modells beschrieben. An jeder Position im Gesichtsraum (d.h. für jedes mögliche Gesicht) definieren wir Gestalt- und Texturvektoren, die, wenn sie einem Gesicht zugefügt oder von diesem abgezogen werden, ein bestimmtes Attribut manipulieren werden, während alle anderen Attribute so konstant wie möglich gehalten werden.
  • In diesem Rahmen können Änderungen im Gesichtsausdruck, die durch Leistungs-basierte Techniken [23] erzeugt worden sind, übertragen werden, indem die Differenzen zwischen zwei Ausdrücken desselben Individuums, ΔS = Sexpression – Sneutral, ΔT = Texpression – Tneutral, zu einem anderen Individuum mit einem neutralen Ausdruck addiert werden.
  • Anders als Gesichtsausdrücke sind Attribute, die für jedes Individuum invariant sind, schwieriger zu isolieren. Das folgende Verfahren erlaubt es, Gesichtsattribute, wie das Geschlecht, die Fülle von Gesichtern, die Dunkelheit von Augenbrauen, Doppelkinne und hakenförmige im Vergleich zu konkaven Nasen zu modellieren (3). 3 illustriert die Variation von Gesichtsattributen eines einzelnen Gesichts. Das Erscheinungsbild eines Originalgesichts (mit Rahmen) kann ge ändert werden, um Gestalt- und Texturvektoren zu subtrahieren, die spezifisch für die Attribute sind.
  • Basierend auf einem Satz von Gesichtern (Si, Ti) mit manuell zugewiesenen Markierungen μi, welche die Deutlichkeit der Attribute beschreiben, berechnen wir gewichtete Summen
    Figure 00160001
  • Vielfache von (ΔS, ΔT) können nun zu jedem einzelnen Gesicht addiert oder von diesem subtrahiert werden. Für binäre Attribute, wie das Geschlecht, wobei μA = 1/mA für Gesichter in Klasse A und μB = –1/mB für die Gesichter in B gesetzt werden, ergibt Gleichung (3) den Unterschied zwischen den Mittelwerten der Klassen A und B.
  • Figure 00160002
  • Um dieses Verfahren zu rechtfertigen, wird μ(S, T) als die Gesamtfunktion betrachtet, welche die Deutlichkeit des Attributs in einem Gesicht (S, T) beschreibt. Da μ(S, T) nicht per se für alle (S, T) verfügbar ist, muss das Regressionsproblem der Bestimmung von μ(S, T) aus einem Probesatz von markierten Gesichtern gelöst werden. Bei der vorliegenden Technik wird angenommen, dass μ(S, T) eine lineare Funktion ist. Folglich gibt es, um eine Änderung Δμ des Attributs zu erreichen, nur eine einzelne optimale Richtung (ΔS, ΔT) für den gesamten Raum der Gesichter. Es kann gezeigt werden, dass Gleichung (3) die Richtung mit minimaler Varianz-normalisierter Länge ∥ΔS∥2 M = 〈ΔS, CS –1ΔS〉, ∥ΔT∥2 M = CT –1ΔT ergibt.
  • Eine andere Art eines Attributs eines Gesichts ist seine „Unterscheidbarkeit", die gewöhnlich in Karikaturen manipuliert wird. Die automatisierte Erzeugung von Karikaturen ist seit vielen Jahren möglich [5]. Diese Technik kann einfach von 2D-Bildern auf das vorliegende morphing-fähige Gesichtsmodell erweitert werden. Einzelne Gesichter werden karikiert, indem ihr Abstand von dem Mittelwertgesicht vergrößert wird. In unserer Repräsentation werden die Gestalt- und Texturkoeffizienten αi, βi mit einem konstanten Faktor oder verschiedenen Faktoren multipliziert.
  • III Anpassung eines morphing-fähigen Modells an Bilder
  • Ein Gesichtspunkt der Erfindung ist ein Algorithmus zur automatischen Anpassung des morphing-fähigen Gesichtsmodells an ein oder mehrere Bilder. Durch die Bereitstellung einer Schätzung der 3D-Struktur des Gesichts (4), schließt er die Lücke zwischen den spezifischen Manipulationen, die in Abschnitt II.1 beschrieben sind, die Art der Daten, die in typischen Anwendungen verfügbar sind.
  • Der Verarbeitungsschritt zur Rekonstruktion von 3D-Gestalt und -Textur eines neuen Gesichts aus einem einzelnen Bild sind in dem Flussdiagramm der 4 illustriert. Nach einer groben manuellen Ausrichtung des gemittelten 3D-Kopfes (obere Reihe) passt die automatische Anpassungsprozedur das 3D-morphing-fähige Modell an das Bild an (mittlere Reihe). In der rechten Spalte ist das Modell über dem Eingangsbild wiedergegeben. Einzelheiten der Textur können durch eine beleuchtungskorrigierte Texturextraktion von dem Eingangsbild verbessert werden (untere Reihe). Diese Korrektur umfasst eine Rückprojektion des erzeugten Bildes auf das Eingangsbild mit einer Beleuchtungskorrektur. Die Farbinformation von dem Originalbild wird zur Korrektur des erzeugten Bildes verwendet. Diese Beleuchtungskorrektur durch Rückprojektion repräsentiert ein wichtiges und vorteilhaftes Merkmal der Erfindung.
  • Koeffizienten des 3D-Modells werden zusammen mit einem Satz von Wiedergabeparametern der Art optimiert, dass sie ein Bild erzeugen, das so dicht wie möglich zu dem Eingangsbild ist. In einer Analyse-durch-Synthese-Schleife werden durch den Algorithmus ein Textur-abgebildetes 3D-Gesicht aus den gegenwärtigen Modellparametern erzeugt, ein Bild wiedergegeben und die Parameter entsprechend der Restdifferenz erneuert. Es beginnt mit dem Mittelwert-Kopf und mit Wiedergabeparametern, die grob durch den Nutzer abgeschätzt werden.
  • Modellparametar: Die Gesichts-Gestalt und -Textur sind durch Koeffizienten αj und βj, j = 1, ..., m – 1 (Gleichung 1) definiert.
  • Die Wiedergabeparameter ρ → hängen von der Anwendung ab und enthalten die Kameraposition (Azimuth und Höhe), die Objektskala, die Bildebenen-Rotation und -Translation, die Intensität ir,amb, ig,amb, ib,amb des Umgebungslichts und/oder die Intensität ir,dir, ig,dir, ib,dir des gerichteten Lichts. Um Photografien zu handhaben, die unter einer breiten Varietät von Bedingungen aufgenommen sind, enthält ρ → auch den Farbkontrast sowie Offset und Verstärkung in dem roten, grünen und blauen Kanal.
  • Andere Parameter, so wie der Kameraabstand, die Lichtrichtung und ein Oberflächenglanz bleiben fest bei den Werten, die durch den Nutzer oder einen geeigneten Algorithmus bestimmt wurden.
  • Aus den Parametern (α →, β →, ρ →) werden Farbbilder Imodel (x, y) = (Ir,mod (x, y), Ig,mod (x, y), Ib,mod (x, y))T (4) wiedergegeben, wobei eine perspektivische Projektion und das Phong-Beleuchtungsmodell verwendet werden. Von dem rekonstruierten Bild wird angenommen, dass es am nächsten bei dem Eingangsbild in Bezug auf den euklidischen Abstand EI = Σx,y ∥Iinput (x,y) – Imodel (x,y)∥2 ist.
  • Die Anpassung einer 3D-Oberfläche an ein gegebenes Bild ist ein schwieriges Problem. Zusammen mit der gewünschten Lösung führen viele nicht-gesichtsähnliche Oberflächen zu demselben Bild. Es ist daher wesentlich, dem Satz von Lösungen Randbedingungen aufzuerlegen. Es ist ein wesentlicher Vorteil der Erfindung, dass bei dem vorliegenden morphing-fähigen Modell die Gestalt- und Textur-Vektoren auf den Vektorraum beschränkt sind, der durch die Datenbasis aufgespannt sind. Entsprechend können nicht-gesichtsähnliche Oberflächen vollständig vermieden werden.
  • Innerhalb des Vektorraumes der Gesichter können Lösungen des Weiteren durch einen Kompromiss zwischen der Anpassungsqualität und Priori-Wahrscheinlichkeiten begrenzt werden, wobei P(α), P(β) aus Abschnitt 3 und eine ad-hoc-Bestimmung von P(ρ) verwendet werden. Im Hinblick auf die Bayes-Entscheidungstheorie besteht das Problem darin, den Satz von Parametern (α →, β →, ρ →) mit maximaler Posteriori-Wahrscheinlichkeit zu finden, wenn ein Bild Iinput gegeben ist. Während α →, β → und die Übertragungsparameter ρ → vollständig das Vorhergesagte Bild Imodel bestimmen, kann das wahrgenommene Bild Iinput durch Rauschen variieren. Bei Gauss'schem Rauschen mit einer Standardabweichung σN ist die Wahrscheinlichkeit, das Bild Iinput wahrzunehmen p(Iinput|α →, β →, ρ →) ~ exp [–12σ2 N·EI]. Die maximale Posteriori-Wahrscheinlichkeit wird dann durch Minimierung der Kostfunktion
    Figure 00200001
    erhalten.
  • Der oben beschriebene Optimierungsalgorithmus verwendet eine Schätzung von E, die auf einer zufälligen Auswahl von Oberflächenpunkten basiert. Vorhergesagte Farbwerte Imodel sind am einfachsten in den Mitten von Dreiecken zu evaluieren. In der Mitte des Dreiecks k sind die Textur (Rk, Gk, Bk) und der 3D-Ort (Xk, Yk, Zk) Mittelwerte der Werte an den Ecken. Die perspektivische Projektion bildet diese Punkte zu Bildorten (p →x,k, p →y,k)T ab. Oberflächennormalen nk von jedem Dreieck k werden durch die 3D-Orte der Ecken bestimmt. Gemäß der Phong-Beleuchtung nehmen die Farbkomponenten Ir,model, Ig,model und Ib,model die Form Ir,model,k = (ir,amb + ir,dir·(nkl)) R → + ir,dir S·(rkvk)v (6)ein, wobei I die Richtung der Beleuchtung vk, die normalisierte Differenz aus Kameraposition und der Position der Mitte des Dreiecks und rk = 2 (nl)n – I die Richtung des reflektierten Strahls sind. s bezeichnet den Oberflächenglanz, und v steuert die Winkelverteilung der spiegelnden Reflektion. Gleichung (6) reduziert sich zu Ir,model,k = ir,ambRk, falls auf die Mitte des Dreiecks ein Schatten geworfen wird, was mit dem unten beschriebenen Verfahren getestet wird.
  • Für 3D-Gitter hoher Auflösung sind Variationen über jedes Dreieck k ∈ {1, ..., nt} in Imodel gering, so dass EI durch
    Figure 00200002
    angenähert werden kann, wobei ak die Bildfläche ist, die durch das Dreieck k abgedeckt wird. Falls das Dreieck ausgeschlossen ist, gilt ak = 0.
  • In einem Gradientenabfall wären die Beiträge von verschiedenen Dreiecken des Gitters redundant. Bei jeder Iteration wählen wir daher einen zufälligen Teilsatz K ⊂ {1, ... nt} aus vierzig Dreiecken k, wobei EI ersetzt wird durch
    Figure 00210001
  • Die Wahrscheinlichkeit der Auswahl von k ist p(k ⊂ K) ~ ak. Dieses Verfahren des stochastischen Gradientenabfalls [15] ist nicht nur computereffizienter, sondern es hilft auch, lokale Minima zu vermeiden, indem Rauschen zu der Gradientenabschätzung addiert wird.
  • Vor der ersten Iteration und wiederholt alle 1000 Schritte, berechnet das Verfahren die vollständige 3D-Gestalt des aktuellen Modells und 2D-Positionen (px, py)T von allen Scheitelpunkten. Dann werden ak bestimmt und versteckte Oberflächen und geworfene Schatten in einer Zwei-Pass-z-Puffer-Technik detektiert. Wir nehmen an, dass Okklusionen und geworfene Schatten während jedes Teilsatzes von Iterationen konstant sind.
  • In Abhängigkeit von analytischen Ableitungen der Kostfunktion E werden Parameter erneuert, wobei aj → aj – λj·∂E/∂aj und ähnlich für βj und ρj mit geeigneten Faktoren λj verwendet werden.
  • Ableitungen von Textur und Gestalt (Gleichung 1) ergeben Ableitungen von 2D-Orten (p →x,y, p →y,k)T, Oberflächennormalen nk, Vektoren vk und rk und Imodel,k (Gleichung 6), wobei die Ketten regel verwendet wird. Aus Gleichung (7) können partielle Ableitungen ∂EK|∂αj, ∂EK/∂βj und ∂EK/∂ρj erhalten werden.
  • Grob-zu-Fein: Um lokale Minima zu vermeiden, folgt der Algorithmus in mehreren Beziehungen einer Grob-zu-Fein-Strategie:
    • a) Der erste Satz von Iterationen wird auf einer unterabgetasteten Version des Eingabebildes mit einem morphing-fähigen Modell geringer Auflösung durchgeführt.
    • b) Wir starten, indem nur die ersten Koeffizienten αj und βj, welche die ersten Hauptkomponenten kontrollieren, zusammen mit allen Parametern ρj optimiert werden. In folgenden Iterationen werden mehr und mehr Hauptkomponenten addiert.
    • c) Beginnend mit einem relativ starken Gewicht auf die Priori-Wahrscheinlichkeit in Gleichung (5), die das Optimum hin zu dem vorherigen Erwartungswert bindet, reduzieren wir dieses Gewicht (oder äquivalent σN), um die maximale Anpassungsqualität zu erhalten.
    • d) In den letzten Iterationen wird das Gesichtsmodell in Segmente heruntergebrochen (Abschnitt II). Mit fixierten Parametern ρj werden die Koeffizienten αj und βj unabhängig für jedes Segment optimiert. Diese vergrößerte Anzahl von Freiheitsgraden verbessert signifikant Gesichtsdetails.
  • Mehrfache Bilder: Es ist unkompliziert, diese Technik auf den Fall zu erweitern, in dem mehrere Bilder einer Person verfügbar sind (5). 5 illustriert eine gleichzeitige Rekonstruktion von 3D-Gestalt und -Textur eines neuen Gesichts aus zwei Bildern, die unter verschiedenen Bedingungen aufgenommen wurden, in der mittleren Reihe, wobei das 3D-Gesicht über den Eingabebildern wiedergegeben ist. 5 demonstriert einen wesentlichen Vorteil der Erfindung. Das Bildverarbeitungsverfahren kann mit einem oder mehreren Eingabebildern implementiert werden. Es bestehen keine Beschränkungen in Bezug auf die Abbildungsbedingungen der Eingabebilder. Dies ist ein spezieller Unterschied gegenüber der 3D-Rekonstruktion auf der Basis von Bildpaaren, die mit einer Paralaxe aufgenommen wurden (Pseudo-Stereo-Bilder).
  • Während die Gestalt und die Textur noch durch einen gemeinsamen Satz von αj und βj beschrieben werden, besteht nun ein separater Satz aus ρj für jedes Eingabebild. EI wird durch eine Summe von Bildabständen für jedes Paar von Eingabe- und Modellbildern ersetzt, und alle Parameter werden gleichzeitig optimiert.
  • Beleuchungs-korrigierte Texturextraktion: Spezifische Merkmale von einzelnen Gesichtern, die nicht durch das morphing-fähige Modell aufgenommen werden, wie z. B. Flecken, werden in einem nachfolgenden Texturanpassungsvorgang aus dem Bild extrahiert. Das Extrahieren von Textur aus Bildern ist eine Technik, die verbreitet bei der Konstruktion von 3D-Modellen aus Bildern verwendet wird (z.B. [26]). Um jedoch in der Lage zu sein, die Pose und Beleuchtung zu ändern, ist es wichtig, an jedem gegebenen Punkt den reinen Albedo von dem Einfluss einer Abschattung und geworfenen Schatten in dem Bild zu trennen. Im erfindungsgemäßen Ansatz kann dies erreicht werden, da die Anpassungsprozedur eine Abschätzung von 3D-Gestalt, Pose und Beleuchtungsbedingungen bereitstellt. Nachfolgend auf die Anpassung vergleichen wir die Vorhersage Imod,i für jeden Scheitelpunkt i mit Iinput(px,i, py,i), und wir berechnen die minimale Änderung in der Textur (Ri, Gi, Bi), die für den Unterschied verantwortlich ist. In Flächen, die in dem Bild verdeckt sind, verlassen wir uns auf die Vorhersage, die durch das Modell gemacht wird. Daten aus mehreren Bildern können unter Verwendung von Verfahren ähnlich zu [26] verschmolzen werden.
  • III.1 Anpassung eines morphing-fähigen Modells an 3D-Abtastungen
  • Das oben beschriebene Verfahren kann auch angewendet werden, um neue 3D-Gesichter zu registrieren. Analog zu Bildern, wo die perspektivische Projektion P: R3 → R2 und ein Beleuchtungsmodell ein Farbbild I(x, y) = (R(x, y), G(x, y), B(x, y))T definieren, stellen Laserabtastungen eine zweidimensionale zylindrische Parametrisierung der Oberfläche mittels einer Abbildung C: R3 → R2, (x, y, z) → (h, ϕ) bereit.
  • Folglich kann eine Abtastung repräsentiert werden als I(h, ϕ) = R (h, ϕ), G(h, ϕ), B(h, ϕ), r(h, ϕ))T (8)
  • In einem Gesicht (S, T), welches durch Gestalt- und Texturkoeffizienten αj und βj (Gleichung 1) definiert ist, wird der Scheitelpunkt i mit Texturwerten (Ri, Gi, Bi) und zylindrische Koordinaten (rj, hi, ϕi) zu Imodel (hi, ϕi) = (Ri, Gi, Bi)T abgebildet.
  • Der Anpassungsalgorithmus aus dem vorherigen Abschnitt bestimmt nun αj und βj, wobei
    Figure 00240001
    minimiert wird.
  • IV Aufbau eines morphing-fähigen Modells
  • In diesem Abschnitt wird beschrieben, wie das morphing-fähige Modell aus einem Satz von nicht-registrierten 3D-Prototypen aufgebaut wird und wie ein neues Gesicht zu einem bestehenden morphing-fähigen Modell hinzugefügt wird, wobei dessen Dimensionalität vergrößert wird.
  • Das Schlüsselproblem besteht darin, eine dichte Punkt-zu-Punkt-Korrespondenz zwischen den Scheitelpunkten der Gesichter zu berechnen. Da das Verfahren, das in Abschnitt III.1 beschrieben wurde, die beste Anpassung für ein gegebenes Gesicht nur innerhalb des Bereiches des morphing-fähigen Modells findet, kann es nicht neue Dimensionen zu dem Vektorraum der Gesichter hinzufügen. Um Restabweichungen zwischen einem neuen Gesicht und der besten Anpassung innerhalb des Modells zu bestimmen sowie um nicht-registrierte Prototypen in Korrespondenz zu setzen, verwenden wir einen optischen Flussalgorithmus, der die Korrespondenz zwischen zwei Gesichtern berechnet, ohne dass ein morphing-fähiges Modell [32] nötig ist. Der folgende Abschnitt fasst die Technik, wie sie für die Erfindung angepasst ist, zusammen.
  • IV.1 3D-Korrespondenz unter Verwendung eines optischen Flusses
  • Ein Gradienten-basierter optischer Flussalgorithmus (englisch: flow algorithm), der ursprünglich darauf zugeschnitten war, korrespondierende Punkte in Grauwert-Bildern I(x, y) zu finden, wird modifiziert, um die Korrespondenz zwischen einem Paar von 3D-Abtastungen I(h, ϕ) (Gleichung 8) zu etablieren, wobei Farb- und Radiuswerte gleichzeitig in Betracht gezogen werden. Der Algorithmus berechnet ein Flussfeld (δh(h, ϕ), δϕ(h, ϕ)), das Differenzen von ∥I1(h, ϕ) – I2(h + δh(ϕ + δϕ)∥ in einer Norm minimiert, die Variationen in der Textur und der Gestalt wichtet. Oberflächeneigenschaften aus der Differenzialgeometrie, so wie eine Hauptkrümmung, können als zusätzliche Komponenten in I(h, ϕ) verwendet werden.
  • Auf Gesichtsregionen mit geringer Struktur in Textur und Gestalt, so wie der Stirn und den Wangen, sind die Ergebnisse des optischen Flussalgorithmus manchmal unecht. Wir führen daher eine Glättungsinterpolation basiert auf einer simulierten Relaxation eines System von Flussvektoren durch, die mit ihren Nachbarn gekoppelt sind. Das quadratische Kopplungspotenzial ist für alle Flussvektoren gleich. In Bereichen mit hohem Kontrast sind Komponenten von Flussvektoren, die zu Kanten orthogonal sind, an die Ergebnisse der vorherigen optischen Flussberechnung gebunden. Das System ist im Übrigen frei, eine geglättete Minimalenergie-Anordnung einzunehmen. Anders als einfache Filterroutinen erhält unsere Technik die Anpassungsqualität vollständig aufrecht, wo immer das Flussfeld zuverlässig ist. Der optische Fluss und die Glättungsinterpolation werden auf verschiedenen, aufeinanderfolgenden Ebenen der Auflösung berechnet.
  • Die Konstruktion eines morphing-fähigen Gesichtsmodells aus einem Satz von nicht-registrierten 3D-Abtastungen erfordert die Berechnung des Flussfeldes zwischen jedem Gesicht und einem willkürlichen Referenzgesicht. Wenn eine Definition von Gestalt- und Texturvektoren Sref und Tref für das Referenzgesicht gegeben ist, können S und T für jedes Gesicht in der Datenbasis mittels der Punkt-zu-Punkt-Korrespondenz erhalten werden, die durch (δh(h, ϕ), δϕ(h, ϕ)) bereitgestellt wird.
  • IV.2 Weitere Verbesserung des Modells
  • Da der optische Flussalgorithmus keinerlei Randbedingungen auf dem Satz von Lösungen inkorporiert, könnte er bei einigen der eher ungewöhnlichen Gesichter in der Datenbasis versagen. Daher modifizierten wir einen Lade-Algorithmus (englisch: bootstrapping algorithm) auf der Basis eines Verfahrens, das kürzlich verwendet wurde, um lineare Bildmodelle aufzubauen [33], um iterativ die Korrespondenz zu verbessern.
  • Der grundlegende rekursive Schritt: Es wird angenommen, dass ein bestehendes morphing-fähiges Modell nicht stark genug ist, um ein neues Gesicht anzupassen und dadurch eine Korrespondenz mit diesem zu finden. Die Idee besteht darin, zuerst grobe Korrespondenzen zu dem neuen Gesicht unter Verwendung des (inadäquaten) morphing-fähigen Modells zu finden und dann diese Korrespondenzen durch Verwendung eines optischen Flussalgorithmus zu verbessern.
  • Ausgehend von einem willkürlichen Gesicht als die zeitweilige Referenz wird die vorläufige Korrespondenz zwischen allen anderen Gesichtern und dieser Referenz unter Verwendung des optischen Flussalgorithmus berechnet. Auf der Basis dieser Korrespondenzen können die Gestalt- und die Textur-Vektoren S und T berechnet werden. Ihre Mittelwerte dienen als ein neues Referenzgesicht. Das erste morphing-fähige Modell wird dann durch die am meisten signifikanten Komponenten gebildet, wie sie durch eine Standard-PCA-Zerlegung bereitgestellt werden. Das aktuelle morphing-fähige Modell wird nun an jedes der 3D-Gesichter gemäß dem Verfahren angepasst, das in Abschnitt III.1 beschrieben ist. Dann berechnet der optische Flussalgorithmus die Korrespondenz zwischen dem 3D-Gesicht und der Näherung, die durch das morphing-fähige Modell geliefert wurde. Kombiniert mit der Korrespondenz, die das angepasste Modell zur Folge hat, definiert dies eine neue Korrespondenz zwischen dem Referenzgesicht und dem Beispiel.
  • Eine Iteration dieses Verfahrens mit steigender Ausdruckskraft des Modells (durch Erhöhung der Anzahl von Hauptkomponenten) führt zu zuverlässigen Korrespondenzen zwischen dem Referenzgesicht und den Beispielen und schließlich zu einem vollständigen morphing-fähigen Gesichtsmodell.
  • V Bildverarbeitungssystem
  • Eine Ausführungsform einer Basiskonfiguration eines Bildverarbeitungssystems gemäß der Erfindung ist schematisch in 8 illustriert. Das Bildverarbeitungssystem 10 enthält eine 3D-Datenbasis 20, einen Modell-Prozessor 30, eine 2D-Eingabe-Schaltung 40, einen Objekt-Analysator 50, eine Rückprojektions-Schaltung 60, eine Modellier-Schaltung 70 und eine 3D-Ausgabe-Schaltung 80, die mit einer Computergrafik wiedergebenden Maschine 80a und/oder einem CAD-System 80b verbunden ist. Weitere Einzelheiten eines Bildverarbeitungssystems sind nicht gezeigt, da sie als solche bekannt sind (z.B. Steuermittel, Tastatureingabemittel, Anzeigemittel und dergleichen).
  • Die 3D-Datenbasis 20 enthält die Strukturdaten von einer Vielzahl von Objekten (z.B. menschlichen Gesichtern), die mit einer geeigneten optischen Objektdetektion, z.B. auf der Basis von Laserabtastungen erhalten wurden. Die 3D-Datenbasis 20 ist mit dem Modell-Prozessor 30 verbunden, der dazu angepasst ist, die Datenverarbeitungsschritte auf der Basis der oben erläuterten Verfahren auszuführen. Als ein Ergebnis liefert der Modell-Prozessor 30 insbesondere ein Mittelwert-Gesicht (z.B. wie in 4, obere Reihe, rechts) zu dem Objekt-Analysator 50 sowie Referenzdaten zu der Modellier- Schaltung 70. Die 2D-Eingabe-Schaltung 40 ist dazu angepasst, ein oder mehrere Eingabebilder in einem geeigneten Format, z.B. Photografien, synthetisierte Bilder oder dergleichen aufzunehmen. Die 2D-Eingabe-Schaltung 40 ist mit dem Objekt-Analysator 50 verbunden, der das morphing-fähige Modell, das von dem Modell-Prozessor 30 empfangen wird, an das (die) Eingabebild (Eingabebilder) anpasst. Als ein Ergebnis erzeugt der Objekt-Analysator 50 ein 3D-Modell des Eingabebildes, das zu der Rückprojektions-Schaltung 60 oder direkt zu der Modellier-Schaltung 70 oder zu der 3D-Ausgabe-Schaltung 80 geliefert wird. Auf der Basis des 3D-Modells, das von dem Objekt-Analysator 50 erhalten wird, und den Original-Farbdaten, die von der 2D-Eingabe-Schaltung 40 empfangen werden, führt die Rückprojektions-Schaltung 60 eine Modellkorrektur aus, wie oben beschrieben wurde. Das korrigierte Modell wird an die Modellier-Schaltung 70 oder direkt zu der 3D-Ausgabe-Schaltung 80 geliefert. Schließlich ist der Modellier-Schaltung 70 dazu angepasst, geänderte Gesichtsmerkmale in das (korrigierte) 3D-Modell unter Verwendung der Eingabe des Modell-Prozessors 30 einzuführen, wie oben beschrieben wurde.
  • VI Ergebnisse und Modifizierungen
  • Gemäß der Erfindung wurde ein morphing-fähiges Gesichtsmodell aufgebaut, indem automatisch die Korrespondenz zwischen allen von z. B. 200 Beispielgesichtern aufgestellt wird. Das interaktive Gesichtsmodellierungssystem ermöglicht menschlichen Nutzern, neue Charaktere zu kreieren und Gesichtsattribute zu modifizieren, indem die Modellkoeffizienten variiert werden. Die modifizierenden Gesichtsattribute umfassen z.B. eine Gewichtszunahme oder -abnahme, Stirnrunzeln oder sogar „gezwungen sein zu lächeln". Mit den Zwangsbedingungen, die durch die Priori-Wahrscheinlichkeit eingeführt werden, besteht eine große Variabilität von möglichen Gesichtern, und alle Linearkombinationen der Beispielgesichter sehen natürlich aus.
  • Die Ausdruckskraft des morphing-fähigen Modells wurde getestet, indem automatisch 3D-Gesichter von Fotografien von willkürlichen Gesichtern weißer Haut und mittleren Alters automatisch rekonstruiert wurden, die nicht in der Datenbasis waren. Die Bilder wurden entweder von uns unter Verwendung einer Digitalkamera (4, 5) oder unter willkürlichen unbekannten Bedingungen (6) aufgenommen. In allen Beispielen passten wir ein morphing-fähiges Modell an, das aus den ersten 100 Gestalt- und den ersten 100 Textur-Hauptkomponenten aufgebaut war, die von dem gesamten Datensatz von 200 Gesichtern abgeleitet waren. Jede Komponente wurde zusätzlich in vier Teile segmentiert (siehe 2). Die gesamte Anpassungsprozedur wurde in 105 Iterationen durchgeführt. Die Rechenzeit auf einem SGI R10000-Prozessor betrug 50 Minuten.
  • Das Rekonstruieren der wahren 3D-Gestalt und -Textur eines Gesichts aus einem einzelnen Bild ist ein schwieriges Problem. Die Ergebnisse, die mit unserer Methode erhalten werden, sehen jedoch für menschliche Beobachter korrekt aus, die auch nur das Eingabebild kennen. Beim Vergleich mit einem realen Bild des gedrehten Gesichts werden Unterschiede gewöhnlich nur für große Drehungen von mehr als 60° sichtbar.
  • Es gibt eine breite Vielfalt von Anwendungen für eine 3D-Gesichtsrekonstruktion aus 2D-Bildern. Wie in 6 demonstriert, können die Ergebnisse für eine automatische Nachbearbeitung eines Gesichts innerhalb des Originalbildes oder einer Filmsequenz verwendet werden.
  • Die Kenntnis der 3D-Gestalt eines Gesichts in einem Bild stellt eine Segmentation des Bildes in eine Gesichtsfläche und einen Hintergrund bereit. Das Gesicht kann mit anderen 3D-Grafikobjekten, so wie Brillen oder Hüten, kombiniert werden und dann vor dem Hintergrund geliefert werden, wobei geworfene Schatten oder neue Beleuchtungsbedingungen (6) berechnet werden. Des Weiteren können wir das Erscheinungsbild das Gesichts durch Zufügen oder Abziehen spezifischer Attribute ändern. Wenn vorher ungesehene Hintergründe sichtbar werden, können die Löcher mit benachbarten Hintergrundpixeln gefüllt werden.
  • Wir haben das Verfahren auch auf Malerei, so wie Leonardo's Mona Lisa angewendet (7). 7 illustriert ein rekonstruiertes 3D-Gesicht von Mona Lisa (oben Mitte und rechts). Zur Modifizierung der Beleuchtung werden Farbdifferenzen (unten links) auf dem 3D-Gesicht berechnet und dann dem Gemälde zugefügt (unten Mitte). Ein zusätzliches Verziehen erzeugte neue Orientierungen (unten rechts). Die Beleuchtungs korrigierte Texturextraktion ist hier jedoch wegen ungewöhnlicher (möglicherweise unrealistischer) Lichtverhältnisse schwierig. Wir wenden daher ein anderes Verfahren zur Übertragung aller Details des Gemäldes auf neue Ansichten an. Für ein neue Beleuchtung (7, unten Mitte) liefern wir zwei Bilder des rekonstruierten 3D-Gesichts mit verschiedener Beleuchtung, und wir fügen Differenzen in Pixelwerten (7, unten links) dem Gemälde zu. Für eine neue Pose (unten rechts) werden in einer ähnlichen Weise Unterschiede in der Schattierung übertragen, und dann wird das Gemälde gemäß den 2D-Projektionen von 3D-Scheitelpunkt-Verschiebungen der rekonstruierten Gestalt verzogen.
  • Gemäß der Erfindung werden die Grundkomponenten für ein vollständig automatisiertes Gesichtsmodellierungssystem präsen tiert, das auf Vorwissen über die möglichen Erscheinungsbilder von Gesichtern basiert. Weitere Erweiterungen werden unter den folgenden Gesichtspunkten erwogen:
    Gegenstände der Implementierung: Wir planen, unser Anpassungsverfahren durch die Implementierung eines vereinfachten Newton-Verfahrens zur Minimierung der Kostfunktion (Gleichung 5) zu beschleunigen. Anstelle der zeitaufwändigen Berechnung von Ableitungen für jeden Iterationsschritt kann eine globale Abbildung des Anpassungsfehlers in den Parameterraum verwendet werden [8].
  • Eine Datenreduktion, die auf Gestalt- und Texturdaten angewendet wird, wird die Redundanz von unserer Repräsentation verringern, wobei zusätzlich Rechnungszeit gespart wird.
  • Erweiterung der Datenbasis: Während die gegenwärtige Datenbasis ausreichend ist, weiße Gesichter mittleren Alters zu modellieren, würden wir sie gerne auf Kinder, ältere Menschen sowie auf andere Rassen erweitern.
  • Wir planen auch, zusätzliche 3D-Gesichtsbeispiele zu inkorporieren, die den Zeitverlauf von Gesichtsausdrücken und „Viseme", die Gesichtsvariation während des Sprechens, repräsentieren.
  • Die Laser-Abtastungstechnologie soll auf die Sammlung von dynamischen 3D-Gesichtsdaten erweitert werden. Die Entwicklung von schnellen optischen 3D-Digitalisierern [25] wird uns ermöglichen, das Verfahren auf Ströme von 3D-Daten während Sprache und Gesichtsausdrücken anzuwenden.
  • Erweiterung des Gesichtsmodells: Das gegenwärtige morphing-fähige Modell für menschliche Gesichter ist auf die Gesichts fläche beschränkt, da ein ausreichendes 3D-Modell von Haaren mit unserem Laser-Scanner nicht erhalten werden kann. Für eine Animation kann der fehlende Teil des Kopfes automatisch durch einen Standard-Haarstil oder einen Hut, oder durch Haar ersetzt werden, das unter Verwendung einer interaktiven manuellen Segmentation und Anpassung an ein 3D-Modell [28, 26] modelliert ist. Die automatisierte Rekonstruktion von Haarstilen aus Bildern ist eine der zukünftigen Herausforderungen.
  • Die Erfindung kann mit Vorteilen im Gebiet der Bilderkennung angewendet werden. Von einem angepassten Gesichtsmodell werden die Koeffizienten als eine Codierung des entsprechenden Gesichts verwendet. Ein zu untersuchendes Bild wird als dieses Gesicht identifiziert, falls die Koeffizienten entsprechend dem Gesicht identisch oder ähnlich zu den codierenden Koeffizienten des Modells sind.
  • Weitere Anwendungen der Erfindung sind im Gebiet des Modellierens von Bildern von dreidimensionalen Objekten gegeben, die nicht menschliche Gesichter sind. Diese Objekte umfassen zum Beispiel komplette menschliche Körper, Körper oder Gesichter von Tieren, technische Objekte (wie Automobile, Möbel) und dergleichen.
  • Literaturliste
    • [1] T. Akimoto, Y. Suenaga, und R.S. Wallace. Automatic creation of 3D facial models. IEEE Computer Graphics and Applications, 13(3): 16–22, 1993.
    • [2] P. Bergeron und P. Lachapelle. Contolling facial expressions and body movements. In Advanced Computer Animation, SIGGRAPH '85 Tutorials, Bd. 2, Seiten 61–79, New York, 1985. ACM.
    • [3] D. Beymer und T. Poggio. Image representation for visual learning. Science, 272: 1905–1909, 1996.
    • [4] D. Beymer, A. Shashua, und T. Poggio. Example-based image analysis and syn-thesis. A.I. Memo No. 1431, Artificial Intelligence Laboratory, Massachusetts Institute of Technology, 1993.
    • [5] S.E. Brennan. The caricature generator. Leonardo, 18: 170–178, 1985.
    • [6] P.J. Burt und E.H. Adelson. Merging images through pattern decomposition. In Applications of Digital Image Processing VIII, Nr. 575, Seiten 173–181. SPIE The International Society for Optical Engeneering, 1985.
    • [7] C.S. Choi, T. Okazaki, H. Harashima und T. Takebe. A system of analyzing and synthesizing facial images. In Proc. IEEE Int. Symposium of Circuit and Systems (ISCAS91), S. 2665–2668, 1991.
    • [8] T.F. Cootes, G.J. Edwards, and C.J. Taylor. Actice appearance models. In Burkhardt and Neumann, Herausgeber, Computer Vision – ECCV '98 Vol. II, Freiburg, Deutschland, 1998. Springer, Lecture Notes in Computer Science 1407.
    • [9] D. DeCarlos, D. Metaxas, und M. Stone. An anthopometric face model using variational techniques. In Computer Graphics Proceedings SIGGRAPH '98, S. 67–74, 1998.
    • [10] S. DiPaola. Extending the range of facial types. Journal of Visualization and Computer Animation, 2(4): 129–131, 1991.
    • [11] G.J. Edwards, A. Lanitis, C.J. Taylor und T.F. Cootes. Modelling the variability in face images. In Proc. of the 2nd Int. Conf. on Automatic Face and Gesture Recognition, IEEE Comp. Soc. Press, Los Alamitos, CA, 1996.
    • [12] L.G. Farkas. Anthropometry of the Head and Face. Raven-Press, New York, 1994.
    • [13] B. Guenter, C. Grimm, D. Wolf, H. Malvar und F. Pighin. Making faces. In Computer Graphics Proceedings SIGGRAPH '98, S. 55–66, 1998.
    • [14] I.T. Jollife. Principal Component Analysis. Springer-Verlag, New York, 1986.
    • [15] M. Jones and T. Poggio. Multidimensional morphable models: A framework for representing and matching object classes. In Proceedings of the Sixth International Conference on Computer Vision, Bombay, India, 1998.
    • [16] A. Lanitis, C.J. Taylor, and T.F. Cootes. Automatic interpretation and coding of face images using flexible models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7): 743–756, 1997.
    • [17] Y.C. Lee, D. Terzopoulos and Keith Waters. Constructing physics-based facial models of individuals. Visual Computer, Proceedings of Graphics Interface '93: 1–8, 1993.
    • [18] Y.C. Lee, D. Terzopoulos and Keith Waters. Realistic modeling for facial animation. In SIGGRAPH '95 Conference Proceedings, S. 55–62, Los Angels, 1995. ACM.
    • [19] J.P. Lewis. Algorithms for solid noise synthesis. In SIGGRAPH '89 Conference Proceedings, S. 263–270. ACM, 1989.
    • [20] N. Magneneat-Thalmann, H. Minh, M. Angelis and D. Thalmann. Design, transformation and animation of human faces. Visual Computer, 5: 32–39, 1989.
    • [21] L. Moccozet and N. Magnenat-Thalmann. Dirichlet freeform deformation and their application to hand simulation. In Computer Animation '97, 1997.
    • [22] F.I. Parke and K. Waters. Computer Facial Animation. AKPeters, Wellesley, Massachusetts, 1996.
    • [23] F.I. Parke. Computer generated animation of faces. In ACM National Conference. ACM, November 1972.
    • [24] F.I. Parke. A parametric model of human faces. Dissertation, University of Utah, Salt Lake City, 1974.
    • [25] M. Petrow, A. Talapov, T. Robertson, A. Lebedev, A. Zhilyaev, and L. Polonskiy. Optical 3D digitizer: Bringing life to virtual world. IEEE Computer Graphics and Applications, 18(3): 28–37, 1998.
    • [26] F. Pighin, J. Hecker, D. Lischinski, Szeliski R and D. Salesin. Synthesizing realistic facial expressions from photographs. In Computer Graphics Proceedings SIGGRAPH '98, S. 75–84, 1998.
    • [27] S. Platt and N. Badler. Animating facial expression. Computer Graphics, 15(3): 245–252, 1981.
    • [28] G. Sannier and N. Magnenat-Thalmann. A user-friendly texture-fitting method-ology for virtual humans. In Computer Graphics International '97, 1997.
    • [29] D. Terzopoulos and Keith Waters. Physically-based facial modeling, analysis, and animation. Visualization and Computer Animation, 1: 73–80, 1990.
    • [30] Demetri Terzopoulos und Hong Qin. Dynamic NURBS with geometric con-straints to interactive sculpting. ACM Transactions on Graphics, 13(2): 103–136, April 1994.
    • [31] J.T. Todd, S.M. Leonard, R.E. Shaw and J.B. Pittenger. The perception of human growth. Scientific American, 1242: 106–114, 1980.
    • [32] T. Vetter and V. Blanz. Estimating coloured 3d face models from single images: An example based approach. In Burkhardt and Neumann, editors, Computer Vision ECCV '98 Vol. II, Freiburg, Deutschland, 1998. Springer, Lecture Notes in Computer Science 1407.
    • [33] T. Vetter, M.J. Jones and T. Poggio. A bootstrapping algorithm for learning linear models of object classes. In IEEE Conference on Computer Vision and Pattern Recognition – CVPR '97, Puerto Rico, USA, 1997. IEEE Computer Society Press.
    • [34] T. Vetter and T. Poggio. Linear object classes and image synthesis from a single example image. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7): 733–742, 1997.
    • [35] Keith Waters. A muscle model for animating threedimensional facial expression. Computer Graphics, 22(4): 17–24, 1987.

Claims (11)

  1. Verfahren des Erzeugens eines morphing-fähigen Objektmodells, umfassend die Schritte: – Erzeugung einer 3D-Datenbasis, die eine Vielzahl von 3D-Bildern von Prototyp-Objekten umfasst, – Ausübung einer Datenverarbeitung, die Korrespondenzen zwischen den Prototyp-Objekten und mindestens einem Referenzobjekt bereitstellt, auf die Daten der 3D-Datenbasis, und – Bereitstellung des morphing-fähigen Objektmodells als ein Satz von Objekten, der Linearkombinationen der Formen und Texturen der Prototyp-Objekte umfasst, wobei der Satz der Objekte mit den Koeffizienten der Linear-Kombinationen parametrisiert ist, dadurch gekennzeichnet, dass – der Satz von Objekten ferner mit einer Wahrscheinlichkeitsverteilung der Koeffizienten parametrisiert ist.
  2. Verfahren gemäß Anspruch 1, bei dem das Referenzobjekt durch Mittelwert-Objektdaten repräsentiert wird.
  3. Verfahren gemäß einem der Ansprüche 1 oder 2, bei dem das morphing-fähige Objektmodell für ein Segment des Objekts erzeugt wird.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem die Objekte menschliche Gesichter, tierische Gesichter, menschliche Körper, tierische Körper oder technische Objekte sind.
  5. Verfahren der Verarbeitung eines Bildes eines drei-dimensionalen Objekts, umfassend die Schritte: – Bereitstellung eines morphing-fähigen Objektmodells, das von einer Vielzahl von 3D-Bildern gemäß einem der vorhergehenden Ansprüche abgeleitet ist, – Anpassung des morphing-fähigen Objektmodells an mindestens ein 2D-Objektbild, und – Bereitstellung des angepassten morphing-fähigen Objektmodells als eine 3D-Repräsentation des Objekts.
  6. Verfahren gemäß Anspruch 5, bei dem das angepasste Objektmodell einer Rückprojektion auf Farbdaten des 2D-Eingangsbildes des Objekts unterzogen wird.
  7. Verfahren gemäß Anspruch 6, bei dem die Rückprojektion eine Beleuchtungskorrektur ergibt, um Farbdaten der Oberfläche des Objekts zu erhalten.
  8. Verfahren gemäß Anspruch 7, bei dem die farbkorrigierten Daten einer Anpassung an geänderte Beleuchtungsbedingungen unterzogen werden.
  9. Verfahren gemäß einem der Ansprüche 5 bis 8, bei dem das angepasste morphing-fähige Objektmodell einem Modellierungsschritt zur Modifizierung von mindestens einem Objektmerkmal unterzogen wird.
  10. Verfahren gemäß einem der Ansprüche 5 bis 8, bei dem das drei-dimensionale Objekt ein Gesicht mit bestimmten Gesichtsattributen ist, wobei das Verfahren den weiteren Schritt umfasst: – Synthetisieren eines 3D-Modells des Gesichts.
  11. Verfahren der Erkennung eines Objekts, umfassend die Schritte: – Bereitstellung eines Bildes des Objekts, das erkannt werden soll, und – Verarbeitung des Bildes mit einem Verfahren gemäß einem der Ansprüche 5 bis 10.
DE69934478T 1999-03-19 1999-03-19 Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen Expired - Lifetime DE69934478T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP99105692A EP1039417B1 (de) 1999-03-19 1999-03-19 Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen

Publications (2)

Publication Number Publication Date
DE69934478D1 DE69934478D1 (de) 2007-02-01
DE69934478T2 true DE69934478T2 (de) 2007-09-27

Family

ID=8237823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69934478T Expired - Lifetime DE69934478T2 (de) 1999-03-19 1999-03-19 Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen

Country Status (3)

Country Link
US (1) US6556196B1 (de)
EP (1) EP1039417B1 (de)
DE (1) DE69934478T2 (de)

Families Citing this family (222)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
JP2000357221A (ja) * 1999-06-15 2000-12-26 Minolta Co Ltd 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体
US7133812B1 (en) 1999-08-30 2006-11-07 Ford Global Technologies, Llc Method of parametic design of an instrument panel support structure
US7657083B2 (en) * 2000-03-08 2010-02-02 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US7158923B1 (en) 2000-03-29 2007-01-02 Ford Global Technologies, Llc Method of integrating product information management with vehicle design
US6760693B1 (en) * 2000-03-29 2004-07-06 Ford Global Technologies, Llc Method of integrating computer visualization for the design of a vehicle
US8438594B1 (en) * 2000-05-11 2013-05-07 Jlb Ventures Llc Method and system for 3-D enhanced advertising for TV broadcast of 2-D video
WO2001099048A2 (en) * 2000-06-22 2001-12-27 Lifef/X Networks, Inc. Non-linear morphing of faces and their dynamics
KR100376760B1 (ko) * 2000-07-05 2003-03-19 케이포테크놀로지 주식회사 캐리커쳐 제작 방법
JP4483042B2 (ja) * 2000-07-12 2010-06-16 コニカミノルタホールディングス株式会社 影成分除去装置および影成分除去方法
US10783528B2 (en) * 2000-08-24 2020-09-22 Facecake Marketing Technologies, Inc. Targeted marketing system and method
JP4167390B2 (ja) 2000-11-20 2008-10-15 日本電気株式会社 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
EP1518211A2 (de) * 2000-12-22 2005-03-30 Anthropics Technology Limited Bildbearbeitungssystem
US7006683B2 (en) * 2001-02-22 2006-02-28 Mitsubishi Electric Research Labs., Inc. Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images
US7133052B1 (en) * 2001-03-20 2006-11-07 Microsoft Corporation Morph map based simulated real-time rendering
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US20030107572A1 (en) * 2001-07-02 2003-06-12 Smith Joshua Edward Method and apparatus for reducing the polygon count of a textured, three dimensional model of an object
US20030081849A1 (en) * 2001-07-16 2003-05-01 Smith Joshua Edward Method and system for creating seamless textured three dimensional models of objects
DE10144004A1 (de) * 2001-09-07 2003-03-27 Philips Corp Intellectual Pty Verfahren zur Messung geometrischer Größen einer in einem Bild enthaltenen Struktur
GB2382289B (en) 2001-09-28 2005-07-06 Canon Kk Method and apparatus for generating models of individuals
GB2383915B (en) 2001-11-23 2005-09-28 Canon Kk Method and apparatus for generating models of individuals
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
US20030163315A1 (en) * 2002-02-25 2003-08-28 Koninklijke Philips Electronics N.V. Method and system for generating caricaturized talking heads
US7034822B2 (en) * 2002-06-19 2006-04-25 Swiss Federal Institute Of Technology Zurich System and method for producing 3D video images
GB0219623D0 (en) * 2002-08-22 2002-10-02 British Telecomm Method and system for virtual object generation
US6947579B2 (en) 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US7421098B2 (en) * 2002-10-07 2008-09-02 Technion Research & Development Foundation Ltd. Facial recognition and the open mouth problem
KR100450210B1 (ko) * 2002-10-25 2004-09-24 (주)엔룩스 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된기록매체
US6898263B2 (en) * 2002-11-27 2005-05-24 Ge Medical Systems Global Technology Company, Llc Method and apparatus for soft-tissue volume visualization
US7220491B2 (en) * 2002-12-19 2007-05-22 Kimberly-Clark Worldwide, Inc. Lubricious coating for medical devices
WO2004081854A1 (en) 2003-03-06 2004-09-23 Animetrics, Inc. Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
US7643671B2 (en) 2003-03-24 2010-01-05 Animetrics Inc. Facial recognition system and method
US7711155B1 (en) * 2003-04-14 2010-05-04 Videomining Corporation Method and system for enhancing three dimensional face modeling using demographic classification
GB0311208D0 (en) * 2003-05-15 2003-06-18 British Telecomm Feature based caricaturing
US20040243415A1 (en) * 2003-06-02 2004-12-02 International Business Machines Corporation Architecture for a speech input method editor for handheld portable devices
JP4860472B2 (ja) * 2003-10-09 2012-01-25 ユニヴァーシティ オブ ヨーク 画像認識
TWI220234B (en) * 2003-10-21 2004-08-11 Ind Tech Res Inst A method to simulate animated images for an object
US7512286B2 (en) * 2003-10-27 2009-03-31 Hewlett-Packard Development Company, L.P. Assessing image quality
WO2005069213A1 (ja) * 2004-01-13 2005-07-28 Nec Corporation 特徴変化画像作成方法、特徴変化画像作成装置および特徴変化画像作成プログラム
GB0400894D0 (en) * 2004-01-15 2004-02-18 British Telecomm Adaptive closed group caricaturing
US7440877B2 (en) * 2004-03-12 2008-10-21 General Motors Corporation System and method for morphable model design space definition
US7969447B2 (en) * 2004-05-06 2011-06-28 Pixar Dynamic wrinkle mapping
US7804997B2 (en) * 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
JP2006004158A (ja) * 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
EP1768064A4 (de) * 2004-07-15 2008-01-02 Nec Corp Datenprüfverfahren, datenprüfeinrichtung und datenprüfprogramm
US7519522B2 (en) * 2004-08-03 2009-04-14 Gm Global Technology Operations, Inc. System and method for morphable model design space definition
US20060038812A1 (en) * 2004-08-03 2006-02-23 Warn David R System and method for controlling a three dimensional morphable model
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
EP1810216B1 (de) * 2004-08-19 2012-03-28 Apple Inc. 3d-objekterkennung
WO2006030687A1 (ja) * 2004-09-14 2006-03-23 Nec Corporation データ照合システム、データ照合装置、及びデータ照合方法
US7706576B1 (en) 2004-12-28 2010-04-27 Avaya Inc. Dynamic video equalization of images using face-tracking
US7885598B2 (en) * 2004-12-30 2011-02-08 Kimberly-Clark Worldwide, Inc. Generating and providing personalized information to a user regarding the purchase and use of personal care products
KR100601989B1 (ko) * 2005-02-07 2006-07-18 삼성전자주식회사 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체
US7460150B1 (en) 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
US20080177640A1 (en) 2005-05-09 2008-07-24 Salih Burak Gokturk System and method for using image analysis and search in e-commerce
US7783135B2 (en) 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
US8732025B2 (en) 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
US7760917B2 (en) 2005-05-09 2010-07-20 Like.Com Computer-implemented method for performing similarity searches
US7650266B2 (en) * 2005-05-09 2010-01-19 Nvidia Corporation Method of simulating deformable object using geometrically motivated model
US7657126B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for search portions of objects in images and features thereof
US7945099B2 (en) 2005-05-09 2011-05-17 Like.Com System and method for use of images with recognition analysis
US7660468B2 (en) * 2005-05-09 2010-02-09 Like.Com System and method for enabling image searching using manual enrichment, classification, and/or segmentation
US7564476B1 (en) 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
WO2006137013A2 (en) * 2005-06-21 2006-12-28 Philips Intellectual Property & Standards Gmbh Progressive model-based adaptation
CA2553546A1 (en) * 2005-07-29 2007-01-29 Avid Technology, Inc. Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
US20070065000A1 (en) * 2005-09-21 2007-03-22 Joonpyo Hong Apparatus and method for producing character sculpture
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
US7663644B2 (en) * 2005-11-08 2010-02-16 Autodesk, Inc. Automatic element substitution in vector-based illustrations
US7663638B2 (en) * 2005-11-23 2010-02-16 Autodesk, Inc. Stroked fill
US20080309662A1 (en) * 2005-12-14 2008-12-18 Tal Hassner Example Based 3D Reconstruction
CH698140B1 (de) * 2006-01-20 2009-05-29 Alstom Technology Ltd Verfahren zur Digitalisierung dreidimensionaler Bauteile.
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US9690979B2 (en) 2006-03-12 2017-06-27 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
JP4362489B2 (ja) * 2006-03-29 2009-11-11 日本電気株式会社 3次元顔データ登録システム、3次元顔データ登録方法、及び登録処理プログラム
JP2007286669A (ja) * 2006-04-12 2007-11-01 Sony Corp 画像処理装置および方法、並びにプログラム
US20070259317A1 (en) * 2006-05-05 2007-11-08 Rewell Christine Heather Method and kit for assisting in the selection of an adornment
US8165282B1 (en) 2006-05-25 2012-04-24 Avaya Inc. Exploiting facial characteristics for improved agent selection
JP4910507B2 (ja) * 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
US7714866B2 (en) * 2006-07-19 2010-05-11 Autodesk, Inc. Rendering a simulated vector marker stroke
US7712052B2 (en) 2006-07-31 2010-05-04 Microsoft Corporation Applications of three-dimensional environments constructed from images
US20080027985A1 (en) * 2006-07-31 2008-01-31 Microsoft Corporation Generating spatial multimedia indices for multimedia corpuses
US7764849B2 (en) * 2006-07-31 2010-07-27 Microsoft Corporation User interface for navigating through images
US8233702B2 (en) * 2006-08-18 2012-07-31 Google Inc. Computer implemented technique for analyzing images
KR100825756B1 (ko) * 2006-12-05 2008-04-29 한국전자통신연구원 얼굴 특징 추출 방법 및 그 장치
JP4289415B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
US7844105B2 (en) * 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
US7844106B2 (en) * 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc Method and system for determining poses of objects from range images using adaptive sampling of pose spaces
US7777745B2 (en) * 2007-04-27 2010-08-17 Autodesk, Inc. Edge effect
US8416981B2 (en) 2007-07-29 2013-04-09 Google Inc. System and method for displaying contextual supplemental content based on image content
US8165352B1 (en) 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
US8331632B1 (en) 2007-08-06 2012-12-11 University Of South Florida Indexing face templates using linear models
US8437514B2 (en) * 2007-10-02 2013-05-07 Microsoft Corporation Cartoon face generation
US8090160B2 (en) * 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
JP5106978B2 (ja) * 2007-10-15 2012-12-26 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線ct装置
US8139899B2 (en) 2007-10-24 2012-03-20 Motorola Mobility, Inc. Increasing resolution of video images
US20090124866A1 (en) * 2007-11-09 2009-05-14 The Quantum Group, Inc. Intelligent personal health profile
US20090135177A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for voice personalization of video content
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
DE102008014381B4 (de) * 2008-03-17 2010-07-08 Eads Deutschland Gmbh Bildverarbeitungsvorrichtung
US8831379B2 (en) * 2008-04-04 2014-09-09 Microsoft Corporation Cartoon personalization
US20110227923A1 (en) * 2008-04-14 2011-09-22 Xid Technologies Pte Ltd Image synthesis method
US8391642B1 (en) * 2008-05-12 2013-03-05 Hewlett-Packard Development Company, L.P. Method and system for creating a custom image
CN103632288A (zh) * 2008-07-14 2014-03-12 谷歌股份有限公司 在展示网络内容时提供补充内容的系统和计算机硬件系统
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
GB0813685D0 (en) * 2008-07-25 2008-09-03 Omniperception Ltd A system & method for facial recognition
TW201023092A (en) * 2008-12-02 2010-06-16 Nat Univ Tsing Hua 3D face model construction method
TWI382354B (zh) * 2008-12-02 2013-01-11 Nat Univ Tsing Hua 臉部辨識方法
US8217961B2 (en) * 2009-03-27 2012-07-10 Mitsubishi Electric Research Laboratories, Inc. Method for estimating 3D pose of specular objects
CA2758143C (en) * 2009-04-27 2015-03-31 Research In Motion Limited Conversion of swf shape definitions for vector graphics rendering
CA2758140C (en) * 2009-04-27 2014-11-18 Research In Motion Limited Conversion of swf morph shape definitions for vector graphics rendering
US20100313141A1 (en) * 2009-06-03 2010-12-09 Tianli Yu System and Method for Learning User Genres and Styles and for Matching Products to User Preferences
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
US8803950B2 (en) * 2009-08-24 2014-08-12 Samsung Electronics Co., Ltd. Three-dimensional face capturing apparatus and method and computer-readable medium thereof
KR101615719B1 (ko) * 2009-09-18 2016-04-27 삼성전자주식회사 사용자의 3차원 얼굴 표정 추출 방법 및 장치
US20110175918A1 (en) * 2010-01-21 2011-07-21 Cheng-Yun Karen Liu Character animation control interface using motion capure
US9025030B2 (en) * 2010-06-08 2015-05-05 Cheryl Garcia Video system
US8818131B2 (en) * 2010-08-20 2014-08-26 Adobe Systems Incorporated Methods and apparatus for facial feature replacement
US8717418B1 (en) * 2011-02-08 2014-05-06 John Prince Real time 3D imaging for remote surveillance
KR101624808B1 (ko) * 2011-08-09 2016-05-26 인텔 코포레이션 파라미터화된 3d 얼굴 생성
KR101608253B1 (ko) * 2011-08-09 2016-04-01 인텔 코포레이션 이미지 기반 멀티 뷰 3d 얼굴 생성
US8923392B2 (en) 2011-09-09 2014-12-30 Adobe Systems Incorporated Methods and apparatus for face fitting and editing applications
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
US8933928B2 (en) * 2011-11-22 2015-01-13 Seiko Epson Corporation Multiview face content creation
KR101874494B1 (ko) 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
JP5894426B2 (ja) * 2011-12-13 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法
US20130293686A1 (en) * 2012-05-03 2013-11-07 Qualcomm Incorporated 3d reconstruction of human subject using a mobile device
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9378584B2 (en) 2012-05-23 2016-06-28 Glasses.Com Inc. Systems and methods for rendering virtual try-on products
CN102800129B (zh) * 2012-06-20 2015-09-30 浙江大学 一种基于单幅图像的头发建模和肖像编辑方法
FR2998402B1 (fr) * 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
US9025811B1 (en) 2013-01-02 2015-05-05 Google Inc. Performing image similarity operations using semantic classification
KR20140090353A (ko) * 2013-01-08 2014-07-17 한국전자통신연구원 얼굴의 형태 및 질감을 이용한 3차원 캐리커처 생성 장치 및 그 방법
JP6328669B2 (ja) 2013-02-23 2018-05-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated 電子デバイスによる対話型画像戯画化のためのシステムおよび方法
GB2518589B (en) * 2013-07-30 2019-12-11 Holition Ltd Image processing
GB2520611B (en) * 2013-08-02 2016-12-21 Anthropics Tech Ltd Image manipulation
US9998684B2 (en) * 2013-08-16 2018-06-12 Indiana University Research And Technology Corporation Method and apparatus for virtual 3D model generation and navigation using opportunistically captured images
CN103473804A (zh) * 2013-08-29 2013-12-25 小米科技有限责任公司 一种图像处理方法、装置和终端设备
KR20150026358A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 피사체 정보에 따른 템플릿 피팅 방법 및 그 장치
US10095917B2 (en) 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
WO2015087308A2 (fr) * 2013-12-15 2015-06-18 7893159 Canada Inc. Methode et systeme de comparaison de modeles 3d
KR101694300B1 (ko) * 2014-03-04 2017-01-09 한국전자통신연구원 3d 개인 피규어 생성 장치 및 그 방법
US10207405B2 (en) * 2014-03-31 2019-02-19 Christopher Deane Shaw Methods for spontaneously generating behavior in two and three-dimensional images and mechanical robots, and of linking this behavior to that of human users
US9639742B2 (en) * 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US9747493B2 (en) 2014-09-23 2017-08-29 Keylemon Sa Face pose rectification method and apparatus
EP3009987B1 (de) * 2014-10-16 2019-05-01 Alcatel Lucent Verfahren und System zur Bereitstellung einer dynamischen Erscheinung für ein generisches, verformbares 3D-Modell
KR101643573B1 (ko) * 2014-11-21 2016-07-29 한국과학기술연구원 얼굴 표정 정규화를 통한 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
US10013796B2 (en) * 2015-01-22 2018-07-03 Ditto Technologies, Inc. Rendering glasses shadows
TW201629907A (zh) * 2015-02-13 2016-08-16 啟雲科技股份有限公司 三維頭像產生系統及其裝置、產生方法
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
US10114127B2 (en) * 2015-05-11 2018-10-30 The United States Of America, As Represented By The Secretary Of The Navy Augmented reality visualization system
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
US20170171525A1 (en) 2015-12-14 2017-06-15 Sony Corporation Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method
EP3400706B1 (de) 2016-01-05 2022-04-13 RealD Spark, LLC Blickkorrektur von mehrfachansichtsbildern
US11615462B2 (en) 2016-02-16 2023-03-28 Ohzone, Inc. System for virtually sharing customized clothing
US10373386B2 (en) 2016-02-16 2019-08-06 Ohzone, Inc. System and method for virtually trying-on clothing
US10127717B2 (en) 2016-02-16 2018-11-13 Ohzone, Inc. System for 3D Clothing Model Creation
CN108701323B (zh) 2016-03-21 2023-11-10 宝洁公司 用于提供定制的产品推荐的系统和方法
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
EP3475920A4 (de) 2016-06-23 2020-01-15 Loomai, Inc. Systeme und verfahren zur erzeugung von computerbereiten animationsmodellen eines menschlichen kopfes aus bildern erfasster daten
CN108475424B (zh) 2016-07-12 2023-08-29 微软技术许可有限责任公司 用于3d面部跟踪的方法、装置和系统
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US10818064B2 (en) * 2016-09-21 2020-10-27 Intel Corporation Estimating accurate face shape and texture from an image
KR102491438B1 (ko) 2016-09-28 2023-01-25 매직 립, 인코포레이티드 웨어러블 디바이스에 의한 얼굴 모델 캡처
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
WO2018067357A2 (en) 2016-10-05 2018-04-12 Magic Leap, Inc. Periocular test for mixed reality calibration
US10474880B2 (en) * 2017-03-15 2019-11-12 Nec Corporation Face recognition using larger pose face frontalization
US10621771B2 (en) 2017-03-21 2020-04-14 The Procter & Gamble Company Methods for age appearance simulation
US10614623B2 (en) * 2017-03-21 2020-04-07 Canfield Scientific, Incorporated Methods and apparatuses for age appearance simulation
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
WO2018222812A1 (en) 2017-05-31 2018-12-06 The Procter & Gamble Company System and method for guiding a user to take a selfie
JP6849825B2 (ja) 2017-05-31 2021-03-31 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company 見掛け肌年齢を判定するためのシステム及び方法
WO2019032604A1 (en) 2017-08-08 2019-02-14 Reald Spark, Llc ADJUSTING A DIGITAL REPRESENTATION OF A HEADQUARTERS
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10289899B2 (en) * 2017-08-31 2019-05-14 Banuba Limited Computer-implemented methods and computer systems for real-time detection of human's emotions from visual recordings
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
TWI651687B (zh) * 2017-11-24 2019-02-21 財團法人工業技術研究院 三維模型建構方法及其系統
US11157985B2 (en) * 2017-11-29 2021-10-26 Ditto Technologies, Inc. Recommendation system, method and computer program product based on a user's physical features
PT3492406T (pt) * 2017-12-01 2021-08-19 Grifols Worldwide Operations Ltd Recipiente com uma tampa e um dispositivo para abrir e fechar tampas de recipientes
US11232617B2 (en) * 2018-01-11 2022-01-25 Pamela L. Barber Digital imaging method and apparatus
US10860838B1 (en) * 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US10198845B1 (en) * 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
WO2020085922A1 (en) 2018-10-26 2020-04-30 Soul Machines Limited Digital character blending and generation system and method
KR20200048032A (ko) 2018-10-29 2020-05-08 삼성전자주식회사 이미지 생성 장치 및 방법과 생성 모델을 트레이닝시키는 장치 및 방법
US11089281B2 (en) * 2018-11-27 2021-08-10 At&T Intellectual Property I, L.P. Volumetric video creation from user-generated content
US10949649B2 (en) 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
GB2582010B (en) * 2019-03-08 2021-07-28 Huawei Tech Co Ltd Combining three-dimensional morphable models
EP3731132A1 (de) * 2019-04-25 2020-10-28 XRSpace CO., LTD. Verfahren zur erzeugung eines 3d-gesichtsmodells für einen avatar und zugehörige vorrichtung
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
US11217036B1 (en) * 2019-10-07 2022-01-04 Facebook Technologies, Llc Avatar fidelity and personalization
CN111091624B (zh) * 2019-12-19 2021-09-28 南京大学 一种从单张图片生成高精度可驱动人脸三维模型的方法
CN111105348A (zh) * 2019-12-25 2020-05-05 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11443484B2 (en) 2020-05-15 2022-09-13 Microsoft Technology Licensing, Llc Reinforced differentiable attribute for 3D face reconstruction
US11410366B2 (en) * 2020-09-18 2022-08-09 Unity Technologies Sf Systems and methods for generating a skull surface for computer animation
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
CN113343761A (zh) * 2021-05-06 2021-09-03 武汉理工大学 一种基于生成对抗的实时人脸表情迁移方法
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6020892A (en) * 1995-04-17 2000-02-01 Dillon; Kelly Process for producing and controlling animated facial representations
US5844573A (en) * 1995-06-07 1998-12-01 Massachusetts Institute Of Technology Image compression by pointwise prototype correspondence using shape and texture information
AU5638596A (en) * 1996-05-07 1997-11-26 Synthonics Incorporated Methods and apparatus for creation of three-dimensional wire frames and for three-dimensional stereo morphing
AU5896498A (en) * 1996-12-06 1998-07-15 Stereographics Corporation Synthetic panoramagram
US6147692A (en) * 1997-06-25 2000-11-14 Haptek, Inc. Method and apparatus for controlling transformation of two and three-dimensional images
US5990901A (en) * 1997-06-27 1999-11-23 Microsoft Corporation Model based image editing and correction
US6362833B2 (en) * 1998-04-08 2002-03-26 Intel Corporation Method and apparatus for progressively constructing a series of morphs between two-dimensional or three-dimensional models
US6268846B1 (en) * 1998-06-22 2001-07-31 Adobe Systems Incorporated 3D graphics based on images and morphing

Also Published As

Publication number Publication date
US6556196B1 (en) 2003-04-29
EP1039417B1 (de) 2006-12-20
DE69934478D1 (de) 2007-02-01
EP1039417A1 (de) 2000-09-27

Similar Documents

Publication Publication Date Title
DE69934478T2 (de) Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
Blanz et al. A morphable model for the synthesis of 3D faces
DE69932619T2 (de) Verfahren und system zum aufnehmen und repräsentieren von dreidimensionaler geometrie, farbe und schatten von animierten objekten
Tena et al. Interactive region-based linear 3d face models.
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
Hwang et al. Reconstruction of partially damaged face images based on a morphable face model
DE69910757T2 (de) Wavelet-basierte gesichtsbewegungserfassung für avataranimation
Kiechle et al. A joint intensity and depth co-sparse analysis model for depth map super-resolution
Pighin et al. Modeling and animating realistic faces from images
US7212664B2 (en) Constructing heads from 3D models and 2D silhouettes
US7133048B2 (en) Variable multilinear models for facial synthesis
DE60133840T2 (de) Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
US20080309662A1 (en) Example Based 3D Reconstruction
DE102018111407A1 (de) Methode zum maschinellen lernen für automatisches modellieren von mehrwertigen ausgaben
US20230044644A1 (en) Large-scale generation of photorealistic 3d models
CN112541864A (zh) 一种基于多尺度生成式对抗网络模型的图像修复方法
Kang et al. Competitive learning of facial fitting and synthesis using uv energy
Ye et al. 3d morphable face model for face animation
Vetter et al. A separated linear shape and texture space for modeling two-dimensional images of human faces
Dai et al. Pointae: Point auto-encoder for 3d statistical shape and texture modelling
Xi et al. A data-driven approach to human-body cloning using a segmented body database
Zhang et al. Anatomy-based face reconstruction for animation using multi-layer deformation
CN115512039A (zh) 一种3d人脸构建方法
CN115471611A (zh) 一种提升3dmm人脸模型视觉效果的方法
Hu et al. Research on Current Situation of 3D face reconstruction based on 3D Morphable Models

Legal Events

Date Code Title Description
8364 No opposition during term of opposition