DE19882939C2 - Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen - Google Patents
Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugenInfo
- Publication number
- DE19882939C2 DE19882939C2 DE19882939T DE19882939T DE19882939C2 DE 19882939 C2 DE19882939 C2 DE 19882939C2 DE 19882939 T DE19882939 T DE 19882939T DE 19882939 T DE19882939 T DE 19882939T DE 19882939 C2 DE19882939 C2 DE 19882939C2
- Authority
- DE
- Germany
- Prior art keywords
- image
- camera
- location
- recording
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/02—Stereoscopic photography by sequential recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Description
Die Erfindung bezieht sich auf ein System bzw. ein
Verfahren zum Erzeugen eines dreidimensionalen Bildes mit
Hilfe einer bewegten Bildaufnahmeeinrichtung, die jeweils
ein Bild an einem ersten und einem zweiten Ort aufnimmt.
Fotografische und Bildgebungssysteme werden heutzutage
primär zur Verwendung bei der Erzeugung zweidimensionaler
Bilder entwickelt. Bei einem zweidimensionalen Bild wird nur
eine Perspektive benötigt. Diese Perspektive kann erzeugt
werden, indem eine Kamera an einer fest vorgegebenen Positi
on positioniert wird und das Bild auf einem fotografischen
Film oder auf elektronischen Sensoren aufgezeichnet wird.
Jedoch ist die menschliche Sichtweise stereoskopisch. So
kombiniert das menschliche Gehirn zwei Bilder, von denen je
des jeweils ein Auge erreicht. Das Gehirn kombiniert die
zwei Bilder, um eine zusätzliche Dimension der Tiefe zu er
zeugen, um ein dreidimensionales (3-D) Bild zu erzeugen. In
den letzten Jahren wurden Kameras und elektronische Sensoren
entwickelt, um zu versuchen, zwei Bilder aufzunehmen und
diese zu rekombinieren, um ein dreidimensionales Bild mit
einer Tiefenkomponente zu reproduzieren.
Herkömmliche dreidimensionale Bildgebungssysteme verwen
den zwei Kameras. Vorzugsweise ist die Beziehung zwischen
den zwei Kameras fest. Wenn somit die beiden Perspektiven
(eine Perspektive von jeder Kamera) kombiniert werden, sind
die sich auf die beiden Perspektiven beziehenden Informatio
nen bekannt, da eine feste räumliche Beziehung zwischen den
beiden Kameras besteht. Das Problem bei der Verwendung zwei
er Kameras besteht darin, daß dies aufwendiger ist als eine
Anordnung mit einer einzigen Kamera. Zwei Kameras erfordern
üblicherweise zwei Linsen, zwei Kameragehäuse und zwei Sätze
von Filmen.
Es wurden alternative Systeme zum Erzeugen von 3-D-Bil
dern implementiert, die zwei Linsen in einem Kameragehäuse
verwenden. Diese Systeme sind ebenfalls aufwendiger als
zweidimensionale Standardkameras, da mehrere Systeme von
Linsen erforderlich sind, um mehrere Bilder zu erzeugen. Je
des Linsensystem erzeugt ein Bild, das einer anderen Per
spektivansicht des fotografierten Objekts entspricht. Dar
über hinaus erfordert das Anordnen von zwei Linsensystemen
in einem einzigen Kameragrundkörper, daß die Linsensysteme
eng beieinander angeordnet werden. Der geringere Abstand der
beiden Linsensysteme führt zu einer geringeren Tiefenwahr
nehmung, als sie verfügbar wäre, sofern die Linsensysteme
weiter voneinander beabstandet angeordnet werden könnten.
Aus der Offenlegungsschrift DE 38 33 584 A1 ist eine
Einrichtung zum Erzeugen von Stereobildpaaren bekannt. Von
einer herkömmlichen Kamera werden zwei Bilder an
vorgegebenen Punkten während einer Bewegung der Kamera
entlang einer Schiene aufgenommen. Die Kamera ist auf einem
Schlitten montiert, der auf der Schiene gleitet und von
einem Riementrieb und einem Motor angetrieben wird. Der
Antrieb des Schlittens und die Steuerung der Kamera sind so
miteinander gekoppelt, daß die beiden Bildaufnahmen an
vorgegebenen Positionen auf der Schiene ausgelöst werden.
Diese Einrichtung ist relativ aufwendig und wenig flexibel.
Aus dem US-Patent Nr. 4,807,024 ist die Erzeugung eines
Pseudo-Stereo-Eindrucks beim Betrachten von aus einem
Flugzeug heraus aufgenommenen Bildfolgen bekannt, bei der
bestimmte Bilder der Bildfolge entweder dem rechten oder dem
linken Auge zugeführt werden.
Das US-Patent Nr. 4,895,431 offenbart eine Anordnung mit
einem Endoskop mit einer ein Bild erfassenden und seitlich
schwenkbaren Endoskopspitze und mit einer Einrichtung zur
Steuerung des Endoskops zum Schwenken der Endoskopspitze und
zur Erzeugung eines dreidimensionalen Bildes aus zwei mit
der Endoskopspitze gewonnenen Aufnahmen. Bspw. werden zwei
Aufnahmen an zwei Schwenkpositionen der Endoskopspitze
aufgenommen. Die Einrichtung umfaßt einen Stellantrieb mit
einem Seilzug zum Krümmen des Endoskops, wodurch die
Endoskopspitze verschwenkt wird. Aus der jeweiligen Stellung
des Positionierantriebs, die mit einem Sensor erfaßt wird,
kann ein Schwenkwinkel der Endoskopspitze berechnet werden.
Aus zwei Positionen des Sensorantriebs kann der
Winkelabstand zwischen zwei zugehörigen Positionen der
Endoskopspitze bestimmt werden, nicht aber der tatsächliche
Ort der Endoskopspitze.
Aufgabe der Erfindung ist es, auf schnelle und einfache
Weise ein dreidimensionales Bild mit Hilfe einer einzigen
Kamera zu erzeugen.
Diese Aufgabe wird durch ein System zum Erzeugen eines
dreidimensionalen Bildes mit den Merkmalen des
Patentanspruchs 1 bzw. ein Verfahren mit den Merkmalen des
Patentanspruchs 9 gelöst.
Vorteilhafte und bevorzugte Weiterbildungen der
Erfindung sind in den Unteransprüchen gekennzeichnet.
Im folgenden wird die Erfindung anhand bevorzugter
Ausführungsformen näher beschrieben, die in den Zeichnungen
abgebildet sind. In den Zeichnungen zeigen:
Fig. 1 veranschaulicht ein Ausführungsbeispiel der Er
findung zum Erzeugen eines dreidimensionalen Bildes.
Fig. 2 ist ein Ablaufdiagramm, das den Prozeß des Er
zeugens zweier Bilder beschreibt.
Fig. 3 ist ein Ablaufdiagramm, das den Prozeß des Kom
binierens zweier Bilder zum Bilden eines einzigen dreidimen
sionalen Bildes beschreibt.
Fig. 4 ist ein Ablaufdiagramm, das ein System zum Un
terstützen eines Benutzers zur Verbesserung der Datengewin
nungskapazität einer Kamera veranschaulicht.
In der folgenden Beschreibung wird ein System zur Ver
wendung einer einzigen Kamera mit einem einzigen Linsensy
stem zum Erzeugen dreidimensionaler Bilder beschrieben. Die
Kamera enthält einen Satz von Bewegungssensoren, vorzugs
weise einen mikromechanischen Siliziumsensor (MEMS-Sensor),
welcher die lineare und die Rotationsbeschleunigung oder -
bewegungen der Kamera erfaßt, und kann dadurch die Verschie
bung der Kamera berechnen, um Positionen zu bestimmen, an
welchen eine Kamera angeordnet ist. Alternativ kann ein glo
bales Positionier(GPS)-System verwendet werden, um den Ort
zu bestimmen. Andere Arten von Bewegungssensoren, welche
ebenfalls verwendet werden können, sind MEM-Schwingungssen
soren oder kommerziell verfügbare Laser-Gyroskope. Unter
Verwendung der Positionsinformationen und der wenigstens
zwei durch das einzige Linsensystem aufgenommenen Bilder
kann die Kamera oder ein externer Prozessor ein dreidimen
sionales Bild, das ein Objekt darstellt, erzeugen.
In der nachfolgenden Beschreibung sind bestimmte Be
schreibungsteile vorgesehen, um das Verständnis der Erfin
dung zu erleichtern. Beispielsweise ist beschrieben, daß die
Erfindung bestimmte MEMS-Sensortypen, wie beispielsweise mi
kromechanische Beschleunigungssensoren, verwendet. Es ist
jedoch klar, daß andere Positionssensoren oder Bewegungsde
tektoren verwendet werden können. Insbesondere können GPS-
Systeme oder andere Arten von MEMS geeignet sein. Der tat
sächlich verwendete Sensor hängt von den Kosten des Sensors
ab und davon, ob ein Sensor Daten mit einer ausreichenden
Genauigkeit bereitstellen kann, von dem Stromverbrauch des
Sensors und von der Größe des Sensors. Die enthaltenen De
tails werden angegeben, um das Verständnis der Erfindung zu
erleichtern, und sollten nicht im Sinne einer Einschränkung
des Umfangs der Erfindung interpretiert werden.
Eine Betriebsweise des gesamten Systems ist in Fig. 1
veranschaulicht. In Fig. 1 wird eine Kamera 104 verwendet,
um ein dreidimensionales Bild eines Objekts 108 zu erzeugen.
Die Kamera befindet sich in einer Anfangsposition 112, wenn
das erste Bild aufgenommen wird. Nachdem ein erstes Bild
aufgenommen ist, wird die Kamera zu einer zweiten Position
116 bewegt. Die Bewegung umfaßt sowohl eine seitliche Ver
schiebung, die durch den Pfeil 120 veranschaulicht ist, als
auch gegebenenfalls eine Rotationsbewegung, die durch den
Pfeil 124 veranschaulicht ist. Bei einem Ausführungsbeispiel
erfaßt ein Bewegungssensor 128 in der Kamera die seitliche
Verschiebung und die Rotation der Kamera. Bei einem Ausfüh
rungsbeispiel umfaßt der Bewegungssensor 128 zwei MEMS-Sen
soren, einen MEMS-Sensor, welcher die laterale Beschleuni
gung 120 umfaßt, und einen zweiten MEMS-Sensor zum Erfassen
der Rotation. Bei einem alternativen Ausführungsbeispiel
können GPS-Sensoren verwendet werden, um die Position der
Kamera zu bestimmen.
Bei einem bevorzugten Ausführungsbeispiel ist der MEMS-
Sensor 128 ein Trägheitssensor. Derartige Sensoren basieren
auf der Kammstellantriebtechnologie (comb drive actuator
technology), die von Howe entwickelt und in einem Artikel
mit dem Titel "Laterally Driven Polysilicate Resident Micro
Structures" von W. C. Tang, T. C. Nguyen und R. T. Howe,
Proceedings IEEE Microelectromechanical Systems Workshop,
Salt Lake City, Utah, U.S.A., Februar 1989, S. 53-59 be
schrieben ist. Ein Beispiel eines geeigneten Beschleuni
gungssensors ist ein 50N1G-Beschleunigungsmesser von Analog
Devices. Analog Devices erzeugt darüber hinaus integrierte
BiCMOS-Bauelemente, die mit einem mikromechanischen Sensor
vereinigt sind, zum Bestimmen einer Geräterotation. Diese
Sensoren werden in fortgeschrittenen Kraftfahrzeugbremssy
stemen verwendet. Diese Sensoren werden von General Motors
vermarktet und sind in dem Artikel "Overview Of MEMS
Activities in The U.S." von C. H. Mastrangelo vom Center for
Integrated Sensors and Circuits, Department of Electrical
Engineering, Universität Michigan, Ann Arbor, Michigan,
48109 beschrieben. Der Artikel von Mastrangelo beschreibt
darüber hinaus alternative Ausführungsbeispiele von Bewe
gungssensoren, die optische Aktuatoren enthalten, welche
verwendet werden können, um die Bewegung einer Kamera zu be
stimmen. Durch Integration der Beschleunigung der Kamera
kann eine Geschwindigkeit bestimmt werden. Eine zweite Inte
gration der Geschwindigkeit erzeugt einen Weg der Kamera.
Diese Weginformationen können verwendet werden, um dann,
wenn das zweite Bild genommen wird, eine zweite Position 116
einer Kamera 104 in Bezug auf eine erste Position 112 und
die Orientierung der Kamera 104 zu bestimmen.
Die relativen Orientierungen und Positionen der Kamera,
die sowohl die erste Position 112 als auch die zweite Posi
tion 116 einschließen, werden entweder in einer Speicherein
richtung 132 in der Kamera aufgezeichnet, oder die Daten
können bei einem alternativen Ausführungsbeispiel in einem
externen Speicher, der mit der Kamera gekoppelt ist, gespei
chert werden. Einige Bewegungssensoren, wie beispielsweise
Sensoren, welche die Beschleunigung messen, können keine Po
sitionsdaten erzeugen. Bei diesen Ausführungsbeispielen wer
den die Daten, die die Bewegung der Kamera beschreiben, wie
beispielsweise die Beschleunigungsdaten, in einem Speicher
aufgezeichnet. Zu einem späteren Zeitpunkt verwendet ein
Prozessor die Bewegungsdaten, um Positionsdaten zu berech
nen. Die jeweiligen Bewegungs- oder Positions- und Orientie
rungsdaten sind so organisiert, daß eine Korrelation jedes
aufgezeichneten Bildes mit einer zugehörigen Position, wie
beispielsweise der ersten Position 112 oder zweiten Position
116, ermöglicht wird.
Jedes aufgezeichnete Bild kann auf einem fotografischen
Film oder, was vorzuziehen ist, unter Verwendung von elek
tronischen Sensoren 134 aufgezeichnet werden. Bei einem Aus
führungsbeispiel sind die elektronischen Sensoren Komplemen
tär-Metall-Oxid-Halbleiter(CMOS-Sensoren). Bei alternativen
Ausführungsbeispielen können das Licht erfassende Arrays la
dungsgekoppelter Bauelement (CCD) oder Photodioden verwendet
werden. Die von den elektronischen Sensoren ausgegebenen
elektronischen Bilder werden von einer zweiten Speicherein
richtung 136 gespeichert. Sofern das Bild von einem fotogra
fischen Film aufgezeichnet wurde, wird das Bild für die wei
tere Verarbeitung in eine elektronische Form konvertiert.
Die Konvertierung kann unter Verwendung eines Scanners oder
eines anderen Verfahrens zum Konvertieren chemischer Daten
oder von Lichtdaten in elektronische Daten ausgeführt wer
den. Derartige Scanner sind von verschiedenen Anbietern, wie
beispielsweise Hewlett Packard in Palo Alto, Kalifornien,
erhältlich. Das digitale Bild wird in der Speichereinrich
tung 136 gespeichert.
Um ein einziges dreidimensionales Bild aus den zwei Bil
dern eines Objekts zu erzeugen, liest die Verarbeitungsein
heit 140 die Bilder und die zugehörigen Positions- und Ori
entierungsinformationen und rekombiniert sie zu einem einzi
gen dreidimensionalen Bild. Die Verarbeitungseinheit 140
kann in einer Graphikprozessorkarte implementiert sein. Bei
einem anderen Ausführungsbeispiel ist der Prozessor ein all
gemeiner Mikroprozessor, der ein Programm ausführt, um Gra
phikverarbeitungsfunktionen zu handhaben. Verschiedene Ver
fahren zur Verarbeitung von zwei Bildern, um ein 3-D-Bild zu
erzeugen, sind beschrieben bei Masatoshi Okutomi und Takeo
Kanade, A Multiple-Baseline Stereo, IEEE Transactions on
Pattern Analysis and Machine Intelligence, Band 15, Nr. 4,
April 1993.
Fig. 2 veranschaulicht ein Ablaufdiagramm, das die
Schritte beschreibt, die verwendet werden, um ein 3-D-Bild
aus der Kamera gemäß Fig. 1 zu erzeugen. Im Schritt 204
setzt der Benutzer einen Kamerapositionsindikator zurück,
bevor das erste Bild aufgenommen wird. Das Rücksetzen des
Kamerapositionsindikator löscht vorzugsweise den Speicher
132, der die Ausgangssignale des Bewegungssensors speichert,
so daß das erste in einer Sequenz aufgezeichnete Bild sich
vorzugsweise bei einem Nullpunkt-Referenzrahmen befindet.
Die Kamera zeichnet ein Bild eines Objekts an dem Nullpunkt-
Referenzrahmen im Schritt 208 auf. Zu etwa derselben Zeit,
zu der das Aufzeichnen des ersten Bildes erfolgt, wird eine
zugehörige Position und Orientierung der Kamera im Speicher
132 aufgezeichnet. Bei der Kamera gemäß Fig. 1 erzeugt ein
CCD-Array das in dem zweiten Speicher 136 gemäß Fig. 1 ge
speicherte Bild.
Nachdem die Kamera das erste Bild und zugehörige Positi
ons- und Orientierungsinformationen aufgezeichnet hat, wird
die Kamera im Schritt 212 verschoben. Die Bewegung kann so
wohl eine seitliche Verschiebung 120 als auch eine Drehbewe
gung 124 umfassen. Die Kamera kann entweder durch eine Per
son oder durch eine motorgetriebene Einrichtung bewegt wer
den. Bei einem Ausführungsbeispiel wird die Kamera entlang
einer Spur bewegt, was die Rotationsbewegungen minimiert und
Kameraausführungsbeispiele ermöglicht, welche keine Kamera
orientierung messen. Während der Bewegung zeichnet ein Sen
sor, vorzugsweise ein MEMS-Sensor, die Bewegung und Rotation
der Einrichtung im Schritt 216 auf. Bei einem Ausführungs
beispiel der Erfindung zeichnet der MEMS-Sensor die Be
schleunigung auf und integriert die Beschleunigung, um eine
Verschiebung zu erzeugen. Die aufgezeichneten Beschleuni
gungs-, Rotations- oder Verschiebungsinformationen werden in
einer Speichereinrichtung gespeichert.
Wenn die Kamera eine zweite Position erreicht hat,
zeichnet die Kamera ein zweites Bild des Objekts auf. Wenn
das zweite Bild aufgezeichnet wird, verwendet die Kamera In
formationen aus dem Bewegungssensor und zeichnet eine Kame
raposition und -orientierung auf, die dem zweiten Bild ent
spricht. Die Positions- und Orientierungsinformationen wer
den in einer Positions- und Orientierungsspeichereinrichtung
132 gespeichert. Das zweite Bild und das erste Bild müssen
einen ausreichenden Grad der Objektüberlappung aufweisen, so
daß der Prozessor in der Lage ist, die sich überlappenden
Bereiche zu rekonstruieren und ein dreidimensionales Bild zu
erzeugen.
Die vorgenannte Sequenz der Schritte 204 bis 220 be
schrieb ein System, wie es bei einer Standbildkamera verwen
det wird. Es ist vorgesehen, daß ein MEMS- oder Bewegungs
sensor in einer Videokamera installiert werden kann und
viele Bilder aufgenommen werden, wenn sich die Kamera be
wegt. Jedes Bild entspricht einem Satz von Positionsdaten,
die aus durch die Bewegungssensoren aufgezeichneten Informa
tionen erzeugt werden. Diese Bilder können dann mit Nachbar
bildern rekonstruiert werden, um die Neu-Erzeugung einer
sich bewegenden 3-D-Graphik zu ermöglichen. Die bei der Re
konstruktion eines derartigen sich bewegenden Bildes be
schriebenen Techniken werden durch die wiederholten Itera
tionen der Schritte 204 bis 220 und einer Reihe von Rekon
struktionsschritten, die durch den Prozessor ausgeführt wer
den, durchgeführt. Im Schritt 224 werden die von dem Bewe
gungssensor erzeugten Positions- und Orientierungsinforma
tionen zusammen mit den zugehörigen aufgezeichneten Bildern
an einen Prozessor übertragen.
Fig. 3 ist ein Ablaufdiagramm, das die von dem Prozes
sor oder der Verarbeitungseinrichtung 140 durchgeführten
Schritte beschreibt, um ein dreidimensionales Bild aus den
zweidimensionalen Bildern und zugehörigen Positions- und
Orientierungsdaten zu rekonstruieren. Im Schritt 304 emp
fängt der Prozessor die Positions- und Orientierungsinforma
tionen und die zugehörigen Bilddaten aus der Kamera. Dann
bestimmt der Prozessor im Schritt 308 korrespondierende
Punkte in dem ersten und dem zweiten Bild. Korrespondierende
Punkte sind Punkte in verschiedenen Bildern oder Perspekti
ven, welche sich auf den gleichen Punkt auf einem Objekt be
ziehen. So ist ein korrespondierender Punkt ein Punkt oder
ein Pixel in dem ersten Bild, welcher bzw. welches einem
Punkt auf dem Objekt entspricht, und ein zweiter Punkt oder
ein zweites Pixel in dem zweiten Bild, welcher bzw. welches
demselben Punkt auf dem Objekt entspricht. Beispielsweise
kann die Nasenspitze einer Person ein korrespondierender
Punkt in sowohl einem ersten als auch einem zweiten Bild
sein. Bei einem Ausführungsbeispiel der Erfindung wird eine
Mustererkennungssoftware verwendet, um korrespondierende
Punkte zu bestimmen. Eine zweite einfachere Methode des Be
stimmens korrespondierender Punkte involviert einen Endbe
nutzer, welcher einen Punkt in dem ersten Bild auswählt, wo
bei er den ersten Punkt unter Verwendung einer Maus oder ei
ner anderen Zeigereinrichtung auswählt oder "anklickt", und
auf den zugehörigen Punkt in dem zweiten Bild "klickt" oder
diesen auswählt. Im Schritt 312 werden die ausgewählten kor
respondierenden Punkte und ihre x, y-Koordinaten in einer
Speichereinrichtung aufgezeichnet. Die Aufzeichnung ist ty
pischerweise eine zweidimensionale Aufzeichnung, da für je
den Punkt eine x- und y-Koordinate aufgezeichnet werden müs
sen.
Im Schritt 316 wird die Distanz von der Kamera zu einem
identifizierten Punkt auf dem Objekt bestimmt. Die Distanz
oder der Abstand kann bestimmt werden, weil die erste Kame
raposition, die zweite Kameraposition und der identifizierte
Bildpunkt ein Dreieck bilden. Eine Seite eines Dreiecks
stellt die Distanz dar, die sich die Kamera bewegte, oder
den Abstand zwischen der ersten Kameraposition und der zwei
ten Kameraposition, welche bzw. welcher bekannt ist. So ist
die Dimension einer Seite des Dreiecks bekannt. Darüber hin
aus erfaßt der Mikrosensor die Rotation der Kamera, während
sich die Kamera von der ersten Position zu der zweiten Posi
tion bewegte. Somit ist die Winkelverschiebung der Kamera in
Bezug auf den Objektpunkt ebenfalls bekannt. Unter Verwen
dung der Trigonometrie kann der Abstand zwischen jeder Kame
raposition und dem identifizierten Bildpunkt bestimmt wer
den, um eine z-Dimension zu erzeugen.
Im Schritt 320 erzeugt der Prozessor die dritte z-Dimen
sion. Die z-Dimension wird in Beziehung zu dem ausgewählten
Koordinatenrahmen gesetzt. Sobald ein kartesisches x, y-Koor
dinatensystem ausgewählt wird, ist die z-Dimension spezifi
ziert und typischerweise senkrecht zur Ebene des x, y-Koordi
natensystems. Die z-Koordinate kann unter Verwendung des Ab
stands vom Bildpunkt zur Kamera, der Kameraorientierung und
des ausgewählten Koordinatensystems bestimmt werden. Die
neuen x, y, z-Koordinaten für jedes korrespondierende Paar von
Koordinaten werden in einem Feld in der Speichereinrichtung
gespeichert, das den zugehörigen Punkten zugeordnet ist.
Die Schritte 316 und 320 werden für jedes Paar korre
spondierender Punkte in dem ersten und dem zweiten Bild wie
derholt. Nach jeder Verarbeitung eines Paars korrespondie
render Punkte bestimmt das System, ob die korrespondierenden
Punkte, die zuvor verarbeitet wurden, den letzten Satz kor
respondierender Punkte in einem Bild darstellen. Sofern es
weitere zu verarbeitende korrespondierende Punkte gibt,
kehrt das System zum Schritt 316 zurück. Wenn das System ei
nen vollständigen Satz von x, y, z-Koordinaten für jeden kor
respondierenden Punkt in einem Bild abgeschlossen hat, kann
der Prozessor ein Netz (Maschen) von Dreiecken aufbauen,
welche sich nicht überlappen und welche die Punkte sämtli
cher 3-D-Aufzeichnungen zu einer zweidimensionalen Oberflä
che im 3-D-Raum verbinden. Die Konstruktion der Netzdreiecke
kann unter Verwendung einer strukturierten Lösung des Anord
nens von Punkten auf einem regelmäßigen Raster ausgeführt
werden. Der Delaunai-Algorithmus kann ebenfalls verwendet
werden, um das Maschendreieck zu rekonstruieren. Der De
launai-Algorithmus ist im Stand der Technik gut bekannt und
wird somit in dieser Anmeldung nicht im Detail beschrieben.
Im Schritt 332 konstruiert der Prozessor eine Datenbank
aus den x, y, z-Datensätzen und dem Dreiecknetz, um das 3-D-
Bild zu beschreiben. Der Computer kann darüber hinaus Be
schreibungen der Oberfläche hinzufügen, so daß das Programm
simulieren kann, wie das Objekt aus verschiedenen Winkeln
aussieht. Bei einem Ausführungsbeispiel der Erfindung gibt
der Prozessor eine Beschreibung aus, wie beispielsweise eine
Virtuelle-Welt(WRL)-Datei, welche ein übliches Format für 3-
D-Daten im Internet ist. 3-D-Dateien zur Verwendung bei gra
phischen Betrachtungsprogrammen durch andere Anbieter können
ebenfalls verwendet werden, um die Bilder anzuzeigen. Ein
typisches 3-D-Betrachtungsprogramm ist "True Space" der
Calligri Company.
Der in dem Ablaufdiagramm gemäß Fig. 3 beschriebene
Prozeß gestattet es, daß ein dreidimensionales Bild aus zwei
Sätzen zweidimensionaler Daten erzeugt wird. Die zweidimen
sionalen Daten wurden durch eine Kamera erzeugt, welche ein
erstes Bild an einer ersten Position nahm. Bewegungssensoren
erfaßten die Bewegung und Rotation oder die Position der Ka
mera, als sich die Kamera zu einer zweiten Position bewegte,
an der ein zweites Bild aufgenommen wurde. Durch Verarbei
tung der Bild- und Positionsinformationen erzeugte ein Pro
zessor ein 3-D-Bild.
Das beschriebene System reduziert die Kosten, da weniger
Geräteausrüstung erforderlich ist. Insbesondere wird nur ein
Linsensystem benötigt. Ein einziges Linsensystem macht das
System weniger sperrig als bekannte 3-D-Bildgebungssysteme.
Schließlich ist das beschriebene System für Videokameras ge
eignet, bei welchen mehrere Bilder aufgenommen werden. Diese
mehreren Bilder könnten kombiniert werden, um eine 3-D-Bild
datenbank zu erzeugen. Das beschriebene System kann weiter
verfeinert werden, um die Bedienung zu vereinfachen und die
Datengewinnungskapazität der Kamera 104 zu verbessern. Fig.
4 ist ein Ablaufdiagramm, das ein Verfahren zum Unterstützen
eines Benutzers zum Verbessern der Datengewinnungskapazität
der Kamera 104 beschreibt. Im Schritt 404 nimmt die Kamera
ein erstes Bild eines Objekts von einem ersten Ort aus auf.
Im Schritt 408 mißt die Kamera die Distanz von dem Objekt zu
dem Kamera-"Sucher" und zeichnet sie auf. Die Kamera kann
dann damit fortfahren, optimale Kamerapositionen zu berech
nen, aus welchen nachfolgende Bilder aufgenommen werden sol
len. Es ist vorzuziehen, daß nachfolgende Bilder zur Erzeu
gung eines 3-D-Bildes aus etwa dem gleichen Abstand von ei
nem Objekt heraus aufgenommen werden. So würde eine Kamera
vorzugsweise einen etwa konstanten Abstand von einem Objekt
halten, wobei sie sich in einem Kreis um das Objekt herum
bewegt.
Es können eine Reihe von Techniken verwendet werden, um
den Abstand der Kamera von dem Objekt zu bestimmen, die eine
Einrichtung zur automatischen Entfernungsmessung einschlie
ßen. Eine derartige Einrichtung zur automatischen Entfer
nungsmessung kann Bildsensordaten, Infrarotsignale oder
Schallsignale benutzen, um den Abstand der Kamera von dem
Objekt zu bestimmen. Bei einem automatischen Entfernungsmeß-
Schallsignal-System emitiert ein Sender in der Kamera einen
Schallimpuls. Ein Empfänger in der Kamera erfaßt die Refle
xion des Schallimpulses von dem Objekt. Die Zeitdifferenz
zwischen der Emission des Impulses bis zum Empfang der
Schallimpulsreflexion wird verwendet, um den Abstand des Ob
jekts von der Kamera zu bestimmen.
Im Schritt 412 beginnt die Kamera eine Bildaufnahmese
quenz. Orientierungsmessungen werden vorgenommen, um die
Orientierung der Kamera zu bestimmen. Vorzugsweise wird die
Orientierung der Kamera so aufrechterhalten, daß die Linse
stets dem Objekt zugewandt ist.
Im Schritt 416 fordert die Kamera den Benutzer auf, sich
zu bewegen. Bei einem Ausführungsbeispiel können die Auffor
derungen in Form von in dem Kamerasucher angezeigten Pfeilen
gegeben werden. Die Pfeile fordern einen Benutzer auf, die
Kamera in eine bestimmte Richtung zu bewegen oder die Kamera
in eine bestimmte Orientierung zu drehen. Die Pfeile können
unter Verwendung einer Flüssigkristallanzeige (LCD) ange
zeigt werden. Eine automatische Entfernungsmeßeinrichtung
kann verwendet werden, um Signale an einen Prozessor bereit
zustellen. Der Prozessor steuert die Anzeige, um Signale
auszugeben, die den Benutzer auffordern, einen näherungswei
se konstanten Abstand zu dem abgebildeten Objekt zu halten.
Bei einem alternativen Ausführungsbeispiel kann ein Ton-
oder Sprachsignal verwendet werden, um dem Benutzer mitzu
teilen, daß er die Kamera in eine bestimmte Richtung bewegen
oder die Kamera in eine bestimmte Orientierung drehen soll.
Im Schritt 420 bestimmt die Kamera, ob sich die Kamera
innerhalb eines Toleranzabstands von einer optimalen Positi
on befindet. Wenn die Kamera nicht innerhalb des Toleranzab
stands gegenüber der optimalen Position ist, kehrt die Kame
ra zum Schritt 416 zurück, in dem sie den Benutzer auffor
dert, mit dem Einstellen der Kameraposition fortzufahren.
Sofern im Schritt 420 festgestellt wird, daß sich die Kamera
innerhalb des Toleranzabstands befindet, zeichnet die Kamera
ein zweites oder nachfolgendes Bild des Objekts im Schritt
424 auf.
Im Schritt 428 bestimmt die Kamera, ob sämtliche für ei
ne Datenbank erforderlichen Bilder aufgezeichnet worden
sind. Die Anzahl der benötigten Bilder wird durch die Anzahl
der gewünschten Perspektiven des Objekts und die gewünschten
Details des endgültigen 3-D-Bildes bestimmt. Wenn weitere
Bilder erforderlich sind, kehrt die Kamera zum Schritt 416
zurück, um den Benutzer aufzufordern, sich zu einer nachfol
genden Position zur Aufzeichnung eines nachfolgenden Bildes
zu bewegen. Wenn im Schritt 428 festgestellt wird, daß eine
ausreichende Anzahl von Bildern aufgezeichnet worden ist,
ist die Kamera fertig und ein 3-D-Bild kann rekonstruiert
werden.
Während bestimmte Ausführungsbeispiele im Detail be
schrieben und in den begleitenden Zeichnungen gezeigt wur
den, ist es klar, daß diese Ausführungsbeispiele die breite
Erfindung nur veranschaulichen und nicht einschränken sol
len, und daß diese Erfindung nicht auf die gezeigten und be
schriebenen speziellen Anordnungen und Konstruktionen einge
schränkt ist, da verschiedene andere Modifikationen Fachleu
ten in den Sinn kommen können.
Claims (18)
1. System zum Erzeugen eines dreidimensionalen Bildes,
aufweisend:
eine Bildaufnahmeeinrichtung, die so konfiguriert ist, daß sie ein erstes Bild eines Objekts an einem ersten Ort und ein zweites Bild des Objekts an einem zweiten Ort auf zeichnet;
Sensoren zum Erfassen der Orientierung der Bildaufnahmeeinrichtung am ersten und am zweiten Ort und zum Erfassen der Bewegung der Bildaufnahmeeinrichtung von dem ersten Ort zu dem zweiten Ort und Mittel zum Aufzeichnen der Orientierungsdaten und der Verschiebungsdaten, die die Be wegung der Bildaufnahmeeinrichtung wiedergeben und Daten ei ner seitlichen Verschiebung einschließen; und
einen Prozessor, der so konfiguriert ist, daß er korre spondierende Punkte in dem ersten Bild und dem zweiten Bild auswählt, die demselben Punkt auf dem Objekt entsprechen, und ein dreidimensionales Bild des Objekts durch Kombinieren des ersten Bilds und des zweiten Bilds unter Verwendung der korrespondierenden Punkte und der Verschiebungsdaten er zeugt.
eine Bildaufnahmeeinrichtung, die so konfiguriert ist, daß sie ein erstes Bild eines Objekts an einem ersten Ort und ein zweites Bild des Objekts an einem zweiten Ort auf zeichnet;
Sensoren zum Erfassen der Orientierung der Bildaufnahmeeinrichtung am ersten und am zweiten Ort und zum Erfassen der Bewegung der Bildaufnahmeeinrichtung von dem ersten Ort zu dem zweiten Ort und Mittel zum Aufzeichnen der Orientierungsdaten und der Verschiebungsdaten, die die Be wegung der Bildaufnahmeeinrichtung wiedergeben und Daten ei ner seitlichen Verschiebung einschließen; und
einen Prozessor, der so konfiguriert ist, daß er korre spondierende Punkte in dem ersten Bild und dem zweiten Bild auswählt, die demselben Punkt auf dem Objekt entsprechen, und ein dreidimensionales Bild des Objekts durch Kombinieren des ersten Bilds und des zweiten Bilds unter Verwendung der korrespondierenden Punkte und der Verschiebungsdaten er zeugt.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß
der Bewegungssensor ein MEMS-Sensor ist.
3. System nach Anspruch 1, dadurch gekennzeichnet, daß
der Bewegungssensor ein Globalpositionssystemsensor ist.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß
der Bewegungssensor ein Laser-Gyrometer ist.
5. System nach Anspruch 1, dadurch gekennzeichnet, daß
die Bildaufnahmeeinrichtung ferner aufweist:
ein Linsensystem; und
ein Array von elektronischen Sensoren zum Erzeugen eines elektronischen Bildes.
ein Linsensystem; und
ein Array von elektronischen Sensoren zum Erzeugen eines elektronischen Bildes.
6. System nach Anspruch 5, dadurch gekennzeichnet, daß
die elektronischen Sensoren Teil eines Arrays ladungsgekop
pelter Bauelemente sind.
7. System nach Anspruch 5, dadurch gekennzeichnet, daß
die elektronischen Sensoren Teil eines Komplementär-Metall-
Oxid-Halbleiter-Sensors sind.
8. System nach Anspruch 1, dadurch gekennzeichnet, daß
die Bildaufnahmeeinrichtung eine Videokamera ist.
9. Verfahren zum Erzeugen eines dreidimensionalen Bil
des, umfassend:
Aufzeichnen eines ersten Bildes eines Objekts unter Ver wendung einer Bildaufnahmeeinrichtung an einem ersten Ort;
Bewegen der Bildaufnahmeeinrichtung zu einem zweiten Ort;
Erfassen der Bewegung der Bildaufnahmeeinrichtung und Aufzeichnen der Bewegungsdaten, die eine seitliche Verschiebung einschließen und ausreichend sind, um die Position und Orientierung der Bildaufnahmeeinrichtung an dem zweiten Ort in Bezug zur Position und Orientierung an dem ersten Ort zu bestimmen; wobei die Verschiebungsdaten Daten der seitlichen Verschiebung einschließen;
Aufzeichnen eines zweiten Bildes unter Verwendung der Bildaufnahmeeinrichtung an dem zweiten Ort;
Auswählen korrespondierender Punkte in dem ersten Bild und dem zweiten Bild, die demselben Punkt auf dem Objekt entsprechen; und
Kombinieren des ersten Bildes und des zweiten Bildes un ter Verwendung der korrespondierenden Punkte und der Ver schiebungsdaten, um ein dreidimensionales Bild zu erzeugen.
Aufzeichnen eines ersten Bildes eines Objekts unter Ver wendung einer Bildaufnahmeeinrichtung an einem ersten Ort;
Bewegen der Bildaufnahmeeinrichtung zu einem zweiten Ort;
Erfassen der Bewegung der Bildaufnahmeeinrichtung und Aufzeichnen der Bewegungsdaten, die eine seitliche Verschiebung einschließen und ausreichend sind, um die Position und Orientierung der Bildaufnahmeeinrichtung an dem zweiten Ort in Bezug zur Position und Orientierung an dem ersten Ort zu bestimmen; wobei die Verschiebungsdaten Daten der seitlichen Verschiebung einschließen;
Aufzeichnen eines zweiten Bildes unter Verwendung der Bildaufnahmeeinrichtung an dem zweiten Ort;
Auswählen korrespondierender Punkte in dem ersten Bild und dem zweiten Bild, die demselben Punkt auf dem Objekt entsprechen; und
Kombinieren des ersten Bildes und des zweiten Bildes un ter Verwendung der korrespondierenden Punkte und der Ver schiebungsdaten, um ein dreidimensionales Bild zu erzeugen.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß beim Erzeugen des dreidimensionalen Bildes eine z-Dimen
sion für jeden der korrespondierenden Punkte berechnet wird.
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß beim Aufzeichnen der Daten, die ausreichend sind, um den
ersten Ort und einen zweiten Ort nach der Bewegung zu defi
nieren, eine Beschleunigung erfaßt wird; und die Beschleuni
gung und die Zeitdauer der Beschleunigung aufgezeichnet wer
den, um es einem Prozessor zu ermöglichen, einen Weg zu be
rechnen.
12. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß beim Aufzeichnen der Daten, die ausreichend sind, um den
ersten Ort und einen zweiten Ort nach der Bewegung zu defi
nieren, eine Position unter Verwendung eines Globalpositio
nierungssystemsensors bestimmt wird.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet,
daß ein Netz von Dreiecken erzeugt wird, um eine dreidimen
sionale Oberfläche zu simulieren.
14. Verfahren zum Erzeugen eines dreidimensionalen Bil
des nach Anspruch 9, dadurch gekennzeichnet,
daß die Bildaufnahmeeinrichtung eine Kamera ist,
daß beim Aufzeichnen des ersten Bildes ein erster Ab stand des Objekts von der Kamera gemessen wird,
daß nach dem Aufzeichnen des ersten Bildes ein Benutzer der Kamera aufgefordert wird, die Kamera zu dem zweiten Ort zu bewegen, der sich in einem zweiten Abstand von dem Objekt befindet, wobei der zweite Ort sich an einer aus dem ersten Abstand berechneten optimalen Kameraposition befindet, und
daß der Benutzer nach dem Aufzeichnen des zweiten Bildes aufgefordert wird, die korrespondierenden Punkte auszuwäh len.
daß die Bildaufnahmeeinrichtung eine Kamera ist,
daß beim Aufzeichnen des ersten Bildes ein erster Ab stand des Objekts von der Kamera gemessen wird,
daß nach dem Aufzeichnen des ersten Bildes ein Benutzer der Kamera aufgefordert wird, die Kamera zu dem zweiten Ort zu bewegen, der sich in einem zweiten Abstand von dem Objekt befindet, wobei der zweite Ort sich an einer aus dem ersten Abstand berechneten optimalen Kameraposition befindet, und
daß der Benutzer nach dem Aufzeichnen des zweiten Bildes aufgefordert wird, die korrespondierenden Punkte auszuwäh len.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet,
daß der zweite Ort etwa den gleichen Abstand von dem Objekt
hat wie der erste Ort.
16. Das Verfahren nach Anspruch 14, dadurch gekennzeich
net, daß beim Auffordern des Benutzers, die Kamera zu dem
zweiten Ort zu bewegen, der Benutzer aufgefordert wird, die
Kamera in eine bestimmte Richtung zu bewegen, oder er aufge
fordert wird, die Kamera in eine bestimmte Orientierung zu
bewegen.
17. Verfahren nach Anspruch 14, dadurch gekennzeichnet,
daß nach dem Bewegen der Kamera bestimmt wird, ob sich die
Kamera innerhalb eines Toleranzabstands von der optimalen
Kameraposition befindet.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet,
daß dann, wenn sich die Kamera nicht innerhalb des Toleranz
abstands befindet, der Benutzer aufgefordert wird, mit dem
Einstellen der Kameraposition fortzufahren.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/003,389 US6094215A (en) | 1998-01-06 | 1998-01-06 | Method of determining relative camera orientation position to create 3-D visual images |
PCT/US1998/027794 WO1999035855A1 (en) | 1998-01-06 | 1998-12-29 | Method of determining relative camera orientation position to create 3-d visual images |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19882939T1 DE19882939T1 (de) | 2001-01-18 |
DE19882939C2 true DE19882939C2 (de) | 2003-09-04 |
Family
ID=21705638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19882939T Expired - Fee Related DE19882939C2 (de) | 1998-01-06 | 1998-12-29 | Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen |
Country Status (9)
Country | Link |
---|---|
US (1) | US6094215A (de) |
JP (1) | JP4340005B2 (de) |
KR (1) | KR100380819B1 (de) |
AU (1) | AU2098299A (de) |
DE (1) | DE19882939C2 (de) |
GB (1) | GB2348561B (de) |
MY (1) | MY133013A (de) |
TW (1) | TW371725B (de) |
WO (1) | WO1999035855A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018109828B4 (de) | 2018-04-05 | 2022-02-17 | Sick Ag | Vorrichtung zur Bestimmung eines Abstandes zu einem Objekt in einem Raum |
Families Citing this family (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11265249A (ja) * | 1998-03-17 | 1999-09-28 | Toshiba Corp | 情報入力装置および情報入力方法および記録媒体 |
JP4193290B2 (ja) * | 1999-06-29 | 2008-12-10 | コニカミノルタホールディングス株式会社 | 多眼式データ入力装置 |
US6747666B2 (en) | 2000-01-26 | 2004-06-08 | New York University | Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data |
US6697573B1 (en) * | 2000-03-15 | 2004-02-24 | Imax Corporation | Hybrid stereoscopic motion picture camera with film and digital sensor |
KR100908989B1 (ko) * | 2000-04-04 | 2009-07-22 | 소니 가부시끼 가이샤 | 입체 화상 작성 방법 및 그 장치 |
JP3433204B2 (ja) * | 2000-04-27 | 2003-08-04 | 株式会社東北テクノアーチ | 3次元モデル構成装置 |
JP2002010297A (ja) * | 2000-06-26 | 2002-01-11 | Topcon Corp | ステレオ画像撮影システム |
LU90675B1 (de) * | 2000-11-10 | 2002-05-13 | Iee Sarl | Verfahren zum Steuern von Geraeten |
US8085293B2 (en) * | 2001-03-14 | 2011-12-27 | Koninklijke Philips Electronics N.V. | Self adjusting stereo camera system |
US7101045B2 (en) * | 2001-03-23 | 2006-09-05 | Panavision Inc. | Automatic pan and tilt compensation system for a camera support structure |
US6820980B1 (en) * | 2001-03-23 | 2004-11-23 | Panavision, Inc. | Automatic pan and tilt compensation system for a camera support structure |
US6781618B2 (en) * | 2001-08-06 | 2004-08-24 | Mitsubishi Electric Research Laboratories, Inc. | Hand-held 3D vision system |
US6747686B1 (en) * | 2001-10-05 | 2004-06-08 | Recon/Optical, Inc. | High aspect stereoscopic mode camera and method |
US7466336B2 (en) * | 2002-09-05 | 2008-12-16 | Eastman Kodak Company | Camera and method for composing multi-perspective images |
JP2004104576A (ja) * | 2002-09-11 | 2004-04-02 | Mitsubishi Heavy Ind Ltd | 作業用ウェアラブル装置、遠隔作業指示装置、遠隔作業指示方法および遠隔作業指示プログラム |
US20040070675A1 (en) * | 2002-10-11 | 2004-04-15 | Eastman Kodak Company | System and method of processing a digital image for intuitive viewing |
US7424133B2 (en) * | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
US20040174434A1 (en) * | 2002-12-18 | 2004-09-09 | Walker Jay S. | Systems and methods for suggesting meta-information to a camera user |
US7265790B2 (en) * | 2003-07-07 | 2007-09-04 | Hewlett-Packard Development Company, L.P. | System and method for setting an image capture device to an operational mode |
DE10336736B4 (de) * | 2003-08-11 | 2005-07-21 | Siemens Ag | Vorrichtung und Methode zur Aufnahme von Bildinformationen zum Erstellen eines dreidimensionalen Bildes |
DE10394295T5 (de) * | 2003-10-31 | 2012-02-09 | Fujitsu Ltd. | Entfernungsberechnungsvorrichtung und Berechnungsprogramm |
AU2004311841B2 (en) | 2003-12-24 | 2008-10-09 | Walker Digital, Llc | Method and apparatus for automatically capturing and managing images |
JP4800591B2 (ja) * | 2004-05-26 | 2011-10-26 | オリンパス株式会社 | 撮影システム |
EP1613082A1 (de) * | 2004-06-30 | 2006-01-04 | Sony Ericsson Mobile Communications AB | Gesichtsbildkorrektur |
US7697748B2 (en) * | 2004-07-06 | 2010-04-13 | Dimsdale Engineering, Llc | Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range |
US7236235B2 (en) * | 2004-07-06 | 2007-06-26 | Dimsdale Engineering, Llc | System and method for determining range in 3D imaging systems |
US20060164509A1 (en) * | 2004-12-14 | 2006-07-27 | Andrew Marshall | Stereo camera/viewer |
US20070116457A1 (en) * | 2005-11-22 | 2007-05-24 | Peter Ljung | Method for obtaining enhanced photography and device therefor |
JP4783620B2 (ja) | 2005-11-24 | 2011-09-28 | 株式会社トプコン | 3次元データ作成方法及び3次元データ作成装置 |
KR100670816B1 (ko) * | 2005-12-09 | 2007-01-19 | 한국전자통신연구원 | 3차원공간정보를 이용한 영상취득카메라의 설치위치 결정장치 및 방법 |
US7728906B2 (en) | 2006-01-04 | 2010-06-01 | Apple Inc. | Embedded camera with privacy filter |
KR100813057B1 (ko) * | 2006-02-14 | 2008-03-14 | 엘지전자 주식회사 | 입체 영상 제작장치 및 그 방법 |
JP4958497B2 (ja) * | 2006-08-07 | 2012-06-20 | キヤノン株式会社 | 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体 |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US8593518B2 (en) * | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
US8520079B2 (en) * | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
JP2008235971A (ja) * | 2007-03-16 | 2008-10-02 | Nec Corp | 撮像装置、及び、撮像装置における立体的形状撮影方法 |
US9262818B2 (en) | 2007-05-01 | 2016-02-16 | Pictometry International Corp. | System for detecting image abnormalities |
US8385672B2 (en) | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
DE102007054088A1 (de) * | 2007-11-13 | 2009-05-20 | Daimler Ag | Verfahren und Vorrichtung zur Bildverarbeitung insbesondere Bildmessung |
US8531472B2 (en) | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
CN101459857B (zh) * | 2007-12-10 | 2012-09-05 | 华为终端有限公司 | 通信终端 |
US7961224B2 (en) * | 2008-01-25 | 2011-06-14 | Peter N. Cheimets | Photon counting imaging system |
TW200937109A (en) * | 2008-02-22 | 2009-09-01 | Asia Optical Co Inc | Image pickup methods and image pickup systems |
US8737721B2 (en) | 2008-05-07 | 2014-05-27 | Microsoft Corporation | Procedural authoring |
US8204299B2 (en) * | 2008-06-12 | 2012-06-19 | Microsoft Corporation | 3D content aggregation built into devices |
CN101610360A (zh) * | 2008-06-19 | 2009-12-23 | 鸿富锦精密工业(深圳)有限公司 | 自动追踪声源的摄像装置 |
US8588547B2 (en) | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US8294766B2 (en) | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
KR100986918B1 (ko) * | 2009-03-24 | 2010-10-08 | 아주대학교산학협력단 | 비전센서 자동 배치장치 및 방법 |
TWI397758B (zh) * | 2009-05-08 | 2013-06-01 | Asia Optical Co | 導引控制系統及應用其的視訊設備 |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
WO2010142929A1 (en) * | 2009-06-11 | 2010-12-16 | Toshiba Research Europe Limited | 3d image generation |
US20100316282A1 (en) * | 2009-06-16 | 2010-12-16 | Hope Clinton B | Derivation of 3D information from single camera and movement sensors |
WO2011014419A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
JP4664427B2 (ja) * | 2009-09-16 | 2011-04-06 | 富士通株式会社 | 距離算出装置 |
US9330494B2 (en) | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US20110141225A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Based on Low-Res Images |
US10080006B2 (en) | 2009-12-11 | 2018-09-18 | Fotonation Limited | Stereoscopic (3D) panorama creation on handheld device |
US8294748B2 (en) * | 2009-12-11 | 2012-10-23 | DigitalOptics Corporation Europe Limited | Panorama imaging using a blending map |
US20110141224A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama Imaging Using Lo-Res Images |
US20120019614A1 (en) * | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
US20110141226A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama imaging based on a lo-res map |
US20110141229A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama imaging using super-resolution |
JP4911230B2 (ja) * | 2010-02-01 | 2012-04-04 | カシオ計算機株式会社 | 撮影装置、並びに制御プログラム及び制御方法 |
US20110304706A1 (en) * | 2010-06-09 | 2011-12-15 | Border John N | Video camera providing videos with perceived depth |
US20110304693A1 (en) * | 2010-06-09 | 2011-12-15 | Border John N | Forming video with perceived depth |
CN102959943B (zh) * | 2010-06-24 | 2016-03-30 | 富士胶片株式会社 | 立体全景图像合成装置和方法、以及图像捕获装置 |
US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US9344701B2 (en) | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
KR20120011653A (ko) | 2010-07-29 | 2012-02-08 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8676498B2 (en) | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US9118833B2 (en) | 2010-11-29 | 2015-08-25 | Fotonation Limited | Portrait image synthesis from multiple images captured on a handheld device |
US8823732B2 (en) | 2010-12-17 | 2014-09-02 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
JP2012134675A (ja) * | 2010-12-20 | 2012-07-12 | Samsung Yokohama Research Institute Co Ltd | 撮像装置、撮像方法 |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
CN102645834A (zh) * | 2011-02-22 | 2012-08-22 | 国基电子(上海)有限公司 | 具有照相功能的电子装置及方法 |
JP5701124B2 (ja) * | 2011-03-29 | 2015-04-15 | 京セラ株式会社 | 携帯電子機器 |
US8203605B1 (en) | 2011-05-11 | 2012-06-19 | Google Inc. | Point-of-view object selection |
US9088714B2 (en) | 2011-05-17 | 2015-07-21 | Apple Inc. | Intelligent image blending for panoramic photography |
US8600194B2 (en) | 2011-05-17 | 2013-12-03 | Apple Inc. | Positional sensor-assisted image registration for panoramic photography |
US8957944B2 (en) | 2011-05-17 | 2015-02-17 | Apple Inc. | Positional sensor-assisted motion filtering for panoramic photography |
US9762794B2 (en) | 2011-05-17 | 2017-09-12 | Apple Inc. | Positional sensor-assisted perspective correction for panoramic photography |
US9247133B2 (en) | 2011-06-01 | 2016-01-26 | Apple Inc. | Image registration using sliding registration windows |
MX339356B (es) | 2011-06-10 | 2016-05-17 | Pictometry Int Corp | Sistema y metodo para formar una secuencia de video que contiene datos de gis en tiempo real. |
US8928737B2 (en) * | 2011-07-26 | 2015-01-06 | Indiana University Research And Technology Corp. | System and method for three dimensional imaging |
CN102957856A (zh) * | 2011-08-30 | 2013-03-06 | 鸿富锦精密工业(深圳)有限公司 | 相机拍摄控制方法及系统 |
US9230501B1 (en) | 2012-01-06 | 2016-01-05 | Google Inc. | Device control utilizing optical flow |
US8867015B2 (en) | 2012-01-11 | 2014-10-21 | Apple Inc. | Displays with liquid crystal shutters |
US9639959B2 (en) | 2012-01-26 | 2017-05-02 | Qualcomm Incorporated | Mobile device configured to compute 3D models based on motion sensor data |
US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
CN102645836A (zh) * | 2012-04-20 | 2012-08-22 | 中兴通讯股份有限公司 | 一种照片拍摄方法及电子设备 |
US10306140B2 (en) | 2012-06-06 | 2019-05-28 | Apple Inc. | Motion adaptive image slice selection |
US8902335B2 (en) | 2012-06-06 | 2014-12-02 | Apple Inc. | Image blending operations |
US9098922B2 (en) | 2012-06-06 | 2015-08-04 | Apple Inc. | Adaptive image blending operations |
US9654762B2 (en) * | 2012-10-01 | 2017-05-16 | Samsung Electronics Co., Ltd. | Apparatus and method for stereoscopic video with motion sensors |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
JP6192938B2 (ja) * | 2013-01-15 | 2017-09-06 | 株式会社東芝 | 三次元合成処理システムおよび三次元合成処理方法 |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
WO2014139079A1 (en) | 2013-03-11 | 2014-09-18 | Carestream Health, Inc. | A method and system for three-dimensional imaging |
US10278584B2 (en) | 2013-03-11 | 2019-05-07 | Carestream Dental Technology Topco Limited | Method and system for three-dimensional imaging |
US9881163B2 (en) | 2013-03-12 | 2018-01-30 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9244272B2 (en) | 2013-03-12 | 2016-01-26 | Pictometry International Corp. | Lidar system producing multiple scan paths and method of making and using same |
US9275080B2 (en) | 2013-03-15 | 2016-03-01 | Pictometry International Corp. | System and method for early access to captured images |
US9753950B2 (en) | 2013-03-15 | 2017-09-05 | Pictometry International Corp. | Virtual property reporting for automatic structure detection |
US10148929B2 (en) * | 2013-04-15 | 2018-12-04 | Htc Corporation | Method of prompting proper rotation angle for image depth establishing |
US9832378B2 (en) | 2013-06-06 | 2017-11-28 | Apple Inc. | Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure |
US10063837B2 (en) * | 2013-07-25 | 2018-08-28 | TIREAUDIT.COM, Inc. | System and method for analysis of surface features |
CH709003B1 (de) * | 2013-12-18 | 2017-06-15 | Kaba Ag | Distanzbestimmung aus Bildern mit Referenzobjekt. |
EP3092625B1 (de) | 2014-01-10 | 2018-06-27 | Pictometry International Corp. | System und verfahren zur strukturbeurteilung mittels eines unbemannten luftfahrzeugs |
US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
CA2938973A1 (en) | 2014-02-08 | 2015-08-13 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
JP6222345B2 (ja) * | 2014-03-20 | 2017-11-01 | 日本電気株式会社 | Pos端末装置、posシステム、画像処理方法及びプログラム |
CA3014353A1 (en) | 2016-02-15 | 2017-08-24 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
US11472234B2 (en) | 2016-03-04 | 2022-10-18 | TIREAUDIT.COM, Inc. | Mesh registration system and method for diagnosing tread wear |
US10789773B2 (en) | 2016-03-04 | 2020-09-29 | TIREAUDIT.COM, Inc. | Mesh registration system and method for diagnosing tread wear |
CN106123863B (zh) * | 2016-06-12 | 2021-06-18 | 首都师范大学 | 一种基于双全景的摄影测量方法 |
US10742878B2 (en) * | 2016-06-21 | 2020-08-11 | Symbol Technologies, Llc | Stereo camera device with improved depth resolution |
CN107063129B (zh) * | 2017-05-25 | 2019-06-07 | 西安知象光电科技有限公司 | 一种阵列式并行激光投影三维扫描方法 |
US11138452B2 (en) | 2019-10-08 | 2021-10-05 | Ford Global Technologies, Llc | Vehicle neural network training |
DE102021119481A1 (de) | 2021-07-27 | 2023-02-02 | Karl Storz Se & Co. Kg | Messverfahren und eine Messvorrichtung |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4138196A (en) * | 1977-07-06 | 1979-02-06 | The United States Of America As Represented By The Secretary Of The Army | Fiber interferometer rotary motion sensor |
US4754327A (en) * | 1987-03-20 | 1988-06-28 | Honeywell, Inc. | Single sensor three dimensional imaging |
US4807024A (en) * | 1987-06-08 | 1989-02-21 | The University Of South Carolina | Three-dimensional display methods and apparatus |
US4895431A (en) * | 1986-11-13 | 1990-01-23 | Olympus Optical Co., Ltd. | Method of processing endoscopic images |
DE3833584A1 (de) * | 1988-10-03 | 1990-04-05 | Alf Neustadt | Stereoschiene |
US5267042A (en) * | 1991-01-11 | 1993-11-30 | Pioneer Electronic Corporation | Image pickup device for automatically recording the location where an image is recorded |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4727471A (en) * | 1985-08-29 | 1988-02-23 | The Board Of Governors For Higher Education, State Of Rhode Island And Providence | Miniature lightweight digital camera for robotic vision system applications |
US4815819A (en) * | 1987-04-30 | 1989-03-28 | Christopher A. Mayhew | Method for obtaining images for use in displaying a three-dimensional illusion and related image recording medium |
JPH0749937B2 (ja) * | 1988-03-22 | 1995-05-31 | 工業技術院長 | 形状測定方法 |
JP3021556B2 (ja) * | 1990-06-20 | 2000-03-15 | ソニー株式会社 | 映像情報処理装置とその方法 |
JP2559939B2 (ja) * | 1992-01-20 | 1996-12-04 | 日本電信電話株式会社 | 3次元情報入力装置 |
US5283640A (en) * | 1992-01-31 | 1994-02-01 | Tilton Homer B | Three dimensional television camera system based on a spatial depth signal and receiver system therefor |
JPH0575735U (ja) * | 1992-03-19 | 1993-10-15 | 旭光学工業株式会社 | 液晶表示装置 |
US5448322A (en) * | 1993-11-05 | 1995-09-05 | Vision Iii Imaging, Inc. | Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture |
JPH07222202A (ja) * | 1994-02-02 | 1995-08-18 | Rohm Co Ltd | 立体ビジョンカメラ |
US5659195A (en) * | 1995-06-08 | 1997-08-19 | The Regents Of The University Of California | CMOS integrated microsensor with a precision measurement circuit |
JPH09119819A (ja) * | 1995-10-24 | 1997-05-06 | Olympus Optical Co Ltd | 三次元情報再構成装置 |
JPH09187037A (ja) * | 1995-12-27 | 1997-07-15 | Canon Inc | 画像処理装置 |
-
1998
- 1998-01-06 US US09/003,389 patent/US6094215A/en not_active Expired - Lifetime
- 1998-12-29 DE DE19882939T patent/DE19882939C2/de not_active Expired - Fee Related
- 1998-12-29 JP JP2000528106A patent/JP4340005B2/ja not_active Expired - Lifetime
- 1998-12-29 AU AU20982/99A patent/AU2098299A/en not_active Abandoned
- 1998-12-29 GB GB0014678A patent/GB2348561B/en not_active Expired - Fee Related
- 1998-12-29 KR KR10-2000-7007498A patent/KR100380819B1/ko not_active IP Right Cessation
- 1998-12-29 WO PCT/US1998/027794 patent/WO1999035855A1/en active IP Right Grant
-
1999
- 1999-01-05 MY MYPI99000026A patent/MY133013A/en unknown
- 1999-03-16 TW TW088100129A patent/TW371725B/zh not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4138196A (en) * | 1977-07-06 | 1979-02-06 | The United States Of America As Represented By The Secretary Of The Army | Fiber interferometer rotary motion sensor |
US4895431A (en) * | 1986-11-13 | 1990-01-23 | Olympus Optical Co., Ltd. | Method of processing endoscopic images |
US4754327A (en) * | 1987-03-20 | 1988-06-28 | Honeywell, Inc. | Single sensor three dimensional imaging |
US4807024A (en) * | 1987-06-08 | 1989-02-21 | The University Of South Carolina | Three-dimensional display methods and apparatus |
DE3833584A1 (de) * | 1988-10-03 | 1990-04-05 | Alf Neustadt | Stereoschiene |
US5267042A (en) * | 1991-01-11 | 1993-11-30 | Pioneer Electronic Corporation | Image pickup device for automatically recording the location where an image is recorded |
Non-Patent Citations (1)
Title |
---|
MASATOSDHI, O., TAKEO, K.: A Multiple-Baseline Stereo, In: IEEE Transactions on Pattern Analysis and Maschine Intelligence, Bd. 15, Nr. 4, April 1993, S. 353-363 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018109828B4 (de) | 2018-04-05 | 2022-02-17 | Sick Ag | Vorrichtung zur Bestimmung eines Abstandes zu einem Objekt in einem Raum |
Also Published As
Publication number | Publication date |
---|---|
GB2348561A (en) | 2000-10-04 |
AU2098299A (en) | 1999-07-26 |
MY133013A (en) | 2007-10-31 |
KR100380819B1 (ko) | 2003-04-18 |
GB2348561B (en) | 2002-05-22 |
TW371725B (en) | 1999-10-11 |
KR20010033919A (ko) | 2001-04-25 |
JP4340005B2 (ja) | 2009-10-07 |
DE19882939T1 (de) | 2001-01-18 |
US6094215A (en) | 2000-07-25 |
JP2002501349A (ja) | 2002-01-15 |
WO1999035855A1 (en) | 1999-07-15 |
GB0014678D0 (en) | 2000-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19882939C2 (de) | Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen | |
DE19983065B4 (de) | Verfahren und Einrichtung zum Erzeugen von Panoramaaufnahmen oder von Rundumbildern mit Hilfe einer mit einem Bewegungssensor ausgestatteten Kamera | |
DE102015011914B4 (de) | Konturlinienmessvorrichtung und Robotersystem | |
EP2101867B1 (de) | Sehhilfe mit dreidimensionaler bilderfassung | |
CN110462686B (zh) | 用于从场景获得深度信息的设备和方法 | |
DE69434657T2 (de) | System und Verfahren zur elektronischen Bildstabilisierung | |
DE112010002843T5 (de) | Oberflächenverfolgung auf Bildbasis | |
EP0797171B1 (de) | Verfahren und Gerät zur Bildverarbeitung | |
WO2017206999A1 (de) | Verfahren zur auswertung von bilddaten einer fahrzeugkamera | |
EP2400261A1 (de) | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche | |
EP2106527A2 (de) | Abbildungsverfahren, -vorrichtung und -system | |
EP2527784A1 (de) | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche | |
DE102006059549A1 (de) | Verfahren zur Interpolation von Positionsdaten, positionserkennender Sensor, und Vorrichtung zur Positionsmessung | |
DE102011103423A1 (de) | System und Verfahren für 3D-Videostabilisierung durch Verschmelzen von Ausrichtungssensormesswerten und Bildanordnungsabschätzungen | |
JPH09231373A (ja) | 三次元位置計測装置 | |
DE102016208056A1 (de) | Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug | |
WO2011009736A1 (de) | Generierung eines gesamtdatensatzes | |
KR20050043651A (ko) | X선 ct 촬영 방법 및 장치 | |
EP3539085B1 (de) | 3d-referenzierung | |
EP0141706B1 (de) | Verfahren und Vorrichtung zur Lagebestimmung eines Objektes in einer Beobachtungsstation | |
CN108961378B (zh) | 一种多目点云三维重建方法、装置及其设备 | |
JPH09138850A (ja) | 表面形状再構成装置 | |
CN113269857A (zh) | 坐标系关系获取方法及装置 | |
GB2370443A (en) | Method of prompting a user in recording a 3-D image. | |
DE102019209849B4 (de) | Verfahren und Steuergerät zur abstandsmessenden Bildverarbeitung für eine Stereokameraeinrichtung für ein Fahrzeug und Stereokamerasystem mit einer Stereokameraeinrichtung und einem Steuergerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8607 | Notification of search results after publication | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110701 |