DE19604977A1 - Three-dimensional measurement method for dynamic spatial regions - Google Patents

Three-dimensional measurement method for dynamic spatial regions

Info

Publication number
DE19604977A1
DE19604977A1 DE1996104977 DE19604977A DE19604977A1 DE 19604977 A1 DE19604977 A1 DE 19604977A1 DE 1996104977 DE1996104977 DE 1996104977 DE 19604977 A DE19604977 A DE 19604977A DE 19604977 A1 DE19604977 A1 DE 19604977A1
Authority
DE
Germany
Prior art keywords
spatial
image
signal pattern
images
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1996104977
Other languages
German (de)
Inventor
Walter Prof Dr Ing Ameling
Lothar Dipl Ing Thieling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ameling Walter Prof Dr-Ing 52080 Aachen De
Thieling Lothar Dipl-Ing Eynatten Be
Original Assignee
Ameling Walter Prof Dr-Ing 52080 Aachen De
Thieling Lothar Dipl-Ing Eynatten Be
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ameling Walter Prof Dr-Ing 52080 Aachen De, Thieling Lothar Dipl-Ing Eynatten Be filed Critical Ameling Walter Prof Dr-Ing 52080 Aachen De
Priority to DE1996104977 priority Critical patent/DE19604977A1/en
Publication of DE19604977A1 publication Critical patent/DE19604977A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Abstract

The method involves calibrating an image acquisition device and sources of signal pattern generation to a common spatial coordinate system. A simultaneous set of images from several devices or a single image can be used. The sources perform central projection so that all theoretically possible significant points generated by a point on the signal pattern lie on a spatial line. The acquisition device operates by projection e.g. central. The sources are arranged so that each significant point image is accurately associated with a spatial line and with a significant point. In an alignment phase the global coordinates of all theoretically possible and relevant points are placed in a table indexed by the entered image positions. The spatial position coordinates are determined during a measurement phase from the image positions by reading the corresponding table entries.

Description

Technisches GebietTechnical field

Die Erfindung betrifft ein Verfahren zur schnellen Vermessung von dynamischen Raumbereichen. Hierzu wird im Betriebszustand der zu vermessende Raumbereich mit einem strukturierten Signalmuster beaufschlagt, so daß durch die Strukturen des Signalmusters markante Raumpunkte hervorgehoben werden. Von einem oder mehreren Bildaufnehmern werden Bilder des mit dem Signalmuster beaufschlagten Raumbereiches zeitgleich generiert und in eine rechnerverarbeitbare Form gebracht.The invention relates to a method for the rapid measurement of dynamic room areas. For this purpose, the to measuring area with a structured signal pattern acted upon so that by the structures of the signal pattern distinctive spatial points are highlighted. One or more Image recorders become images of the with the signal pattern area at the same time generated and in one computer-processable form.

Durch die Nutzung der a priori bekannten Menge aller möglichen durch die Signalmusterquelle generierten, markanten Raumpunkte können wesentliche durchzuführende Rechenschritte vorab in einer Einrichtphase durchgeführt und deren Ergebnisse in Tabellen festgehalten werden.By using the a priori known set of all possible distinctive spatial points generated by the signal pattern source can perform essential calculation steps in advance in a Setup phase carried out and their results in tables be held.

In der Vermessungsphase werden die Positionen (eingenommene Bildpositionen) der Abbilder der markanten Raumpunkte in den generierten Bildern berechnet und durch Auslesen der durch die eingenommenen Bildpositionen bestimmten Tabelleneintrage eine schnelle Berechnung der Raumkoordinaten der markanten Raumpunkte durchgeführt.In the measurement phase, the positions (taken Image positions) of the images of the distinctive spatial points in the generated images and calculated by reading the by the image positions taken determine certain table entries quick calculation of the spatial coordinates of the distinctive spatial points carried out.

In einer Ausführungsform des Verfahrens werden a priori die Weltkoordinaten aller möglichen markanten Raumpunkte berechnet und in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt. In der Vermessungsphase werden die tatsächlich vorliegenden eingenommenen Bildpositionen berechnet und die Weltkoordinaten der markanten Raumpunkte durch Auslesen der entsprechenden Tabelleneinträge ermittelt.In one embodiment of the method, the World coordinates of all possible distinctive spatial points are calculated and in an indexed by the image positions taken Filed table. In the measurement phase, they actually become existing image positions taken and the World coordinates of the distinctive spatial points by reading out the corresponding table entries determined.

Zur Berechnung der Raumpunkte reicht ein zeitgleich gewonnener Satz von Bildern mehrerer Bildaufnehmer, mindestens jedoch ein Bild eines Bildaufnehmers, so daß bei einer genügend kurzen Dauer für die Bilderzeugung (z. B. unter Verwendung einer CCD-Kamera mit einer Belichtungszeit von 1/16000 Sekunden) auch sich in ihrem geometrischen Aufbau schnell verändernde Raumbereiche vermessen werden können.For the calculation of the spatial points, one obtained at the same time is sufficient Set of images from multiple imagers, but at least one Image of an image sensor, so that the duration is short enough  for image generation (e.g. using a CCD camera with an exposure time of 1/16000 seconds) Geometric structure of rapidly changing areas can be.

Typische Anwendungsbereiche des Verfahrens sind: Die schnelle Vermessung vom gefertigten Teilen zwecks Qualitätskontrolle, die Ermittlung des geometrischen Aufbaus von Raumbereichen zwecks Kollisionsvermeidung von Handhabungsgeräten, die Ermittlung der Lage und Orientierung bzw. der Identifikation von Bauteilen oder Baugruppen zwecks Montage durch Handhabungssysteme. Typical areas of application of the process are: The fast Measurement of the manufactured parts for quality control Determination of the geometric structure of room areas for the purpose Collision avoidance of handling devices, the determination of the Location and orientation or the identification of components or Assemblies for assembly by handling systems.  

Zugrundeliegender Stand der TechnikUnderlying state of the art

Grundsätzlich können anhand der zur dreidimensionalen Vermessung verwendeten physikalischen Prinzipien drei auf verschiedenen Meßprinzipien basierende existierende Verfahrensansätze unterschieden werden:Basically, you can use the for three-dimensional measurement used physical principles three on different Existing method approaches based on measuring principles a distinction is made between:

  • - Radarverfahren- radar method
  • - Interferometrische Verfahren- Interferometric methods
  • - Triangulationsverfahren- triangulation method

Im weiteren soll kurz das wesentliche dieser Verfahrensansätze sowie verschiedene Implementierungen dargestellt werden.The essence of these procedural approaches is briefly described below and various implementations are shown.

Die Radarverfahren basieren auf der Aussendung elektromagnetischer Wellen und Auswertung der an den Objekten entstehenden Reflexionen. Eine Radaranordnung besteht aus einem Sender zur gerichteten Aussendung von Wellen und einem sich am Ort des Senders befindlichen Empfänger zur Messung der aus der Senderichtung zurückgeworfenen Reflexionen wobei sich aus der Zeitdauer zwischen Aussendung und Empfang eines Signals die Entfernung des reflektierenden Objektes zum Empfänger bzw. Sender ergibt. Die Erfassung weiträumiger Bereiche geschieht durch Variieren der Senderichtung mittels einer mechanischen Scan- Vorrichtung. Eine zeitgleiche Erfassung des gesamten zu vermessenden Raumbereiches ist somit nicht möglich. In [LEWI77], [JARV83], [HEIK86], [BANI87] [MORI89] werden Implementierungen dieses Verfahrensansatzes vorgestellt bei denen das Sendesignal gepulst ist. Die in in [PERC87], [MILL87], [BING87] [NITZ77], [ZUK83], [SAMP87], [SVET84] [BOUL86], [WEHR89] dargestellten Implementierungen arbeiten mit amplitudenmodulierten und die in [HERS87] und [BEHE86] aufgeführten Implementierungen mit frequenzmodulierten Sendesignalen.The radar methods are based on the transmission electromagnetic waves and evaluation of the objects emerging reflections. A radar arrangement consists of a Transmitter for the directed transmission of waves and one on Location of the transmitter located receiver for measuring the from the Reflections reflected in the direction of transmission Time between sending and receiving a signal Distance of the reflecting object to the receiver or transmitter results. Large areas are captured by Vary the transmission direction using a mechanical scan Contraption. A simultaneous recording of the whole too measuring area is not possible. In [LEWI77], [JARV83], [HEIK86], [BANI87] [MORI89] become implementations presented this method approach in which the transmission signal is pulsed. The in [PERC87], [MILL87], [BING87] [NITZ77], [ZUK83], [SAMP87], [SVET84] [BOUL86], [WEHR89] Implementations work with amplitude modulated and in [HERS87] and [BEHE86] listed implementations with frequency-modulated transmission signals.

Interferometrische Verfahren gewinnen räumliche Informationen unter Ausnutzung der Überlagerungserscheinungen von Wellen. Hierzu wird der Effekt der Schwebung ausgenutzt, der bei der Überlagerung zweier annähernd gleichfrequenter periodischer Signale auftritt. Hinsichtlich der Art der periodischen Signale, die zur Tiefendatengewinnung überlagert werden ergeben sich grundsätzlich zwei verschiedene Varianten:Interferometric methods gain spatial information taking advantage of the superposition of waves. For this purpose, the effect of the beat is used, which in the Superimposition of two periodicals with approximately the same frequency Signals occurs. Regarding the type of periodic signals, that are superimposed for the acquisition of depth data result basically two different variants:

  • - Moir´-Verfahren mit der Überlagerung räumlich modulierter Signale- Moir´ method with the superposition of spatially modulated Signals
  • - Holographische Verfahren mit der Überlagerung phasenverschobener kohärenter Lichtwellen- Holographic methods with overlay out-of-phase coherent light waves

Entscheidend für die Bewertung dieser Varianten ist die Tatsache, daß der vermeßbare Raumbereich in seiner Ausdehnung in Richtung der Tiefenmessung nur wenige Wellenlängen der verwendeten periodischen Signale beträgt.The decisive factor for the evaluation of these variants is the fact that the avoidable room area in its direction the depth measurement only a few wavelengths of the used periodic signals.

Das Prinzip der Moir´-Verfahren ist die Auswertung der sich aus der Überlagerung zweier räumlich amplitudenmodulierter Signale ergebenden Schwebung. Bei den Moir´-Verfahren wird die zu vermessende Szene mittels eines Projektors durch ein Gitter hindurch beleuchtet und von einer sich vor dem Gitter befindlichen CCD-Kamera betrachtet. Hierbei interferiert das aufprojizierte Lichtmuster mit dem Muster des Gitters.The principle of the Moir´ method is the evaluation of itself the superimposition of two spatially amplitude-modulated signals resulting beat. With the Moir´ process this becomes surveying scene using a projector through a grid lit through and by one in front of the grille considered CCD camera. This interferes with this projected light pattern with the pattern of the grid.

Implementierungen finden sich in [KHEA75], [REID86], [SHAR90], [SEIB90], [KURZ90], [ZAWI90], [SRIN85], [BOEH86], [HACH93].Implementations can be found in [KHEA75], [REID86], [SHAR90], [SEIB90], [SHORT90], [ZAWI90], [SRIN85], [BOEH86], [HACH93].

Im Gegensatz zu den Moir´-Verfahren, die auf der Interferenz von Lichtmustern basieren, nutzen die holographischen Verfahren die Überlagerungseigenschaften kohärenter Lichtwellen. Die zu vermessende Szene wird mit kohärenten Lichtwellen beleuchtet, die nach passieren eines Halbspiegels sowohl an einem Referenzobjekt (Referenzwellen) als auch an dem zu vermessenden Objekt (Objektwellen) reflektieren und als weiterhin kohärente Lichtwellen in der Beobachtungsebene interferieren. Das dabei entstehende Muster ergibt sich aus den jeweiligen Phasendifferenzen zwischen den Objekt- und Referenzwellen, so daß hieraus die Tiefeninformationen gewonnen werden können.In contrast to the Moir´ method, which is based on the interference of Based on light patterns, the holographic processes use the Superimposition properties of coherent light waves. The too surveying scene is illuminated with coherent light waves that after passing a half mirror on both a reference object (Reference waves) as well as on the object to be measured (Object waves) reflect and continue to be coherent Interfering light waves in the observation plane. That included resulting patterns result from the respective Phase differences between the object and reference waves, see above that the depth information can be obtained from this.

Implementierungen dieser Verfahren finden sich in [OKAD90], [SAM90], [TIZI87], [PANT86], [SASA86], [DAND85], [HERC90], [HOEL91], [TOZE85], [wUER85].Implementations of these methods can be found in [OKAD90], [SAM90], [TIZI87], [PANT86], [SASA86], [DAND85], [HERC90], [HOEL91], [TOZE85], [wUER85].

Triangulationsverfahren basieren auf einem geometrischen Ansatz, bei dem durch Auswertung von bekannten Abständen und Winkeln unter Ausnutzung der fundamentalen Zusammenhänge zwischen den Seiten und Winkeln eines Dreiecks Raumpunkte vermessen werden. Die verschiedenen Varianten können nach der Art der verwendeten Systemkomponenten wie folgt unterschieden werden:Triangulation methods are based on a geometric approach, by evaluating known distances and angles taking advantage of the fundamental relationships between the Sides and angles of a triangle are measured. The different variants can be used according to the type System components can be distinguished as follows:

  • - Laser-Scan-Verfahren,- laser scanning method,
  • - Lichtschnittverfahren,- light section method,
  • - Stereoskopische Verfahren.- Stereoscopic procedures.

Laser-Scan-Verfahren führen eine mittels eines Lasers erzeugte punktförmige Beleuchtung über den zu vermessenden Raumbereich wobei die Reflexion des Beleuchtungspunktes mittels eines lichtempfindlichen Positionsdetektors ermittelt und daraus der Ort des Lichtpunktes bestimmt wird. Implementierungen dieser Variante finden sich in [RIOU93], [HARD86], [RIOU84], [JUHA87], [BICK85], [CYBE87], [LORE86], [SELC87], [PIPI83], [HARR90], [SEIT86], [GOTT87].Laser scan methods perform one generated by means of a laser point lighting over the area to be measured the reflection of the lighting point by means of a photosensitive position detector determined and from it the Location of the light point is determined. Implementations of this Variations can be found in [RIOU93], [HARD86], [RIOU84], [JUHA87], [BICK85], [CYBE87], [LORE86], [SELC87], [PIPI83], [HARR90], [PAGE86], [GOTT87].

Die Lichtschnittverfahren projizieren streifenförmige Lichtmuster in den zu vermessenden Raumbereich und erfassen die Reflexionen dieser Lichtsteifen mittels elektronischer Bildaufnehmer. Da die Bildaufnehmer stets nicht fluchtend zur Projektionsrichtung der Lichtstreifen ausgerichtet sind, erscheinen die Reflexionen der Lichtstreifen abhängig vom Tiefenverlauf des mit dem Lichtstreifen beaufschlagten Raumbereiches mehr oder weniger deformiert. Aus diesen Deformationen lassen sich unter Kenntnis der Lage und Orientierung vom Lichtstreifenprojektor und Bildaufnehmer die Raumkoordinaten der beaufschlagten Raumpunkte bestimmen. Die verschiedenen Realisierungen des Lichtschnittverfahrens unterscheiden sich in der Art der Erzeugung des Lichtstreifenmusters. So existieren Verfahren, die mittels einer Zylinderoptik einen Laserstrahl zu einer Lichtebene umformen [SILV86], [CYBE87], [OZEK86]. Die Erfassung der gesamten Szene erfolgt durch Auswertung mehrerer hintereinander gewonnener Aufnahmen. Hierbei wird durch Änderung der Projektionsrichtung der Lichtebene die Position des projizierten Lichtstreifens zwischen den Aufnahmen variiert. Die in [INOK84], [SATO84], [STAH90] vorgestellten implementierten Lichtschnittverfahren führen eine sequentielle Beleuchtung der Szenen mit unterschiedlichen binärkodierten Streifenmustern durch [INOK84], [SATO84], [STAH90]. Die Identifikation eines virtuellen Streifens wird hierbei an Hand der Helligkeitsfolge, die während der Beleuchtungssequenz durchlaufen wird, ermittelt.The light section processes project strip-shaped light patterns into the area to be measured and record the reflections this strip of light by means of electronic image recorders. Since the Image sensor always not aligned with the projection direction of the Light streaks are aligned, the reflections of the appear Streaks of light depending on the depth of the with Streaks of light in the exposed area more or less deformed. From these deformations can be known the position and orientation of the light stripe projector and Imager the spatial coordinates of the applied spatial points determine. The different realizations of the Light section methods differ in the type of Generation of the light stripe pattern. So there are procedures that a laser beam to a light plane using cylinder optics forming [SILV86], [CYBE87], [OZEK86]. Acquisition of the entire Scene takes place by evaluating several successive ones Recordings. This is done by changing the projection direction the light plane the position of the projected light strip varies between shots. The in [INOK84], [SATO84], [STAH90] presented implemented light section method carry sequential lighting of the scenes different binary-coded stripe patterns by [INOK84], [SATO84], [STAH90]. The identification of a virtual stripe is based on the sequence of brightness, which during the Illumination sequence is determined.

Im Gegensatz zu allen bisher aufgeführten Verfahren, die den zu vermessenden Raumbereich mit definierten Signalmustern beaufschlagen und deren Reflexionen mittels eines Sensors detektieren, benötigen die stereoskopischen Verfahren keine definierten Signalmuster sondern gewinnen die räumliche Information mittels zweier oder mehrerer passiver CCD-Kameras, die nur unter Ausnutzung der Umgebungsbeleuchtung Bilder von Szenen erzeugen. Auch hier wird nach dem Prinzip der Triangulation unter Voraussetzung bekannter Lagen und Orientierungen der verschiedenen Kameras zueinander die Raumpunktberechnung durchgeführt. Hierbei wird von der Tatsache Gebrauch gemacht, daß die Bildgenerierung der Kameras auf eine zentralprespektivische Projektion zurückgeführt werden kann.In contrast to all of the methods listed so far, which include the measuring area with defined signal patterns act and their reflections by means of a sensor  detect, the stereoscopic procedures do not need defined signal pattern but gain the spatial Information using two or more passive CCD cameras, which only takes pictures of ambient lighting Create scenes. Here too, the principle of Triangulation assuming known locations and Orientations of the different cameras to each other Space point calculation carried out. Here, the fact Made use of that the image generation of the cameras on a central perspective projection can be traced back.

Für die Raumpunktberechnung müssen in den verschiedenen Bildern korrespondierende Bildpunkte herangezogen werden. Das Auffinden solcher korrespondierenden Bildpunkte ist recht aufwendig und ggf. nicht eindeutig, so daß die Lösung dieses Korrespondenzproblems die Meßrate dieser Verfahren drastisch einschränkt.For the point calculation in the different pictures corresponding pixels are used. Finding such corresponding pixels is quite complex and possibly not clear, so the solution to this Correspondence problem the measurement rate of this method drastically restricted.

Da diese passiven Verfahren keine markanten Raumpunkte mittels Beleuchtung hervorheben sind sie auf das Vorhandensein von perse markanten Raumpunkten z. B. in Form von Objektecken oder -Kanten angewiesen. Strukturlose Objekte, wie z. B. eine einfarbige Kugeloberfläche können nicht vermessen werden.Since these passive methods do not use distinctive spatial points Highlight the lighting they are on the presence of perse striking spatial points z. B. in the form of object corners or edges reliant. Structureless objects, such as B. a solid color The spherical surface cannot be measured.

Implementierungen dieses Verfahrens finden sich in [SHAH89], [FÖHR90], [STEU88], [ZHAO91], [CHIO91], [AYAC88], [ITO86].Implementations of this method can be found in [SHAH89], [FÖHR90], [STEU88], [ZHAO91], [CHIO91], [AYAC88], [ITO86].

Ein Vergleich der verschiedenen Verfahrensansätze und deren oben aufgeführter Implementierungen kann an Hand der für den Einsatz eines Sensorsystems im industriellen Umfeld wesentlich relevanten technischen Leistungsmerkmale wieA comparison of the different process approaches and their above The implementations listed can be used for the of a sensor system that is significantly relevant in an industrial environment technical features such as

  • - die Genauigkeit der Messung und- the accuracy of the measurement and
  • - die Meßrate- the measuring rate
  • - Tiefenmeßbereich- depth measuring range

vorgenommen werden.be made.

Hierbei zeigt sich, daß die interferometrischen Verfahren, die eine Szenenauswertung nicht unter einer Sekunde erlauben, für Anforderungsprofile mit höchster Genauigkeit von bis zu unter zeitlich unkritischen Randbedingungen nur für Anwendungen mit geringem Tiefenmeßbereich prädestiniert sind. This shows that the interferometric method, the do not allow scene evaluation for less than one second for Requirement profiles with the highest accuracy of up to under temporally uncritical conditions only for applications are predestined with a small depth measurement range.  

Laserbasierte Triangulationsverfahren erreichen Genauigkeiten von bis zu 10-7m bei einer Szenenauswertung im Subsekundenbereich. Sie weisen jedoch aufgrund des verfahrensbedingten Abtastens der Szene Meßwerterfassungszeiten auf, die eine Auswertung dynamischer Vorgänge nur sehr bedingt zulassen.Laser-based triangulation processes achieve accuracies of up to 10 -7 m with scene analysis in the sub-second range. However, due to the process-related scanning of the scene, they have measured value acquisition times which only permit the evaluation of dynamic processes to a very limited extent.

Stereoskopische Triangulationsverfahren ermöglichen bei einer Genauigkeit von bis zu 10-4m eine Szenenauswertung in mehreren Sekunden, sind jedoch für die Vermessung strukturloser Objekte und Objektteile (z. B. Freiformflächen) nicht anwendbar.With an accuracy of up to 10 -4 m, stereoscopic triangulation methods enable a scene evaluation in several seconds, but are not applicable for the measurement of structureless objects and object parts (e.g. free-form surfaces).

Lichtschnittverfahren unter Verwendung von CCD-Kameras und flächendeckenden Lichtmustern erlauben eine Szenenauswertung mit mittlerer Genauigkeit (10-3m-10-4m) im Subsekundenbereich. Hierbei werden jedoch in zeitlicher Abfolge generierte Bilder der Szene benötigt, wodurch eine untere Grenze für die Meßwerterfassungszeit gegeben ist, so daß dynamische Vorgänge nur bedingt erfaßbar sind.Light section processes using CCD cameras and area-covering light patterns allow scene evaluation with medium accuracy (10 -3 m-10 -4 m) in the subsecond range. In this case, however, images of the scene generated in chronological order are required, as a result of which there is a lower limit for the measurement value acquisition time, so that dynamic processes can only be recorded to a limited extent.

Die für viele Anwendungfälle wünschenswerten Eigenschaften an eine Raumvermessung wie die MöglichkeitThe properties that are desirable for many applications a room measurement like the possibility

  • - der Vermessung dynamischer Raumbereiche bei großem Tiefenmeßbereich- the measurement of dynamic room areas in large Depth measurement range
  • - der schnellen Raumpunktberechnung durch konsequente Ausnutzung von a priori bekannten Gegebenheiten und- The fast spatial point calculation through consistent use of a priori known circumstances and
  • - die Vermessung auch strukturloser Raumbereiche- the measurement of even structureless areas of space

werden von dem hier vorgestellten Verfahren in einzigartiger Weise kombiniert. are unique in the process presented here Way combined.  

Offenbarung der ErfindungDisclosure of the invention

Der Erfindung liegt die Aufgabe zu Grunde Raumbereiche in deren geometrischem Aufbau schnell zu vermessen, insbesondere auch dann noch, wenn sich der geometrische Aufbau des Raumbereichs schnell verändert. Dies ist z. B. bei der Vermessung sich bewegender Objekte der Fall.The invention is based on the object in spatial areas to quickly measure the geometric structure, especially then still when the geometric structure of the room area changes quickly changed. This is e.g. B. moving in the measurement Objects the case.

Das Prinzip des Verfahrens gestaltet sich wie folgt:The principle of the procedure is as follows:

Das von einer Signalmusterquelle erzeugte Lichtmuster generiert markante Raumpunkte in der von einem Bildaufnehmer betrachteten Szene. Da die Signalmusterquelle projizierend arbeitet, liegen alle theoretisch möglichen durch einen Punkt (Dn) des Signalmusters generierbaren Raumpunkte (Rn1 bis Rnm) auf einer Raumgeraden (Ln).The light pattern generated by a signal pattern source is generated striking spatial points in the one viewed by an image sensor Scene. Since the signal pattern source works projecting, lie all theoretically possible by a point (Dn) of the Spatial points (Rn1 to Rnm) that can be generated on a signal pattern Space line (Ln).

Durch eine Kalibrierung des Bildaufnehmers wird ein mathematischer Zusammenhang ermittelt, mit dem sowohl aus den Weltkoordinaten eines Raumpunktes die Position seines Abbildes im Bild des Bildaufnehmers (eingenommene Bildposition Pnm) als auch aus der eingenommenen Bildposition (Pnm) die Projektionsgerade (Mnm) berechnet werden kann. Die Verfahren zur Kalibrierung sind bekannt [MEIS93].By calibrating the image sensor, a mathematical relationship with which both from the World coordinates of a point in space the position of its image in the Image of the image sensor (assumed image position Pnm) as well the projection line from the assumed image position (Pnm) (Mnm) can be calculated. The calibration procedures are known [MEIS93].

Durch eine Kalibrierung der Signalmusterquelle wird zu jedem Punkt des Signalmusters (D1 . . . Dn) die Raumgerade im Weltkoordinatensystem bestimmt, auf der alle markanten Raumpunkte liegen. Ein mögliches Verfahren zur Kalibrierung der Signalmusterquelle wird im Ausführungsbeispiel genannt. Das Ergebnis dieser Kalibrierung ist die Kenntnis der Lage und Orientierung der Raumgeraden im Weltkoordinatensystem und eine eindeutige Kennung (z. B. Numerierung) der Raumgeraden.Calibrating the signal pattern source turns everyone Point of the signal pattern (D1... Dn) the straight line in space World coordinate system determined on which all striking spatial points lie. A possible method for calibrating the Signal pattern source is mentioned in the exemplary embodiment. The The result of this calibration is knowledge of the location and Orientation of the space line in the world coordinate system and a unique identifier (e.g. numbering) of the space line.

Aufgrund des projizierenden Abbildungsverhaltens des Bildaufnehmers finden sich die Raumgeraden (Ln) als Gerade (Epipolarlinie En) in der Bildebene des Bildaufnehmers wieder.Due to the projecting mapping behavior of the The spatial straight lines (Ln) are found as a straight line (Epipolarlinie En) in the image plane of the image sensor again.

Die Epipolarlinien stellen somit alle theoretisch möglichen Abbilder der durch die Signalmusterquelle generierten markanten Raumpunkte dar. The epipolar lines thus represent all theoretically possible Images of the distinctive generated by the signal pattern source Points in space.  

Eine eindeutige Zuordnung einer Raumgeraden (Ln) zu einer eingenommenen Bildposition (Pnm) ist dann gegeben, wenn folgende Bedingungen erfüllt sind:An unambiguous assignment of a space line (Ln) to one Image position (Pnm) is given if the following Conditions are met:

  • - Zu einer eingenommenen Bildposition (Pnm) existiert genau eine Epipolarlinie (En).- Exactly one exists for an assumed picture position (Pnm) Epipolar line (s).
  • - Zu einer Epipolarlinie (En) existiert genau eine Raumgerade (Rn).- Exactly one space line exists for an epipolar line (En) (Rn).

Diese Bedingungen lassen sich, wie im Ausführungsbeispiel gezeigt, durch eine geeignete Wahl des Signalmusters und einer geeigneten relativen Lage und Position der Signalmusterquelle zum Bildaufnehmer theoretisch für eine beliebige Anzahl von Raumgeraden bzw. Epipolarlinien erfüllen. In der Praxis ist deren Anzahl jedoch durch das Auflösungsvermögen des Bildaufnehmers begrenzt.These conditions can be, as in the embodiment shown by a suitable choice of the signal pattern and a appropriate relative location and position of the signal pattern source to Image sensor theoretically for any number of Fulfill straight lines or epipolar lines. In practice it is However, the number depends on the resolution of the image sensor limited.

Sind die o.g. Bedingungen erfüllt, so kann durch Bestimmung der Zugehörigkeit einer eingenommenen Bildposition (Pnm) zur einer Epipolarlinie (En) die korrespondierende Raumgerade (Ln) ermittelt werden. Ist die Lage und Orientierung der Raumgerade im Weltkoordinatensystem bekannt, so kann der zur eingenommenen Bildposition (Pnm) korrespondierende markante Raumpunkt (Rnm), der den Schnittpunkt der Projektionsgeraden mit der Raumgeraden darstellt, berechnet werden.Are the above Conditions fulfilled, can be determined by determining the Belonging of an assumed image position (Pnm) to one Epipolar line (En) the corresponding space line (Ln) be determined. Is the position and orientation of the spatial straight line in the World coordinate system known, so that can be taken Image position (Pnm) corresponding prominent spatial point (Rnm), which is the intersection of the projection line with the space line represents are calculated.

Man kann somit eine Zuordnungsvorschrift ZL aufstellen, die einer eingenommenen Bildposition (Pnm) genau eine Raumgerade zuordnet (ZL: Pnm→Ln). Desweiteren läßt sich eine Zuordnungsvorschrift ZR aufstellen, die einer eingenommenen Bildposition (Pnm) genau einen markanten Raumpunkt (Rnm) und dem markanten Raumpunkt (Rnm) genau eine eingenommene Bildposition (Pnm) zuordnet (ZR: Pnm↔Rnm).One can therefore draw up an assignment rule ZL that one occupies exactly one space line (ZL: Pnm → Ln). Furthermore, an assignment rule ZR set up exactly the one that is in the picture position (Pnm) a prominent spatial point (Rnm) and the distinctive spatial point (Rnm) assigns exactly one occupied image position (Pnm) (ZR: Pnm↔Rnm).

Bei einer festen geometrischen Anordnung von Signalmusterquelle und Bildaufnehmer lassen sich a priori gemäß der Zuordnungsvorschriften ZR bzw. ZL drei durch die eingenommenen Bildpositionen indizierte Tabellen (ZR:Raumbelegungstabelle, ZL:Raumgeradentabelle und Korrespondenztabelle) erstellen. Die Raumbelegungstabelle enthält die Weltkoordinaten aller bei der entsprechenden geometrischen Anordnung theoretisch möglichen und sich im Sichtfeld des Bildaufnehmers befindlichen markanten Raumpunkte. Die Raumgeradentabelle enthält die Geradenparameter der den eingenommenen Bildpositionen jeweils zuordbaren Raumgeraden. Die Korrespondenztabelle enthält die den eingenommenen Bildpositionen jeweils zuordbaren für alle Bildaufnehmer gleichen und eindeutigen Kennungen (z. B. Nummern) der Raumgeraden.With a fixed geometric arrangement of the signal pattern source and image recorders can be a priori according to the Assignment rules ZR or ZL three by the adopted Image positions indexed tables (ZR: room occupancy table, ZL: Create straight line table and correspondence table). The Room occupancy table contains the world coordinates of all at the corresponding geometrical arrangement theoretically possible and prominent in the field of view of the image sensor Spatial points. The straight line table contains the straight line parameters  that can be assigned to each of the image positions taken Straight lines. The correspondence table contains the occupied image positions can be assigned to all Image recorders have the same and unique identifiers (e.g. numbers) the straight line.

Da die Anzahl der auf einer Epipolarlinie liegenden eingenommenen Bildpositionen unendlich ist, muß im Rahmen der Realisierung des Verfahrens eine sinnvolle Reduzierung der möglichen eingenommenen Bildpositionen erfolgen. So kann z. B. eine Diskretisierung der Epipolarlinien vorgenommen werden, die unterhalb der erreichbaren Auflösungsgenauigkeit des Bildaufnehmers liegt und somit nicht begrenzend auf die Meßgenauigkeit wirkt.Because the number of taken on an epipolar line Image positions is infinite, must be within the scope of the realization of the Procedure a reasonable reduction of the possible ingested Image positions are done. So z. B. discretization of Epipolar lines are made below the attainable Resolution accuracy of the image sensor is and therefore not has a limiting effect on the measuring accuracy.

In den Verfahren nach Anspruch 1, 2 und 3 wird in der Einrichtphase eine Kalibrierung der Bildaufnehmer und der Signalmusterquellen bezüglich eines Weltkoordinatensystems vorgenommen.In the method according to claim 1, 2 and 3 is in the Setup phase a calibration of the image sensor and the Signal pattern sources with respect to a world coordinate system performed.

In den Verfahren nach Anspruch 1 werden in der Einrichtphase gemäß der Zuordnungverschrift ZR für jede eingenommene Bildposition (Pnm) die Weltkoordinaten des korrespondierenden markanten Raumpunktes (Rnm) mittels bekannter Verfahren (z. B. Triangulation) berechnet und in einer durch die eingenommene Bildposition indizierten Tabelle (Raumbelegungstabelle) vermerkt. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Weltkoordinaten der vorliegenden markanten Raumpunkte (Rnm) bestimmt.In the method of claim 1 are in the setup phase according to the assignment heading ZR for every one taken Image position (Pnm) the world coordinates of the corresponding prominent spatial point (Rnm) using known methods (e.g. Triangulation) calculated and in one by the ingested Image position indexed table (room occupancy table) noted. In the measurement phase, after determining the present assumed image positions (Pnm) by reading the the world coordinates of the corresponding table entries present distinctive spatial points (Rnm) determined.

In den Verfahren nach Anspruch 2 wird in der Einrichtphase gemäß der Zuordnungverschrift ZL für jede eingenommene Bildposition (Pnm) die korrespondierenden Raumgerade (Rnm) in Form ihrer Geradenparameter ermittelt und in einer durch die eingenommene Bildposition indizierten Tabelle (Raumgeradentabelle) vermerkt. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Geradenparameter der korrespondierenden Raumgeraden (Rnm) ermittelt. Der Raumpunkt kann dann mittels bekannter Verfahren z. B. auf Basis der Triangulation, d. h. als Schnittpunkt der Raumgeraden (Rnm) mit der Projektionsgeraden (Mnm), berechnet werden. In the method according to claim 2 is in the set-up phase the assignment letter ZL for each picture position taken (Pnm) the corresponding space line (Rnm) in the form of their Line parameters determined and in one by the taken Image position indexed table (space line table) noted. In the measurement phase, after determining the present assumed image positions (Pnm) by reading the the line parameters of the corresponding table entries corresponding space line (Rnm) determined. The space point can then z. B. based on the Triangulation, d. H. as the intersection of the space line (Rnm) with the projection line (Mnm).  

In den Verfahren nach Anspruch 3 wird in der Einrichtphase gemäß der Zuordnungvorschrift ZL für jede eingenommene Bildposition (Pnm) die korrespondierenden Raumgerade (Rnm) in Form einer eindeutigen Raumgeradenkennung (z. B. Nummer) ermittelt und in einer durch die eingenommene Bildposition indizierten Tabelle (Korrespondenztabelle) vermerkt. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Raumgeradenkennungen ermittelt. Die Raumgeradenkennungen sind für alle Bildaufnehmer identisch und eindeutig, so daß durch diese Kennung korrespondierende eingenommene Bildpositionen in den Bildern mehrerer Bildaufnehmer bestimmt werden können und somit das allgemein als Korrespondenzproblem bekannte Problem gelöst wird. Die Berechnung der Raumpunkte anhand korrespondierender eingenommener Bildpositionen wird dann mit bekannten Verfahren durchgeführt.In the method according to claim 3 is in the set-up phase the assignment rule ZL for each image position taken (Pnm) the corresponding space line (Rnm) in the form of a unique space line identifier (e.g. number) determined and in a table indexed by the image position taken (Correspondence table) noted. Be in the survey phase after determining the available image positions (Pnm) by reading the corresponding table entries Space line identifiers determined. The space line identifiers are for all image recorders are identical and unambiguous, so that through this Identifier corresponding image positions taken in the Images of multiple image recorders can be determined and thus solved the problem commonly known as the correspondence problem becomes. The calculation of the spatial points based on corresponding Image positions are then taken using known methods carried out.

Da bei den Verfahren nach Anspruch 1 oder 2 der 3 die Vermessung des Raumbereiches anhand nur eines einzigen zeitgleich gewonnenen Satzes von Bildern mehrerer Bildaufnehmer bzw. eines Bildes eines Bildaufnehmers durchgeführt wird, kann die bildliche Erfassung des Raumbereiches von beliebig kurzer Dauer sein. Somit kann selbst von dynamische Szenen (z. B. sich bewegende Objekte) eine Momentaufnahme gemacht werden, so daß konsistente Vermessungsdaten garantiert sind. Eine Möglichkeit der kurzzeitigen bildlichen Erfassung des Raumbereiches wird im Ausführungsbeispiel gegeben. Since in the method according to claim 1 or 2 of 3, the measurement of the room area based on only one obtained at the same time Set of images of several image recorders or one image of one Image sensor is carried out, the image acquisition of the room area of any short duration. So can even of dynamic scenes (e.g. moving objects) Snapshots are made so that consistent Survey data are guaranteed. One way of short-term image capture of the room area is in Given embodiment.  

Erläuterung der ZeichnungenExplanation of the drawings

Fig. 1 zeigt die prinzipiellen technischen Zusammenhänge des Verfahrens bezüglich der Signalmuster (Dn), der Raumgeraden (Ln), der Raumpunkte (Rnm), der Projektionsgeraden (Mnm), der Epipolarlinien (En) und der eingenommenen Bildpositionen (Pnm) Fig. 1, the basic technical relationships shows the process with respect to the signal pattern (Dn), said spatial straight line (Ln) of the spatial points (Rnm), the projection line (Mnm), the epipolar lines (En) and the assumed image positions (Pnm)

Fig. 2 zeigt den prinzipiellen Sensoraufbau eines Ausführungsbeispiels des Verfahrens. Fig. 2 shows the basic sensor structure of an embodiment of the method.

Fig. 3 zeigt die prinzipielle Vorgehensweise des Verfahrens Fig. 3 shows the basic procedure of the method

Fig. 4 zeigt die geometrischen Zusammenhänge bei einer Ausführungsform der Kalibrierung der Signalmusterquelle durch Vermessung der Raumgeraden mittels zweier kalibrierter Kameras. FIG. 4 shows the geometric relationships in one embodiment of the calibration of the signal pattern source by measuring the straight line by means of two calibrated cameras.

Fig. 5 und Fig. 6 zeigen geometrischen Zusammenhänge zur Ableitung der geometrischen Randbedingungen für die Erzeugung paralleler und äquidistanter Epipolarlinien. Fig. 5 and Fig. 6 show geometrical relationships used to derive the geometric boundary conditions for the generation of parallel and equidistant epipolar lines.

Fig. 7 stellt für ein Ausführungsbeispiel das Signalmuster dar, das bei einem Winkel von 60° zwischen den Hauptachsen von Projektor und Kamera für die Erzeugung paralleler und äquidistanter Epipolarlinien benötigt wird. Fig. 7 for an exemplary embodiment illustrates the signal pattern that is required at an angle of 60 ° between the major axes of the projector and the camera for generating parallel and equidistant epipolar lines.

Ausführungsbeispiel der ErfindungEmbodiment of the invention Aufbau und KomponentenStructure and components

Fig. 2 stellt eine Ausführungsform der Erfindung dar, bei der ein Bildaufnehmer in Form einer CCD-Kamera und eine Signalmuster­ quelle in Form eines Projektors nach dem Funktionsprinzip des Diaprojektors zum Einsatz kommen. Die Lichtquelle des Projektors besteht aus einem Blitzlicht, das eine kurzzeitige Signalmusterbeaufschlagung ermöglicht. Als CCD-Kamera kommt eine asynchron shutterbare Kamera (z. B. PULNIX TM9700) zum Einsatz. Die asynchrone Bildaufnahme der Kamera wird auf ein Signal zur Auslösung des Blitzes synchronisiert. Hierdurch wird neben einer kurzzeitigen Bilderfassung auch die Anhebung des Lichtmusters gegenüber des Umgebungslichtes durchgeführt. Sowohl die Kamera als auch der Projektor werden zentralprojizierend angenommen. Das Signalmuster ist hierbei ein sichtbares Lichtmuster. Fig. 2 shows an embodiment of the invention in which an image sensor in the form of a CCD camera and a signal pattern source in the form of a projector according to the functional principle of the slide projector are used. The light source of the projector consists of a flash light, which enables a short-term exposure to the signal pattern. An asynchronous shutterable camera (e.g. PULNIX TM9700) is used as the CCD camera. The asynchronous image recording of the camera is synchronized with a signal to trigger the flash. As a result, in addition to a short-term image acquisition, the light pattern is also raised with respect to the ambient light. Both the camera and the projector are assumed to be centrally projecting. The signal pattern is a visible light pattern.

Aufbauend auf signaltheoretischen Modellen ([LENZ88], [NEGI87], [LI88], [CLAR93]) wird durch eine geeignete Wahl des verwendeten Lichtmusters in Form von Kreisflächen der Einfluß unerwünschter Eigenschaften des bildgebenden Systems auf die Genauigkeit des Verfahrens drastisch reduziert.Building on signal theory models ([LENZ88], [NEGI87], [LI88], [CLAR93]) is used by an appropriate choice of Light pattern in the form of circular areas the influence of unwanted Properties of the imaging system on the accuracy of the Process drastically reduced.

Der Projektor projiziert somit ellipsenförmige Flächen in den Raumbereich, die sich als ebenfalls ellipsenförmige Abbilder (Blobs) im Kamerabild widerspiegeln. Die eingenommenen Bildpositionen dieser Blobs als Schwerpunkt der elliptischen Flächen im Bild können subpixelgenau bestimmt werden. Neben dieser durch das gewählte Lichtmuster gegebenen Genauigkeitssteigerung ist die relativ einfache Berechnung der eingenommenen Bildpositionen (Schwerpunktsberechnung) im Hinblick auf eine hardwaremäßige Implementierung zwecks Steigerung der Auswerterate für die Wahl dieses Lichtmusters von entscheidender Bedeutung.The projector thus projects elliptical surfaces into the Spatial area, which are also elliptical images (Blobs) reflected in the camera image. The ingested Image positions of these blobs as the focus of the elliptical Areas in the image can be determined with sub-pixel accuracy. Next this is given by the selected light pattern Accuracy is the relatively simple calculation of the assumed image positions (focus calculation) with regard on a hardware implementation to increase the Evaluation rate crucial for the choice of this light pattern Meaning.

VerfahrensablaufProcess flow

Zur Realisierung des skizzierten Verfahrens müssen mehrere wesentliche Teilaufgaben bewältigt werden, deren Einbindung in das Verfahren durch die in Fig. 3 dargestellte Vorgehensweise bei der Aufstellung der Raumbelegungstabelle und der Vermessung von Raumpunkten verdeutlicht wird.In order to implement the sketched method, several essential subtasks have to be mastered, the integration of which into the method is illustrated by the procedure illustrated in FIG. 3 when setting up the room occupancy table and measuring room points.

Die Kalibrierung der Kamera wird wie in [MEIS93] beschrieben durchgeführt und liefert Abbildungsvorschriften, mit denen sowohl die zu einer Raumposition gehörende eingenommene Bildposition als auch die zu einer eingenommenen Bildposition gehörende Projektionsgerade (Fig. 2) bestimmt werden können. Das der Kalibrierung zu Grunde gelegte Kameramodell ist durch die Berücksichtigung nicht idealer Eigenschaften des optischen Systems und der Bildabtastung eine Erweiterung des oben vorausgesetzten idealen zentralperspektivischen Kameramodells und kann durch geeignete Transformationen in ein solches überführt werden.The calibration of the camera is carried out as described in [MEIS93] and provides imaging guidelines with which both the occupied image position belonging to a spatial position and the projection line belonging to an assumed image position ( FIG. 2) can be determined. By taking into account non-ideal properties of the optical system and image scanning, the camera model on which the calibration is based is an extension of the ideal central perspective camera model assumed above and can be converted into one by suitable transformations.

Die Vermessung der Raumgeraden wird unter Verwendung zweier kalibrierter Kameras durchgeführt, die auf Basis der Triangulation eine Berechnung von diskreten, auf den Raumgeraden liegenden Raumpunkten vornehmen. Hierzu wird wie in Fig. 4 dargestellt eine weiße Kalibrierebenen in verschiedenen Abständen zum Projektor in den Strahlengang des Projektors gebracht. In einem zweiten Schritt gehen die so ermittelten Raumpunkte dann als Stützstellen in die Ausgleichsrechnung zur Bestimmung der Raumgeraden ein.The measurement of the spatial straight line is carried out using two calibrated cameras, which use triangulation to calculate discrete spatial points lying on the spatial straight line. For this purpose, as shown in FIG. 4, a white calibration plane is brought into the beam path of the projector at different distances from the projector. In a second step, the spatial points determined in this way are then used as support points in the compensation calculation for determining the spatial straight line.

Bei der Zuordnung der Raumpunkte zu den Raumgeraden wird von zwei wesentlichen Randbedingungen Gebrauch gemacht:When assigning the spatial points to the spatial straight line, two of essential boundary conditions are used:

  • - Die Raumpunkte können, bedingt durch die näherungsweise äquidistanten Positionierungen der Kalibrierebene zum Projektor, in entsprechende Abstandsklassen A₁ . . . An aufgeteilt werden. Jede Abstandsklasse Ai enthält dabei mi Raumpunkte.- The spatial points can, due to the approximately equidistant positioning of the calibration plane to the projector, in corresponding distance classes A₁. . . A n can be divided. Each distance class A i contains m i space points.
  • - Idealerweise gehen alle Raumgeraden aufgrund der zentralperspektivischen Projektionseigenschaft des Projektors von dessen Projektionszentrum aus. Ein realer Projektor weist jedoch aufgrund der Linsenverzeichnung kein solches isoliertes Projektionszentrum auf. Es kann jedoch angenommen werden, daß alle Raumgeraden eine Toleranzkugel mit dem Durchmesser D um das vermeintliche Projektionszentrum als Mittelpunkt des optischen Linsensystems des Projektors schneiden.- Ideally all straight lines go due to the central perspective projection property of the projector from its projection center. A real projector points however, due to the lens distortion, no such isolated one Projection center on. However, it can be assumed that a tolerance sphere with a diameter D around all spatial straight lines the supposed projection center as the center of the optical projector lens system.

Ausgehend von einem Punkt Rin der höchsten Abstandsklasse An werden alle Kombinationen von Rin mit jedem Punkt Rj(n-1)(j=l . . . m(n-1)) der nächst tieferen Abstandsklasse betrachtet und dahingehend überprüft, ob die durch diese Raumpunktkombination bestimmte Raumgerade die Toleranzkugel schneidet (Fig. 4).Starting from a point R in the highest distance class A n , all combinations of R in with each point R j (n-1) (j = l... M (n-1) ) of the next lower distance class are considered and checked to determine whether whether the spatial straight line determined by this spatial point combination intersects the tolerance sphere ( FIG. 4).

Ist dies der Fall, so gehören die beiden Raumpunkte zu einer Raumgeraden. In diesem Fall wird für alle Raumpunkte der Abstandsklasse An-2 der Abstand zur Raumgeraden berechnet und der Raumpunkt mit dem kleinsten Abstand zur Raumgeraden ausgewählt. Dieser Raumpunkt wird als weitere Stützstelle zur Raumgeradenberechnung herangezogen. Schneidet die berechnete Raumgerade die Toleranzkugel, so wird ein Raumpunkt aus der nächst tieferen Abstandsklasse ausgewählt und als weitere Stützstelle mit in die Berechnungen aufgenommen. Ein solches iteratives Vorgehen bis zur Abstandsklasse A₁ liefert die endgültige Raumgerade.If this is the case, the two spatial points belong to a spatial straight line. In this case, the distance to the spatial straight line is calculated for all spatial points of distance class A n-2 and the spatial point with the smallest distance to the spatial straight line is selected. This point in space is used as a further support point for the calculation of the spatial straight line. If the calculated space line intersects the tolerance sphere, a space point from the next lower distance class is selected and included in the calculations as a further support point. Such an iterative approach up to the distance class A₁ provides the final straight line.

Den im Rahmen dieser Vorgehensweise benötigten Wert für D erhält man aus elementaren geometrischen Zusammenhängen. Wird die Kammerkonstante c des Projektors durch die Brennweite f des Objektives abgeschätzt, so ergibt sich bei bekanntem Abstand a benachbarter Diapositionen ein Richtwert für D gemäß folgender Gleichung:Receives the value for D required for this procedure one from elementary geometric connections. Will the Chamber constant c of the projector by the focal length f des If the objective is estimated, then with a known distance a Adjacent slide positions are a guideline for D according to the following Equation:

Hierbei beschreibt s den Abstand benachbarter Raumpunkte in der ersten Abstandsklasse. Die Raumpunkte befinden sich in einer Entfernung d₁ zum vermeintlichen Projektionszentrum (Mittelpunkt der Toleranzkugel), Δd ist der Abstand benachbarter Abstandsklassen.Here s describes the distance between neighboring spatial points in the first distance class. The spatial points are in one Distance d₁ to the supposed center of projection (center the tolerance ball), Δd is the distance between neighboring ones Distance classes.

Die Bestimmung der Epipolarlinien geschieht durch die Abbildung dieser Raumgeraden entsprechend der durch die Kalibrierung der Kamera erhaltenen Abbildungsvorschriften. Eine Reduzierung der einnehmbaren Bildpositionen ergibt sich durch die Diskretisierung der Epipolarlinien entsprechend dem Auflösungsvermögen der Kamera.The determination of the epipolar lines is done by the illustration this line of space corresponds to that by calibrating the Imagery obtained from camera. A reduction in ingestible image positions result from the discretization of the epipolar lines corresponding to the resolving power of the Camera.

Zur Berechnung der Raumbelegungstabelle werden die zu den diskreten eingenommenen Bildpositionen gehörenden Projektionsgeraden mit der korrespondierenden Raumgeraden geschnitten (Fig. 2). To calculate the room occupancy table, the projection lines belonging to the discrete image positions taken are intersected with the corresponding space line ( FIG. 2).

Die Vermessung der vom Lichtmuster generierten markanten Raumpunkte basiert auf der Bestimmung der eingenommenen diskreten Bildpositionen und Auslesen der durch diese eingenommenen Bildpositionen bestimmten Einträge in der Raumbelegungstabelle.The measurement of the striking generated by the light pattern Space points is based on the determination of the discrete taken Image positions and reading out the ones they occupy Image positions specific entries in the room occupancy table.

Geometrische Randbedingungen an den SenoraufbauGeometric boundary conditions on the sensor structure

Die Anzahl der vermeßbaren Raumpunkte ist durch die Anzahl der Epipolarlinien im Kamerabild, die eindeutig einer Raumgeraden zugeordnet werden können, begrenzt. Nur dann ist das Korrespondenzproblem lösbar und ein eindeutiger Zugriff auf die Raumbelegungstabelle gewährleistet. Aufgrund der fehlerbehafteten Bestimmung der Blobschwerpunkte liegen die ermittelten eingenommenen Bildpositionen i. allg. nicht exakt auf der Epipolarlinie, sondern vielmehr in einem Unsicherheitsbereich darüber oder darunter. Für die Funktionstüchtigkeit des Verfahrens muß sichergestellt sein, daßThe number of room points that can be avoided is determined by the number of Epipolar lines in the camera image that are clearly a space line can be assigned, limited. Only then is that Correspondence problem solvable and clear access to the Room occupancy table guaranteed. Because of the buggy Determination of the blob focal points are the determined occupied image positions i. generally not exactly on the Epipolar line, but rather in an area of uncertainty above or below. For the functionality of the The procedure must ensure that

  • - die Unsicherheitsbereiche der Epipolarlinien sich nicht überlagern.- The areas of uncertainty of the epipolar lines do not change overlay.

Möchte man die maximal mögliche Anzahl von Raumpunkten vermessen, so müssen die EpipolarlinienIf you want to measure the maximum possible number of space points, so the epipolar lines

  • - parallel verlaufen und- run parallel and
  • - äquidistant angeordnet sein- be arranged equidistant

Die Anzahl der vermeßbaren Raumpunkte ist dann lediglich durch die Größe der Unsicherheitsbereiche begrenzt. Die bei dieser idealen Anordnung zu beachtenden geometrischen Randbedingungen werden im folgenden detaillierter beschrieben.The number of room points that can be avoided is then only through limits the size of the areas of uncertainty. The one at this ideal arrangement of geometric boundary conditions to be observed are described in more detail below.

Die Parallelität der Epipolarlinien ist für solche Anordnungen immer erfüllt, bei denen sich das Projektionszentrum des Projektors in der Fluchtebene der Kamera befindet. Die Fluchtebene ist die Ebene, die das Projektionszentrum der Kamera enthält und parallel zur Bildebene der Kamera ausgerichtet ist. Unter der Annahme eines rein zentralperspektivischen Abbildungsverhaltens des Projektors stellt das Projektionszentrum den einzigen Schnittpunkt der Raumgeraden dar. Bei der gewählten Anordnung wird dieser Schnittpunkt nicht in die Bildebene der Kamera abgebildet. Die Epipolarlinien als Abbilder der Raumgeraden müssen somit zwangsweise parallel verlaufen. The parallelism of the epipolar lines is for such arrangements always met, where the projection center of the Projector is in the plane of alignment of the camera. The Escape plane is the plane that is the camera's projection center contains and is aligned parallel to the image plane of the camera. Assuming a purely central perspective The projection center represents the projection behavior of the projector is the only intersection of the spatial straight line. At the selected one This intersection is not in the image plane of the arrangement Pictured camera. The epipolar lines as images of the Straight lines must therefore necessarily run parallel.  

Diese geometrischen Randbedingungen hinsichtlich der Lage und Orientierung des Projektors zur Kamera ermöglichen zwar die Generierung parallel verlaufender Epipolarlinien, garantieren jedoch nicht deren äquidistante Anordnung.These geometric boundary conditions with regard to the location and Orientation of the projector towards the camera allows the Generation of parallel epipolar lines, guarantee but not their equidistant arrangement.

Für die Herleitung der für die äquidistante Anordnung der Epipolarlinien notwendigen geometrischen Randbedingungen werden zunächst die folgenden Betrachtungen vorausgesetzt, so daß die Hauptachsen von Kamera und Projektor in einer Ebene liegen und den Winkel Θ bilden (Fig. 2). Somit ergeben sich als Schnitt der räumlichen Anordnung von Kamera und Projektor in dieser Ebene die in Fig. 5 dargestellten geometrischen Zusammenhänge. Durch Erfüllung der oben genannten Randbedingungen sind parallele Epipolarlinien anzunehmen.For the derivation of the geometric boundary conditions necessary for the equidistant arrangement of the epipolar lines, the following considerations are first assumed so that the main axes of the camera and projector lie in one plane and form the angle Θ ( FIG. 2). Thus, as a section of the spatial arrangement of the camera and projector in this plane, the geometric relationships shown in FIG. 5 result. By fulfilling the boundary conditions mentioned above, parallel epipolar lines can be assumed.

Betrachtet man die unendlich ausgedehnte Bildebene E der Kamera, so ergibt sich als ein Bildpunkt einer mit der Hauptachse zusammenfallenden Raumgeraden L₁ deren Schnittpunkt A₁ mit der Bildebene. In dem zur Betrachtungsebene senkrechten Schnitt entlang der Raumgeraden L₁ finden sich aufgrund der untereinander mit dem Abstand b₁ im Dia angeordneten Diapositionen D₁, D₂, D₃, . . . weitere Raumgeraden L₂, L₃, . . . , die die Bildebene in den Punkten A₂, A₃, . . . schneiden. Der Abstand der zu den Raumgeraden gehörenden Epipolarlinien ist somit gleich dem Abstand b₂ dieser Schnittpunkte.If you look at the infinitely extended image plane E of the camera, so there arises as a picture element one with the main axis coinciding space line L₁ whose intersection A₁ with the Image plane. In the section perpendicular to the viewing plane along the straight line L₁ can be found due to each other with the distance b₁ in the slide arranged slide positions D₁, D₂, D₃,. . . further straight lines L₂, L₃,. . . that the image plane in points A₂, A₃,. . . to cut. The distance between those belonging to the straight lines Epipolar lines is thus equal to the distance b₂ of this Intersections.

Betrachtet man die Raumgerade L′₁, die mit der Hauptachse des Projektors den Winkel ϕ bildet, so ergibt sich bei gleichem Abstand b₁ der untereinander angeordneten Diapositionen ein gegenüber b₂ vergrößerter Abstand b′₂, der Epipolarlinien. Sollen unabhängig von der Diaposition alle Epipolarlinien äquidistant sein (b′₂=b₂), so muß abhängig vom Winkel ϕ der Abstand der untereinander angeordneten Diapositionen entsprechend folgender Gleichung auf den Wert bk korrigiert werden. Aufgrund der elementaren geometrischen Zusammenhänge ergibt sich bk wie folgt:If you consider the straight line L'₁, which forms the angle ϕ with the main axis of the projector, then at the same distance b₁ the mutually arranged slide positions results in a distance b′₂, the epipolar lines, which is larger than b₂. If all epipolar lines are to be equidistant regardless of the slide position (b'₂ = b₂), then depending on the angle ϕ the distance between the slide positions arranged one below the other must be corrected to the value b k according to the following equation. Due to the elementary geometric relationships, b k results as follows:

Man erhält somit ein Diamuster, das in Abhängigkeit von der Sensoranordnung (Θ, ϕ) für jede Spalte i einen entsprechenden vertikalen Abstand bki der Diapositionen vorsieht. Fig. 6 stellt ein Diamuster für Θ=60° dar. A diamond pattern is thus obtained which, depending on the sensor arrangement (Θ, ϕ), provides a corresponding vertical distance b ki of the slide positions for each column i. Fig. 6 shows a diamond for Θ = 60 °.

Für Θ=90° gilt bk=b₁, und man erhält ein Diamuster mit rechteckig angeordneten Diapositionen. Damit die Epipolarlinien nicht ineinanderfallen, muß als hinreichende Bedingung für äquidistante Epipolarlinien die bezüglich des Diamusters vertikale Gerade GH, mit der projizierten Verbindungsgeraden der Projektionszentren von Kamera und Projektor GKP einen geeigneten Winkel β bilden. Für Θ=90° sind die geometrischen Zusammenhänge in Fig. 7 dargestellt.For Θ = 90 ° applies b k = b₁, and you get a diamond with rectangularly arranged slide positions. To ensure that the epipolar lines do not collapse, as a sufficient condition for equidistant epipolar lines, the straight line G H with respect to the pattern must form a suitable angle β with the projected connecting straight line of the projection centers of the camera and the projector G KP . For Θ = 90 °, the geometric relationships are shown in Fig. 7.

Der Winkel β ergibt sich gemäß folgender Gleichung aus der Anzahl n der Spalten des Diamusters, die äquidistant im Abstand d zueinander angeordnet sind, und dem vertikalen Abstand b₁, der Diapositionen.The angle β results from the number according to the following equation n the columns of the diamond, which are equidistant at a distance d are arranged to each other, and the vertical distance b₁, the Slide positions.

Der Winkel β nimmt für typische Diamuster mit d=b₁ und n<30 Werte kleiner als 2° an, so daß sich der Winkel ϕ bei Drehung des Diamusters um den Winkel β nur unwesentlich ändert. Diese Gleichung hat unter diesen Voraussetzungen auch für Q≠90° Gültigkeit. The angle β increases for typical diamonds with d = b₁ and n <30 Values less than 2 ° so that the angle ϕ changes when the The pattern changes only slightly by the angle β. This Under these conditions, the equation also has for Q ≠ 90 ° Validity.  

QuellenangabenReferences

[AYAC88] N. Ayache, O. D. Faugeras, F. Lustman, and Z. Zhang. Visual navigation of a mobile robot: Recent steps. In Proceedings of the 19th International Symposium on Industrial Robots, Sydney, Australia, Nov. 1988, pages 725-740, Springer Verlag, 1988.[AYAC88] N. Ayache, O.D. Faugeras, F. Lustman, and Z. Zhang. Visual navigation of a mobile robot: Recent steps. In Proceedings of the 19th International Symposium on Industrial Robots, Sydney, Australia, Nov. 1988, pages 725-740, Springer Verlag, 1988.

[BANI87] J. Banic, S. Sizgoric, R. O′Neil. Airborne scanning lidar bathymeter measures water depth. Laser focus/Electro-optics, Feb., pages 48-52, 1987.[BANI87] J. Banic, S. Sizgoric, R. O′Neil. Airborne scanning lidar bathymeter measures water depth. laser focus / Electro-optics, Feb., pages 48-52, 1987.

[BEHE86] G. Beheim, K. Fritsch. Range finding using frequency-modulated laser diode. Appl. Opt. 25(9): 1439-1442,1986.[BEHE86] G. Beheim, K. Fritsch. Range finding using frequency-modulated laser diode. Appl. Opt. 25 (9): 1439-1442, 1986.

[BICK85] G. Bickel, G. Hausler, M. Maul. Triangulation with expanded range of depth. Opt. Engrg. 24(6), pages 975-979, 1985.[BICK85] G. Bickel, G. Hausler, M. Maul. Triangulation with expanded range of depth. Opt. Engrg. 24 (6), pages 975-979, 1985.

[BING87] N. Binger, S.J. Harris. Applications of laser radar technology. Sensors 4(4):42-44, 1987.[BING87] N. Binger, S.J. Harris. Applications of laser radar technology. Sensors 4 (4): 42-44, 1987.

[BOEH86] A.J. Boehnlein, K.G. Harding. Adaptation of a parallel architecture computer to phase-shifted moir´ interferometry. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Cambridge, Mass., 728, pages 132-i46, 1986.[BOEH86] A.J. Boehnlein, K.G. Harding. Adaptation of a parallel architecture computer to phase-shifted moir´ interferometry. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Cambridge, Mass., 728, pages 132-i46, 1986.

[BOUL86] Boulder Electro-Optics. Product Information. 1986.[BOUL86] Boulder Electro-Optics. Product information. 1986.

[CHIO91] R. N. Chiou, K. C. Hung, C. H. Chen, and J. Y. Lee. Image reconstruction and stereo matching for polyhedron objects. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 218-224, Pattern Recognition Society of Denmark and Aalborg University, 1991.[CHIO91] R.N. Chiou, K.C. Hung, C.H. Chen, and J.Y. Lee. Image reconstruction and stereo matching for polyhedron objects. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 218-224, Pattern Recognition Society of Denmark and Aalborg University, 1991.

[CLAR93] T.A. Clarke, M.A.R. Cooper, J.G. Fryer. An estimator for the random error subpixel target location and its use in the bundle adjustment. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 161-168, 1993. [CLAR93] T.A. Clarke, M.A.R. Cooper, J.G. Fryer. An estimator for the random error subpixel target location and its use in the bundle adjustment. In Proceedings of the 2nd Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 161-168, 1993.  

[CYBE87] Cyberoptics Corporation. Product Information, Minneapolis, Minn, 1987.[CYBE87] Cyberoptics Corporation. Product information, Minneapolis, Minn, 1987.

[DAND85] R. Dandliker, R. Thalmann. Heterodyne and quasi­ heterodyne holographic interferometry. Opt. Engrg. 24(5): 824-831, 1985.[DAND85] R. Dandliker, R. Thalmann. Heterodyne and quasi heterodyne holographic interferometry. Opt. Engrg. 24 (5): 824-831, 1985.

[FÖHR90] R. Föhr. Photogrammetrische Erfassung räumlicher Informationen aus Videobildern. Dissertation, Rogowski-Institut der RWTH Aachen, Verlag Vieweg, 1981.[FÖHR90] R. Föhr. Photogrammetric detection of spatial Information from video images. Dissertation, Rogowski Institute of RWTH Aachen, publisher Vieweg, 1981.

[GOTT87] R. Gottwald, W. Brenner. The new Kern system for positioning and automated coordinate evaluation; advanced technology for automated 3D coordinate determination. Product Information. Kern Instruments, Aarau, Switzerland. 1987.[GOTT87] R. Gottwald, W. Brenner. The new core system for positioning and automated coordinate evaluation; advanced technology for automated 3D coordinate determination. Product information. core Instruments, Aarau, Switzerland. 1987.

[GRIF92] P.M. Griffin, L.S. Narasimhan, S.R. Yee. Generation of uniquely encoded light pattern for range data acquisition, Pattern Recognition, 25 (6), pages 609- 616, 1992.[GRIF92] P.M. Griffin, L.S. Narasimhan, S.R. Yee. generation of uniquely encoded light pattern for range data acquisition, Pattern Recognition, 25 (6), pages 609- 616, 1992.

[GUIS91] L. Guisser, R. Payrissat, S. Castan. A 3D Active vision system with direct parametrization of surface. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 210-2i7, Pattern Recognition Society of Denmark and Aalborg University, 1991.[GUIS91] L. Guisser, R. Payrissat, S. Castan. A 3D Active vision system with direct parametrization of surface. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 210-2i7, Pattern Recognition Society of Denmark and Aalborg University, 1991.

[HACH93] E. Kach. Moir´ measurement of the displacement field of a wall under dynamic load. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 161-168, 1993.[HACH93] E. Kach. Moir measurement of the displacement field of a wall under dynamic load. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 161-168, 1993.

[HALL82] E.L. Hall, J.B.K. Tio, C.A. McPherson, F.A. Sadjadi. Measuring curved surfaces for robot vision. Computer 15 (12): 42-54. 1982.[HALL82] E.L. Hall, J.B.K. Tio, C.A. McPherson, F.A. Sadjadi. Measuring curved surfaces for robot vision. computer 15 (12): 42-54. 1982.

[HARD86] K.G. Harding, K. Goodson. Hybrid high accuracy structured light profiler. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 728, pages 132-145, 1986. [HARD86] K.G. Harding, K. Goodson. Hybrid high accuracy structured light profiler. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 728, pages 132-145, 1986.  

[HARR90] D. Harrison, M. Weir. High-speed triangulation-based 3D imaging with orthonormal data projections and error detection. IEEE Transaction on Pattern Analysis and Machine Intelligence, 12(4): 409-416, April 1990.[HARR90] D. Harrison, M. Weir. High-speed triangulation-based 3D imaging with orthonormal data projections and error detection. IEEE transaction on pattern Analysis and Machine Intelligence, 12 (4): 409-416, April 1990.

[HEIK86) T. Heikkine, R. Ahola, M. Manninen. Recent results of the performance analysis of a 3D sensor based on time flight. In Proc. SPIE Quebec Int′l Symp. on Optical and Optoelectronic Applied Sci. and Engrg., 1986.[HEIK86) T. Heikkine, R. Ahola, M. Manninen. Recent results of the performance analysis of a 3D sensor based on time flight. In Proc. SPIE Quebec Int'l Symp. On Optical and Optoelectronic Applied Sci. and Engrg., 1986.

[HERS87] M. Hersman, F Goodwin, S. Kenyon, A. Slotwinski. Coherent laser radar application to 3D vision and metrology. In Proc. Vision′87 Conf., 3.1-3-12, 1987.[HERS87] M. Hersman, F Goodwin, S. Kenyon, A. Slotwinski. Coherent laser radar application to 3D vision and metrology. In Proc. Vision'87 Conf., 3.1-3-12, 1987.

[HERC90] M. Hercher, G. Wyntjes. Laser diode interferometry. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 92-99, 1989.[HERC90] M. Hercher, G. Wyntjes. Laser diode interferometry. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 92-99, 1989.

[HOEL91] C. Hölscher, K. Hinsch, G. Gülker. Holographic interferometry of high spatial resolution for the study of relative displacement of small grains in natural stones. In Proc. SPIE Laser Interferometry IV: Computer-Aided Interferometry, Vol. 1553, pages 366-375, 1991.[HOEL91] C. Hölscher, K. Hinsch, G. Gülker. Holographic interferometry of high spatial resolution for the study of relative displacement of small grains in natural stones. In Proc. SPIE laser interferometry IV: Computer-Aided Interferometry, Vol. 1553, pages 366-375, 1991.

[INOK84] S. Inokuchi, K. Sato, F. Matsuda. Range-imaging system for 3-D object recognition. Proceedings of the First int. Conference on Pattern Recognition, Montreal, 2 : 807-809, 1984.[INOK84] S. Inokuchi, K. Sato, F. Matsuda. Range imaging system for 3-D object recognition. Proceedings of the First int. Conference on Pattern Recognition, Montreal, 2: 807-809, 1984.

[ITO86] M. Ito and A. Ishii. Three-view stereo analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(4):524-532, 1986.[ITO86] M. Ito and A. Ishii. Three-view stereo analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8 (4): 524-532, 1986.

[JARV83] R.A. Jarvis. A laser time-of-flight range scanner for robotic vision. IEEE Computer 15(6): 9-23, 1982.[JARV83] R.A. Jarvis. A laser time-of-flight range scanner for robotic vision. IEEE Computer 15 (6): 9-23, 1982.

[JUHA87] M. Juha, J. Donahue. Improving automated SMT inspection with 3D vision. Product literature. Photonic Automation Inc., Santa Ana, Calif., 1987.[JUHA87] M. Juha, J. Donahue. Improving automated SMT inspection with 3D vision. Product literature. Photonic Automation Inc., Santa Ana, Calif., 1987.

[KANA87] T. Kanade, M. Fuhrman. A noncontact optical proximity sensor for measuring surface shape. In Three Dimensional Machine Vision, Kluwer Academic, Boston, 1987.[KANA87] T. Kanade, M. Fuhrman. A noncontact optical proximity sensor for measuring surface shape. In  Three Dimensional Machine Vision, Kluwer Academic, Boston, 1987.

[KHEA75] The theory and application of projection moir´methods. Ph.D. dissertation. Department of Engineering Mechanics, State University of New York, Stony Brook, N.Y., 1975.[KHEA75] The theory and application of projection moir´methods. Ph.D. dissertation. Department of Engineering Mechanics, State University of New York, Stony Brook, N.Y., 1975.

[KURZ90] H. Kurz, O. Leder. PC-based moir´ or field studies on the human body surface. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1066-1074, 1990.[SHORT90] H. Kurz, O. Leder. PC-based moir´ or field studies on the human body surface. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1066-1074, 1990.

[LENZ88] Reimar Lenz. Zur Genauigkeit der Videometrie mit CCD-Sensoren. In Informatik-Fachberichte 180, 10. DAGM Symposium 1988, Zürich, Seiten 179-189, Springer, 1988.[LENZ88] Reimar Lenz. To the accuracy of the video geometry with CCD sensors. In computer science reports 180, 10. DAGM Symposium 1988, Zurich, pages 179-189, Springer, 1988.

[LEWI77] R.A. Lewis A.R. Johnston. A scanning laser rangefinder for a robotic vehicle. In Proc. 5th Intl. Joint Conference on Artificial Intelligence (Cambridge, Mass.), pages 762-768, 1977.[LEWI77] R.A. Lewis A.R. Johnston. A scanning laser rangefinder for a robotic vehicle. In Proc. 5th Intl. Joint Conference on Artificial Intelligence (Cambridge, Mass.), Pages 762-768, 1977.

[LI88] Y. Li, T. Young, J. Magerl. Subpixel detection and estimation with a microprocessor-controlled line scan camera. IEEE Transaction on Industrial Electronics, 15(1): 105-112, February 1988.[LI88] Y. Li, T. Young, J. Magerl. Subpixel detection and estimation with a microprocessor-controlled line scan camera. IEEE Transaction on Industrial Electronics, 15 (1): 105-112, February 1988.

[LORE86] R.D. Lorenz. A novel, high-range-to-resolution ratio, optical sensing technique for high speed surface geometry measurement. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, 728, pages 152-156, 1986.[LORE86] R.D. Lorenz. A novel, high-range-to-resolution ratio, optical sensing technique for high speed surface geometry measurement. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, 728, pages 152-156, 1986.

[MEIS93] A. Meisel. 3D Bildverarbeitung für feste und bewegte Kameras auf Photogrammetrischer Basis. Der Fakultät für Elekrotechnik der RWTH Aachen vorgelegte Dissertation zur Erlangung des akademischen Grades eines Doktors der Ingenieurwissenschaften, RWTH Aachen, 1993.[MEIS93] A. Meisel. 3D image processing for fixed and moving Photogrammetric based cameras. The faculty submitted for RWTH Aachen electrical engineering Dissertation to achieve the academic degree a doctor of engineering, RWTH Aachen, 1993.

[MILL87] G.L. Miller, E.R. Wagner. An optical rangefinder for autonomous robot cart navigation. In proc. SPIE Industrial Electronics, Cambridge Mass., 1987. [MILL87] G.L. Miller, E.R. Wagner. An optical range finder for autonomous robot cart navigation. In proc. SPIE Industrial Electronics, Cambridge Mass., 1987.  

[MORI89] I. Moring, R. Myllylä. New 3D-vision sensor for shape measurement applications. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 1194, pages 232- 241, 1989.[MORI89] I. Moring, R. Myllylä. New 3D vision sensor for shape measurement applications. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 1194, pages 232- 241, 1989.

[NAKA87] Y. Nakagawa, T. Ninomiya. Three-dimensional vision systems using the structured light method for inspecting solder joints and assembly robots. In Three-dimensional machine vision, Kluwer Academic, Boston, pages 543-565. 1987.[NAKA87] Y. Nakagawa, T. Ninomiya. Three-dimensional vision systems using the structured light method for inspecting solder joints and assembly robots. In Three-dimensional machine vision, Kluwer Academic, Boston, pages 543-565. 1987.

[NEGI87] M. Negin. Subpixel resolution methodologv limitations. VISION′ 87, Conference Proceedings, June 8-11, Detroit, North Holland, 1987.[NEGI87] M. Negin. Subpixel resolution methodologv limitations. VISION ′ 87, Conference Proceedings, June 8-11, Detroit, North Holland, 1987.

[NITZ77] D. Nitzan, A.E. Brain, R.O. Duda. The measurement and use of registered reflectance and range data in scene analysis. Proc. IEEE 65(2), pages 206-220, 1977.[NITZ77] D. Nitzan, A.E. Brain, R.O. You there. The measurement and use of registered reflectance and range data in scene analysis. Proc. IEEE 65 (2), pages 206-220, 1977.

[OKAD90] K. Okada, J. Tsujiuchi. Wavelength scanning interferometry for the measurement of both surface shapes and refractive index inhomogeneity. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 395-401, 1989.[OKAD90] K. Okada, J. Tsujiuchi. Wavelength scanning interferometry for the measurement of both surface shapes and refractive index inhomogeneity. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, vol. 1162, pages 395-401, 1989.

[OZEK86] O. Ozeki, T. Nakano, S. Yamamoto. Real-time range measurement device for three-dimensional object recognition, IEEE Transaction on Pattern Analysis and Machine Intelligence, 8(4): 768-773, July 1986.[OZEK86] O. Ozeki, T. Nakano, S. Yamamoto. Real-time range measurement device for three-dimensional object recognition, IEEE Transaction on Pattern Analysis and Machine Intelligence, 8 (4): 768-773, July 1986.

[PANT86] D. Pantzer, J. Policht, L. Ek. Heterodyne profiling instrument for the angstrom region. Appl. Opt. 25(22), pages 4168-4172, 1986.[PANT86] D. Pantzer, J. Policht, L. Ek. Heterodyne profiling instrument for the angstrom region. Appl. Opt. 25 (22), pages 4168-4172, 1986.

[PELO86] K.R. Pelowski. 3D measurement with machine vision. In proc. Vision′ 86 Conference, SME, pages 2-17 to 2- 31. 1986.[PELO86] K.R. Pelowski. 3D measurement with machine vision. In proc. Vision ′ 86 Conference, SME, pages 2-17 to 2- 31. 1986.

[PERC87] Perceptron. Product information. Farming Hills, Mich., 1987.[PERC87] Perceptron. Product information. Farming Hills, Mich., 1987.

[PIPI83] F.J. Pipitone, T.G. Marshall. A wide-field scanning triangulation rangefinder for machine vision. Intl. J. Robotics Res. 2(1), pages 39-49, 1983. [PIPI83] F.J. Pipitone, T.G. Marshall. A wide-field scanning triangulation rangefinder for machine vision. Intl. J. Robotics Res. 2 (1), pages 39-49, 1983.  

[POTM83] M. Potmesil. Generating models of solid objects by matching 3D surface segments. In proc. 8th International Joint Conference on Artificial Intelligence, pages 1089-1093. 1983.[POTM83] M. Potmesil. Generating models of solid objects by matching 3D surface segments. In proc. 8th International Joint Conference on Artificial Intelligence, pages 1089-1093. 1983.

[REID86] G.T. Reid. Automatic fringe pattern analysis: A review. Opt. and Laser in Engrg., 7, pages 37-68, 1986.[REID86] G.T. Reid. Automatic fringe pattern analysis: A review. Opt. And Laser in Engrg., 7, pages 37-68, 1986.

[RIOU84] M. Rioux. Laser range finder based upon synchronized scanners. Appl. Opt. 23(21), pages 3837-3844, 1984.[RIOU84] M. Rioux. Laser range finder based upon synchronized scanners. Appl. Opt. 23 (21), pages 3837-3844, 1984.

[RIOU93] M. Rioux, G. Godin, F. Blais, R. Baribeau. Differential inspection of shapes using optical 3-D measurement. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 402-409, 1993.[RIOU93] M. Rioux, G. Godin, F. Blais, R. Baribeau. Differential inspection of shapes using optical 3-D measurement. In Proceedings of the 2nd Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 402-409, 1993.

[SAMP87] R.E. Sampson. 3D range sensor via phase shift detection. IEEE Computer 20(8), pages 23-24, 1987.[SAMP87] R.E. Sampson. 3D range sensor via phase shift detection. IEEE Computer 20 (8), pages 23-24, 1987.

[SAM90] R.C. Sam, K. Leslie, J. Goodwin, R. Page. Real time TV holography using an alexandrite laser. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 447-455, 1989.[SAM90] R.C. Sam, K. Leslie, J. Goodwin, R. Page. Real time TV holography using an alexandrite laser. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, vol. 1162, pages 447-455, 1989.

[SASA86] O. Sasaki, H. Okazaki. Sinusoidal phase modulating interferometry for surface profile measurement. Appl. Opt., 25(18), pages 3137-3140, 1986.[SASA86] O. Sasaki, H. Okazaki. Sinusoidal phase modulating interferometry for surface profile measurement. Appl. Opt., 25 (18), pages 3137-3140, 1986.

[SATO84) K. Sato, S. Inokuchi. Three-dimensional surface measurement by space encoding range imaging. Journal of Robotic Systems 2(1), 1985.[SATO84) K. Sato, S. Inokuchi. Three-dimensional surface measurement by space encoding range imaging. journal of Robotic Systems 2 (1), 1985.

[SEIT86] G. Seitz, H. Tiziani, R. Litschel. 3-D- Koordinatenmessung durch optische Triangulation. Feinwerktechnik & Meßtechnik (7): 432-425, 1986.[SEIT86] G. Seitz, H. Tiziani, R. Litschel. 3-D Coordinate measurement through optical triangulation. Precision engineering & measurement technology (7): 432-425, 1986.

[SEIB90] M. Seib. Hochauflösendes Projektions-Moir´-Verfahren zur Formerkennung mit modifizierter CCD-Kamera. Proc. of Ident Vision′ 90, S. 92-104, Mesago Stuttgart, 1990.[SEIB90] M. Seib. High-resolution projection moir method for shape recognition with modified CCD camera. Proc. of Ident Vision ′ 90, pp. 92-104, Mesago Stuttgart, 1990.

[SELC87] Selcom. Optocator product information. Valdese, N.C., Partille, Sweden; Krefeld, West Germany, 1987. [SELC87] Selcom. Optocator product information. Valdese, N.C., Partille, Sweden; Krefeld, West Germany, 1987.  

[SHAH89] Y. C. Shah, R. B. Mahani. A new technique to extract range information from stereo images. IEEE Transaction on Pattern Analysis and Machine Intelligence, 11(7): 768-773, July 1989.[SHAH89] Y. C. Shah, R. B. Mahani. A new technique to extract range information from stereo images. IEEE Transaction on Pattern Analysis and Machine Intelligence, 11 (7): 768-773, July 1989.

[SHAR90] B. Sharp, G. Kuhl. Interferometrie - neue Möglichkeiten durch Bildverarbeitung. Fertigungstechnik (4): 158-162, 1990.[SHAR90] B. Sharp, G. Kuhl. Interferometry - new Possibilities through image processing. Manufacturing Technology (4): 158-162, 1990.

[SILV86] C. Silvaggi, W. North. Position/dimension by structured light. Exper. tech. (Oct.), pages 22-25, 1986.[SILV86] C. Silvaggi, W. North. Position / dimension by structured light. Exper. tech. (Oct.), pages 22-25, 1986.

[SRIN85] V. Srinivasan, H.C. Liu, M. Halioua. Automated phase measuring profilometry: A phase-mapping approach. Appl. Opt. 24(2), pages 185-188, 1985.[SRIN85] V. Srinivasan, H.C. Liu, M. Halioua. Automated phase measuring profilometry: A phase mapping approach. Appl. Opt. 24 (2), pages 185-188, 1985.

[STAH90] T. Stahs, F. Wahl. Fast and robust range data acquisition in a low-cost environment. SPIE Close Range Photogrammetry meets Machine Vision, Vol. 1395 : 496-503, 1990.[STAH90] T. Stahs, F. Wahl. Fast and robust range data acquisition in a low-cost environment. SPIE Close Range photogrammetry meets machine vision, vol. 1395: 496-503, 1990.

[STEU88] J. Steurer, R. Lenz und S. Orecher. 3D-Vermessung mit mehreren geeichten Kameras. In Informatik- Fachberichte 180, 10. DAGM Symposium 1988, Zurich, Seiten 197-203, Springer, 1988.[STEU88] J. Steurer, R. Lenz and S. Orecher. 3D measurement with several calibrated cameras. In computer science Technical Reports 180, 10th DAGM Symposium 1988, Zurich, Pages 197-203, Springer, 1988.

[SVET84] D.J. Svetkoff, P.F. Leonard, R.E. Sampson, R.C. Jain. Techniques for real-time feature extracting using range information. In proc. Intelligence Robotics and Computer Vision, SPIE 521, pages 302- 309, 1984.[SVET84] D.J. Svetkoff, P.F. Leonard, R.E. Sampson, R.C. Jain. Techniques for real-time feature extracting using range information. In proc. Intelligence Robotics and Computer Vision, SPIE 521, pages 302- 309, 1984.

[TIZI87] H. Tiziani. Rechnerunterstützte Laser-Meßtechnik. Technisches Messen (6): 221-230, 1987.[TIZI87] H. Tiziani. Computer-aided laser measurement technology. Technical measurement (6): 221-230, 1987.

[TOZE85] B.A. Tozer, R. Glanville, A.L. Gordon, M.J. Webster, D.G. Wright. Holography applied to inspection and measurement in an industrial environment. Opt. Engrg. 24(5): 746-753, 1985.[TOZE85] B.A. Tozer, R. Glanville, A.L. Gordon, M.J. Webster, D.G. Wright. Holography applied to inspection and measurement in an industrial environment. Opt. Engrg. 24 (5): 746-753, 1985.

[VUYL90] P. Vuylsteke and A. Oosterlinck. Range image acquisition with a single binary-encoded light pattern. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(2):148-164, 1990. [VUYL90] P. Vuylsteke and A. Oosterlinck. Range image acquisition with a single binary-encoded light pattern. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12 (2): 148-164, 1990.  

[WEHR89] A. Wehr. 3D-Mapping by a semiconductor laser mapper and its application possibilities. In Proceedings of the 1. Conference on Optical 3-D Measurement Techniques, Vienna, Austria, September 1989, pages 180-195, 1989.[WEHR89] A. Weir. 3D mapping by a semiconductor laser mapper and its application possibilities. In Proceedings of the 1st Conference on Optical 3-D Measurement Techniques, Vienna, Austria, September 1989, pages 180-195, 1989.

[WUER85] R.F. Wuerker, D.A. Hill. Holographic microscopy. Opt. Engrg. 24(3): 480-484.[WUER85] R.F. Wuerker, D.A. Hill. Holographic microscopy. Opt. Engrg. 24 (3): 480-484.

[ZAWI90] D. Zawieska, A. Spik. Topography moir´ using phase stepping method with CCD-camera. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1214-1220, 1990.[ZAWI90] D. Zawieska, A. Spik. Topography moir using phase stepping method with CCD camera. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1214-1220, 1990.

[ZHAO91] J. Zhao, J. Shen, and S. Castan. Trinocular stereo vision by window matching in 3D-space. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 202-209, Pattern Recognition Society of Denmark and Aalborg University, 1991.[ZHAO91] J. Zhao, J. Shen, and S. Castan. Trinocular stereo vision by window matching in 3D space. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 202-209, Pattern Recognition Society of Denmark and Aalborg University, 1991.

[ZUK83] D.M. Zuk, M.L. Dell′eva. Three-dimensional vision system for the adaptive suspension vehicle. Final report No. 170400-3-F, ERIM, DARPA 4468, Defense Supply Service, Washington, D.C., 1983.[ZUK83] D.M. Zuk, M.L. Dell'eva. Three-dimensional vision system for the adaptive suspension vehicle. Final report No. 170400-3-F, ERIM, DARPA 4468, Defense Supply Service, Washington, D.C., 1983.

Claims (3)

1. Verfahren zur dreidimensionalen Vermessung von Raumbereichen mit den Verfahrensschritten
  • (a) Generierung von markanten Raumpunkten durch Beaufschlagung des Raumbereiches mit einem strukturierten Signalmuster,
  • (b) Erfassung des mit dem Signalmuster beaufschlagten Raumbereiches mittels einem oder mehreren elektronischen Bildaufnehmern
  • (c) Überführung der aufgenommenen Bilder in eine rechnerverarbeitbare Form mit dem Ziel einer rechnergestützten Weiterverarbeitung,
  • (d) Bestimmung der eingenommenen Bildpositionen, d. h. der Positionen der Abbilder der zu berechnenden Raumpunkte in den aufgenommenen Bildern
  • (e) Berechnung der Raumpunkte aus den bestimmten eingenommenen Bildpositionen
    dadurch gekennzeichnet, daß
  • (f) die Bildaufnehmer und die Quellen zur Signalmustergenerierung auf ein gemeinsames Raumkoordinatensystem kalibriert sind,
  • (g) zur Vermessung des Raumbereiches ein zeitgleich gewonnener Satz von Bildern mehrerer Bildaufnehmer bzw. ein Bild eines Bildaufnehmers herangezogen wird
  • (h) die Quellen zur Signalmustergenerierung projizierend arbeiten (z. B. Zentralprojektion), so daß alle theoretisch möglichen durch einen Punkt des Signalmusters generierbaren, markanten Raumpunkte auf einer Raumgeraden liegen.
  • (i) die Bildaufnehmer projizierend arbeiten (z. B. Zentralprojektion)
  • (j) die Anordnung der Signalmusterquellen zu den Bildaufnehmern so ausgelegt ist, daß jedem Abbild eines markanten Raumpunktes genau eine Raumgerade zugeordnet werden kann.
  • (k) die Anordnung der Signalmusterquellen zu den Bildaufnehmern so ausgelegt ist, daß jedem Abbild eines markanten Raumpunktes genau ein markanter Raumpunkt zugeordnet werden kann.
  • (l) in einer Einrichtphase a priori die Weltkoordinaten alle theoretisch möglichen und relevanten durch die Beaufschlagung mit dem Signalmuster bestimmten markanten Raumpunkte in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden.
  • (m) in der Vermessungsphase die Bestimmung der Raumpunktkoordinaten aus den zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte durch Auslesen der entsprechenden Tabelleneinträge durchgeführt wird.
1. Method for three-dimensional measurement of spatial areas with the method steps
  • (a) generation of distinctive spatial points by applying a structured signal pattern to the spatial area,
  • (b) Acquisition of the spatial area exposed to the signal pattern by means of one or more electronic image recorders
  • (c) converting the captured images into a computer-processable form with the aim of computer-aided further processing,
  • (d) Determination of the assumed image positions, ie the positions of the images of the spatial points to be calculated in the recorded images
  • (e) Calculation of the spatial points from the specific image positions taken
    characterized in that
  • (f) the image recorders and the sources for signal pattern generation are calibrated to a common spatial coordinate system,
  • (g) for the measurement of the spatial area, a set of images of several image recorders obtained at the same time or an image of an image sensor is used
  • (h) the sources for signal pattern generation work projecting (e.g. central projection), so that all theoretically possible, distinctive spatial points that can be generated by a point of the signal pattern lie on a spatial straight line.
  • (i) the image recorders work projecting (e.g. central projection)
  • (j) the arrangement of the signal pattern sources to the image recorders is designed so that exactly one spatial straight line can be assigned to each image of a prominent spatial point.
  • (k) the arrangement of the signal pattern sources to the image recorders is designed such that each image of a prominent spatial point can be assigned exactly one prominent spatial point.
  • (l) in a set-up phase, the world coordinates, all the theoretically possible and relevant spatial points determined by the application of the signal pattern are stored in a table indexed by the image positions taken.
  • (m) in the measurement phase, the determination of the spatial point coordinates is carried out from the previously determined assumed image positions of the images of the distinctive spatial points by reading out the corresponding table entries.
2. Verfahren nach Anspruch 1a bis k, dadurch gekennzeichnet, daß
  • (n) in einer Einrichtphase a priori die Parameter der Geradengleichungen der Raumgeraden im Weltkoordinatensystem berechnet und in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden.
  • (o) in der Vermessungsphase die durch die zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte bestimmten Tabelleneinträge ausgelesen und zur Berechnung des Raumpunktes herangezogen werden.
2. The method according to claim 1a to k, characterized in that
  • (n) In a set-up phase, the parameters of the straight line equations of the spatial straight lines in the world coordinate system are calculated a priori and stored in a table indexed by the image positions taken.
  • (o) In the measurement phase, the table entries determined by the previously determined image positions of the images of the distinctive spatial points are read out and used to calculate the spatial point.
3. Verfahren nach Anspruch 1a bis k, dadurch gekennzeichnet, daß
  • (p) in einer Einrichtphase a priori allen Raumgeraden eine individuelle Kennung gegeben wird, die für alle Bildaufnehmer identisch ist und die in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden.
  • (q) in der Vermessungsphase die durch die zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte bestimmten Tabelleneinträge ausgelesen und zur Berechnung des Raumpunktes herangezogen werden.
3. The method according to claim 1a to k, characterized in that
  • (p) In a set-up phase, an individual identifier is given to all spatial straight lines, which is identical for all image recorders and which is stored in a table indexed by the image positions assumed.
  • (q) During the measurement phase, the table entries determined by the previously determined image positions of the images of the distinctive spatial points are read out and used to calculate the spatial point.
DE1996104977 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions Withdrawn DE19604977A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1996104977 DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1996104977 DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Publications (1)

Publication Number Publication Date
DE19604977A1 true DE19604977A1 (en) 1997-08-07

Family

ID=7785106

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1996104977 Withdrawn DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Country Status (1)

Country Link
DE (1) DE19604977A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10244992A1 (en) * 2002-09-26 2004-04-01 Conti Temic Microelectronic Gmbh Space monitoring system, especially for monitoring a motor vehicle interior has at least one sensor so that, for example, sound playback, noise damping or climate control, can be matched to the number of occupants,
DE102004020587A1 (en) * 2004-04-27 2005-11-24 Siemens Ag Method and apparatus for visually assisting a catheter electrophysiology application with 2D fluoroscopic images
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
US7486805B2 (en) 2003-02-27 2009-02-03 Storz Endoskop Produktions Gmbh Method and optical system for measuring the topography of a test object
DE102011007520A1 (en) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Method for calibrating orientation unit of labeling device for e.g. glass bottle for storing drinks, involves calculating algorithm for coordinate transformation from camera coordinate system into absolute Cartesian coordinate system
DE102018115334B3 (en) 2018-06-26 2019-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for calibrating an electromagnetic radiation emitting device by means of a sensor unit

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3129492A1 (en) * 1981-07-27 1983-02-10 Siemens AG, 1000 Berlin und 8000 München 3D AIR SPACE MONITORING RADAR
US4668094A (en) * 1985-01-31 1987-05-26 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for measuring the three-dimensional shape of a solid object
DE3541891A1 (en) * 1985-11-27 1987-06-04 Kambiz Kachanian Method for detecting, storing and reproducing geometrical data of objects, in particular of jaw models, and a device for carrying out the method
US4707698A (en) * 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4802759A (en) * 1986-08-11 1989-02-07 Goro Matsumoto Three-dimensional shape measuring apparatus
US4937445A (en) * 1986-09-24 1990-06-26 Softac Systems Ltd. Apparatus for determining the distances of points on a surface from a reference axis
DE4123898A1 (en) * 1991-07-18 1993-01-21 Siemens Ag Three=dimensional radar system using two azimuthal sweeps - applies Pythagoras theorem to calculate altitude of target from measured slant range and horizontal triangle geometry
DE4134117C2 (en) * 1991-10-15 1996-02-01 Kaltenbach & Voigt Process for the optical measurement of objects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4707698A (en) * 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
DE3129492A1 (en) * 1981-07-27 1983-02-10 Siemens AG, 1000 Berlin und 8000 München 3D AIR SPACE MONITORING RADAR
US4668094A (en) * 1985-01-31 1987-05-26 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for measuring the three-dimensional shape of a solid object
DE3541891A1 (en) * 1985-11-27 1987-06-04 Kambiz Kachanian Method for detecting, storing and reproducing geometrical data of objects, in particular of jaw models, and a device for carrying out the method
US4802759A (en) * 1986-08-11 1989-02-07 Goro Matsumoto Three-dimensional shape measuring apparatus
US4937445A (en) * 1986-09-24 1990-06-26 Softac Systems Ltd. Apparatus for determining the distances of points on a surface from a reference axis
DE4123898A1 (en) * 1991-07-18 1993-01-21 Siemens Ag Three=dimensional radar system using two azimuthal sweeps - applies Pythagoras theorem to calculate altitude of target from measured slant range and horizontal triangle geometry
DE4134117C2 (en) * 1991-10-15 1996-02-01 Kaltenbach & Voigt Process for the optical measurement of objects

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IDESAWA,Masanori, et.al.: Scanning moirE method and automatic measurement of 3-D shapes. In: Applied Optics, Vol.16, No.8, Aug. 1977, S.2152-2162 *
JANOCHA,Hartmut, ZAPP,Michael: Fertigungsnahe 3D-Koordinatenmessung mit bewegter CCD-Kamera. In: tm - Technisches Messen 61, 1994, 9, S.329- S.334 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
DE10310768B4 (en) * 2002-03-13 2016-08-04 Omron Corp. Device for monitoring in three dimensions
DE10244992A1 (en) * 2002-09-26 2004-04-01 Conti Temic Microelectronic Gmbh Space monitoring system, especially for monitoring a motor vehicle interior has at least one sensor so that, for example, sound playback, noise damping or climate control, can be matched to the number of occupants,
US7486805B2 (en) 2003-02-27 2009-02-03 Storz Endoskop Produktions Gmbh Method and optical system for measuring the topography of a test object
DE102004020587A1 (en) * 2004-04-27 2005-11-24 Siemens Ag Method and apparatus for visually assisting a catheter electrophysiology application with 2D fluoroscopic images
US7502642B2 (en) 2004-04-27 2009-03-10 Siemens Aktiengesellschaft Method and device for visually supporting an electrophysiological catheter application
DE102004020587B4 (en) * 2004-04-27 2016-02-18 Siemens Aktiengesellschaft Method and apparatus for visually assisting a catheter electrophysiology application with 2D fluoroscopic images
DE102011007520A1 (en) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Method for calibrating orientation unit of labeling device for e.g. glass bottle for storing drinks, involves calculating algorithm for coordinate transformation from camera coordinate system into absolute Cartesian coordinate system
DE102018115334B3 (en) 2018-06-26 2019-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for calibrating an electromagnetic radiation emitting device by means of a sensor unit
US10814775B2 (en) 2018-06-26 2020-10-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for calibrating an electromagnetic radiation-emitting device using a sensor unit

Similar Documents

Publication Publication Date Title
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
EP3421189B1 (en) Method for monitoring a machine
Girod et al. Depth from defocus of structured light
EP2728374B1 (en) Invention relating to the hand-eye calibration of cameras, in particular depth image cameras
DE112015004396T5 (en) AUGMENTED REALITY CAMERA FOR USE WITH 3D METROLOGY EQUIPMENT FOR PRODUCING 3D IMAGES FROM 2D CAMERA IMAGES
EP2201326B1 (en) Method for determining distance
EP3195256B1 (en) Method and apparatus for identifying structural elements of a projected structural pattern in camera images
DE112015003734T5 (en) Six degrees of freedom triangulation scanner and augmented reality camera
Xiao et al. A prism-based single-lens stereovision system: From trinocular to multi-ocular
DE102019103519A1 (en) Device for determining dimensional and / or geometric properties of a measurement object
Kim et al. An active trinocular vision system of sensing indoor navigation environment for mobile robots
DE19604977A1 (en) Three-dimensional measurement method for dynamic spatial regions
El-Hakim et al. Integration of range and intensity data to improve vision-based three-dimensional measurements
Ahlers et al. Stereoscopic vision-an application oriented overview
DE102018114480B3 (en) Calibration method for a beam straightening unit of an interferometric measuring device and measuring device for performing an interferometric measurement by means of laser radiation
DE19846145A1 (en) Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines
CN116242277A (en) Automatic measurement method for size of power supply cabinet structural member based on full-field three-dimensional vision
Kawata et al. Scale optimization of structure from motion for structured light-based all-round 3D measurement
DE102006013316A1 (en) Three-dimensional reconstruction of static scenes through standardized combination of DFD (depth from defocus) and SFM (shape from motion) methods, involves using DFD and SFD methods in processing two-dimensional image of static scene
Chen et al. A structured-light-based panoramic depth camera
DE19749974A1 (en) Three-dimensional pixel cloud production arrangement
Loranger et al. A fast and accurate 3-D rangefinder using the Biris technology: the TRID sensor
Ozkan et al. Surface profile-guided scan method for autonomous 3D reconstruction of unknown objects using an industrial robot
Cha et al. A calibration and range-data extraction algorithm for an omnidirectional laser range finder of a free-ranging mobile robot
Kim et al. An active trinocular vision system for sensing mobile robot navigation environments

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee