DE60133026T2 - Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern - Google Patents

Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern Download PDF

Info

Publication number
DE60133026T2
DE60133026T2 DE60133026T DE60133026T DE60133026T2 DE 60133026 T2 DE60133026 T2 DE 60133026T2 DE 60133026 T DE60133026 T DE 60133026T DE 60133026 T DE60133026 T DE 60133026T DE 60133026 T2 DE60133026 T2 DE 60133026T2
Authority
DE
Germany
Prior art keywords
image
scene
lighting
target
digital imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60133026T
Other languages
English (en)
Other versions
DE60133026D1 (de
Inventor
Dan Albeck
Ron Gershon
Avner Segev
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexagon Metrology Israel Ltd
Original Assignee
Cognitens Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognitens Ltd filed Critical Cognitens Ltd
Application granted granted Critical
Publication of DE60133026D1 publication Critical patent/DE60133026D1/de
Publication of DE60133026T2 publication Critical patent/DE60133026T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images

Description

  • ERFINDUNGSGEBIET
  • Die Erfindung betrifft allgemein das Gebiet der digitalen Abbildung und insbesondere Systeme und Verfahren zum Ausrichten von Bildern in digitalen Abbildungssystemen.
  • ALLGEMEINER STAND DER TECHNIK
  • Digitale Abbildungssysteme zeichnen viele Bilder einer Szene für verschiedene Anwendungen auf. Einige Anwendungen erfordern eine präzise Kenntnis der Positionen von Punkten in der Szene in Relation zu einem dreidimensionalen Koordinatensystem, was wiederum präzise Kenntnis der Orte von Projektionen der Punkte in den jeweiligen Bildern erfordert. Eine illustrative Anwendung ist die Photogrammetrie, bei der Informationen wie etwa Abstände zwischen Punkten in einer Szene, Höhen von Punkten in der Szene über einer Referenzebene und so weiter anhand von Messungen zwischen und unter Punkten auf den zweidimensionalen Bildern, die von der Szene aufgenommen wurden, bestimmt werden können. Eine weitere Anwendung ist die dreidimensionale virtuelle Rekonstruktion von Objekten in einer Szene anhand der zweidimensionalen Bilder, die von der Szene aufgenommen wurden. Solche virtuellen Rekonstruktionen können beispielsweise für eine genaue Messung von Merkmalen der rekonstruierten Objekte verwendet werden.
  • Bei einigen Anwendungen ist erwünscht, gewisse Merkmale in einer Szene mit einem hohen Grad an Präzision zu messen. Solche Messungen erfordern entweder, dass Informationen über die Szene an das Abbildungssystem geliefert werden, oder dass das Abbildungssystem in der Lage ist, solche Informationen auf automatisierte Weise aus den Bildern zu extrahieren. In jedem Fall ist es für das Abbildungssystem hilfreich, wenn in der Szene, wie in den Bildern aufgenommen, gewisse Merkmale vorliegen, die präzise detektiert werden können und deren Positionen und Größen präzise gemessen werden können. Diese Merkmale, die als „Ankerpunkte" oder „Targets" bezeichnet werden können, können künstlich innerhalb der Szene gepflanzt werden, um Referenzinformationen für das Abbildungssystem zu liefern. Die Targets besitzen vorbestimmte optische Charakteristiken und können durch das Abbildungssystem ohne weiteres automatisch von anderen Objekten in der Szene unterschieden werden. Außerdem kennt das Abbildungssystem die Positionen von jeweiligen einzelnen der Targets in der Szene relativ zu einem dreidimensionalen Koordinatensystem. Das Abbildungssystem wiederum wird in der Lage sein müssen, präzise zu bestimmen, welche Pixel in den von der Szene aufgenommenen Bildern zu jeweiligen einzelnen der Targets in der Szene in Beziehung stehen. Da das Abbildungssystem eine genaue und präzise Identifikation der Targets vornehmen werden muss, kann es zu mehreren Problemen kommen. Insbesondere muss die Materialart, aus der die Targets hergestellt sind, ihre Formen und so weiter im Allgemeinen besonders berücksichtigt werden. Eine Technik besteht darin, die Targets mit spezifischen Formen und Konturen zu versehen, die auf vorbestimmte Weise codiert werden können, um sicherzustellen, dass sie hervorstehen und sich ohne weiters von den anderen Objekten in der Szene unterscheiden lassen. Die Targets können aus Materialien mit vorbestimmten Oberflächencharakteristiken hergestellt sein, wie etwa diffus oder stark reflektierend, solange ihre Formen und/oder ihr Reflexionsvermögen sich erheblich von den erwarteten Formen und/oder dem erwarteten Reflexionsvermögen der Objekte in der Szene unterscheiden, die einer Messung, Rekonstruktion und so weiter unterzogen werden sollen.
  • Eine weitere Technik beinhaltet die Verwendung von gerichtet reflektierenden Materialien wie etwa retroreflektierende Materialien für die Targets. Ein aus einem retroreflektierenden Material hergestelltes Objekt reflektiert Licht, das darauf eintrifft, überwiegend in der Richtung der Lichtquelle zurück, aus der das Licht kommt. Arten von retroreflektierenden Materialien sind wohlbekannt und werden beispielsweise bei Zeichen, Sicherheitsreflektoren und so weiter verwendet. Die Reflexionscharakteristik des Materials ist im Allgemeinen von dem Einfallswinkel des Lichts auf der Oberfläche über einen relativ großen Bereich von Einfallswinkeln hinweg unabhängig. Wenn die Objekte in der Szene, die einer Messung, Rekonstruktion und so weiter unterzogen werden sollen, nicht aus retroreflektierenden Materialien hergestellt sind, werden sich die reflektierenden Charakteristiken ihrer Oberflächen wesentlich von den reflektierenden Charakteristiken der Targets unterscheiden, und wenn sie richtig beleuchtet sind, wie unten beschrieben wird, kann es für das Abbildungssystem relativ leicht sein, zwischen den Targets und den anderen Objekten in der Szene zu unterscheiden.
  • Noch eine weitere Technik beinhaltet die Verwendung von Targets, die im Wesentlichen Löcher in der Szene liefern, indem sie beispielsweise darauf einfallendes Licht absorbieren oder das Licht derart reflektieren, dass es nicht zu der oder den Bildaufnahmeeinrichtungen gelenkt wird, wenn Bilder davon aufgenommen werden.
  • Um die Positionen der Targets genau zu bestimmen, müssen sie uniform beleuchtet sein, so dass das Aussehen jedes Targets nicht über das Blickfeld hinweg oder von Bild zu Bild variieren wird. Wenn jedoch das Abbildungssystem eine strukturierte Beleuchtung erfordert, die ein texturiertes Aussehen für Oberflächen bietet, die ansonsten möglicherweise relativ merkmalslos erscheinen könnten, wird die gleichzeitige Verwendung von strukturierter Beleuchtung und uniformer Beleuchtung den Effekt der strukturierten Beleuchtung auf die Szene, was wiederum die Fähigkeit des Abbildungssystems stören kann, seine Operationen der Messung, der virtuellen Rekonstruktion und so weiter zu stören, in der Regel reduzieren. Wenn andererseits strukturierte Beleuchtung alleine oder überwiegend zum Beleuchten der Szene einschließlich der Targets verwendet wird, kann sich das Aussehen jeweiliger einzelner der Targets von Bild zu Bild ändern, was es für das Abbildungssystem erschwert, die Projektionen eines jeweiligen in den verschiedenen Bildern zu identifizieren. Außerdem kann die strukturierte Beleuchtung bewirken, dass Projektionen der Targets verformt erscheinen, was die Schwierigkeit, ihre Orte in den Bildern genau zu bestimmen, erhöhen kann. Wenn schließlich sowohl eine strukturierte Beleuchtung als auch eine uniforme Beleuchtung verwendet werden, aber für das Aufnehmen von aufeinander folgenden Bildern aus einer Richtung, von der gehofft wird, dass sie die gleiche Richtung ist, kann es zu Problemen kommen, da eine oder beide der Kameras oder eine andere Einrichtung, die die Bilder und das oder die Objekte, einschließlich des oder der Targets, in der Szene aufnimmt, vibrieren oder auf andere Weise schwingen kann, was wiederum Ungenauigkeiten bei der Registrierung zwischen den beiden Bildern verursachen kann. Das Zeitintervall zwischen Zeiten, bei denen die Kamera aufeinander folgende Bilder aufnehmen kann, kann auf der Basis einer Reihe von Variablen variieren, einschließlich beispielsweise Bildgröße und Bildauflösung, Bildpufferdownloadzeit und so weiter, doch oftmals ist das Zeitintervall lang genug, dass solche Unterschiede abträgliche Effekte aufweisen. Dies kann die Genauigkeit der Operationen der Messung, Rekonstruktion und/oder anderer Operationen, die das Abbildungssystem möglicherweise ausführen muss, erheblich reduzieren.
  • Aus EP 0350957 ist eine Bildaufnahmevorrichtung bekannt, die Folgendes umfasst: Eine Beleuchtungsvorrichtung, die Licht mit der Wellenlänge λ2 zu dem Bild des Gesichts emittiert, ist um eine Linse herum vorgesehen, und eine Beleuchtungsvorrichtung, die Licht mit der Wellenlänge λ1 zu dem Bild des Gesichts emittiert, ist getrennt von einer optischen Achse der Linse vorgesehen. Das von dem Bild des Gesichts reflektierte Licht mit der Wellenlänge λ1 wird mit Hilfe eines Prismas verzweigt. Aus dem verzweigten reflektierten Licht werden eine regelmäßig reflektierte Komponente und eine diffundierte reflektierte Komponente von einem CCD-Bildaufnahmeelement detektiert, die diffundierte reflektierte Komponente wird von einem CCD-Bildaufnahmeelement detektiert, und die Differenz zwischen den detektierten Ausgaben wird durch Subtraktionsoperationsmittel berechnet, wodurch ein von der Hornhaut reflektiertes Bild erzeugt wird. Dabei wird das von dem Bild des Gesichts reflektierte Licht mit der Wellenlänge λ2 mit Hilfe eines Prismas und eines Wellenlängentrennfilms getrennt. Folglich wird die regelmäßig reflektierte Komponente abgeschnitten und die diffundierte reflektierte Komponente wird von einem CCD-Bildaufnahmeelement detektiert. Die Differenz zwischen der detektierten Ausgabe und der diffundierten reflektierten Komponente als der Ausgabe von dem CCD-Bildaufnahmeelement wird durch Subtraktionsoperationsmittel berechnet, wodurch die Pupille extrahiert wird.
  • In „Registration of Anatomic Landmarks During Respiration Using Ultraviolet and Structured Lighting" von R. Bruce Backmann et al wird eine Registrierungstechnik präsentiert, die Ultraviolett- und strukturierte Lichtabbildung vereinigt, um anatomische Landmarken zu registrieren. Die Verwendung dieser kontrastierenden Modalitäten überwindet das Problem von Markern, die das strukturierte Lichtbild stören. Auch die Idee der hierarchischen Registrierung wird eingeführt. Dies beinhaltet mehrere Ebenen der Registrierungsauflösung. Die Effektivität dieser Techniken wird in einer Studie einer Bezugsbewegung während der Atmung demonstriert.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Die Erfindung stellt neue und verbesserte Systeme und Verfahren zum genauen Ausrichten von Bildern in einem digitalen Abbildungssystem bereit.
  • Kurz zusammengefasst stellt die Erfindung ein neues digitales Abbildungssystem und -verfahren bereit, das den Ort von Ankern oder Targets in Bildern einer Szene erleichtert. Die Erfindung stellt zwei allgemeine Aspekte bereit. Bei einem allgemeinen Aspekt verwendet das digitale Abbildungssystem beispielsweise Differenzen wie etwa zwischen den Eigenschaften der Oberflächen der Targets und den Eigenschaften der Oberflächen der Objekte, die gemessen, rekonstruiert und so weiter werden sollen, um das Bereitstellen einer uniformen Beleuchtung der Targets zu erleichtern, wenn ein Satz von Bildern der Szene aufgenommen wird, wodurch Rauschen reduziert wird, zu dem es möglicherweise in Verbindung mit dem Bestimmen der Orte der Targets kommen kann, wenn sie durch strukturierte Beleuchtung beleuchtet würden, während gleichzeitig dafür gesorgt wird, dass die Objekte durch strukturierte Beleuchtung beleuchtet werden können, wenn die Bilder aufgenommen werden können. In diesem Aspekt kann das digitale Abbildungssystem die Positionen der Targets in den Bildern verwenden, um ein lokales Koordinatensystem, das mit dem Bildsatz verbunden ist, einem globalen Koordinatensystem zuzuordnen.
  • Ein zweiter allgemeiner Aspekt verwendet einen oder mehrere von mehreren Algorithmen, um die Orte von Targets in den Bildern der Szene in den jeweiligen Objekten zu bestimmen. Bei diesem Aspekt nimmt das digitale Aufnahmesystem zwei Sätze von Bildern auf, einschließlich eines Basisliniensatzes und eines Arbeitssatzes. Der Basisliniensatz wird unter Verwendung uniformer Beleuchtung aufgenommen, wobei der Basisliniensatz nur Bilder der Targets umfasst. Der Arbeitssatz wird in Verbindung von strukturierter Beleuchtung aufgenommen, wobei der Arbeitssatz Bilder sowohl der Targets als auch der Objekte umfasst. Der Arbeitssatz wird in Verbindung mit Messung, virtueller Rekonstruktion und so weiter verwendet, und ein oder mehrere der Algorithmen werden verwendet, um die wahrscheinlichen Positionen der Targets in den Bildern in dem Arbeitsbildsatz zu bestimmen und um Transformationen zwischen dem Basislinien- und Arbeitsbildsatz derart zu bestimmen, dass das mit dem Arbeitsbildsatz assoziierte lokale Koordinatensystem dem globalen Koordinatensystem zugeordnet werden kann.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird in den beigefügten Ansprüchen im Einzelnen hervorgehoben. Die obigen und weiteren Vorteile der vorliegenden Erfindung lassen sich unter Bezugnahme auf die folgende Beschreibung in Verbindung mit den beiliegenden Zeichnungen besser verstehen. Es zeigen:
  • 1 schematisch ein gemäß der Erfindung konstruiertes digitales Abbildungssystem;
  • 2 schematisch eine Kamera, die bei einer Ausführungsform des in 1 gezeigten digitalen Abbildungssystems nützlich ist; und
  • 3 bis 7 Flussdiagramme, die Operationen beschreiben, die von jeweiligen Ausführungsformen des digitalen Abbildungssystems in Verbindung mit der Erfindung durchgeführt werden.
  • AUSFÜHRLICHE BESCHREIBUNG EINER VERANSCHAULICHENDEN AUSFÜHRUNGSFORM
  • 1 stellt schematisch ein gemäß der Erfindung konstruiertes digitales Abbildungssystem 10 dar. Das digitale Abbildungssystem 10 enthält einen optischen Kopf 11, eine Ausrüstung 12 und ein Bildverarbeitungsuntersystem 13. Der optische Kopf 11 umfasst eine oder mehrere Kameras 14A, ..., 14N (allgemein durch die Bezugszahl 14n identifiziert), die Bilder einer Szene 15 aufnehmen können. Die Ausrüstung 12 ist mit einer Bewegungskapazität ausgestattet, die beispielsweise den optischen Kopf 11 relativ zu der Szene 15 parallel verschieben und/oder drehen kann, damit die den optischen Kopf 11 umfassenden Kameras 14n Sätze von Bildern der Szene 15 von mehreren Positionen und Winkelorientierungen aufnehmen können. Bei einer Ausführungsform enthalten die den optischen Kopf 11 umfassenden Kameras 14n Bilderfassungs- und -aufnahmemedien wie etwa CCD-(Charge Coupled Devices – Ladungsgekoppelte Einrichtungen) oder CMOS-(Complementary Metal-Oxide Semiconductor-)-Einrichtungen, die Bilder in elektronischer Form aufnehmen, und die Kameras 14n laden die Bilder, nachdem sie aufgenommen worden sind, zur Verarbeitung zu dem Bildverarbeitungsuntersystem 13 herunter.
  • Die von dem Bildverarbeitungsuntersystem 13 durchgeführten jeweiligen Verarbeitungsoperationen hängen von der jeweiligen Anwendung ab, für die das digitale Abbildungssystem 10 verwendet wird. Wenn beispielsweise das digitale Abbildungssystem 10 zur Messung von Elementen der Szene 15 verwendet werden soll, kann das Bildverarbeitungsuntersystem 13 Abstände zwischen Punkten auf gewählten einzelnen von mehreren Objekten, allgemein mit der Referenzzahl 16 identifiziert, in der Szene, Abstände zwischen Punkten auf Objekten 16 in der Szene und einer bestimmten Referenzebene wie etwa einem Boden und dergleichen bestimmen. Wenn analog das digitale Abbildungssystem 10 dazu verwendet werden soll, eine virtuelle dreidimensionale Rekonstruktion von einem oder mehreren der Objekte 16 in der Szene zu generieren, kann es eine derartige virtuelle Rekonstruktion unter Verwendung einer oder mehrerer einer Reihe von Techniken generieren, die dem Fachmann bekannt sind. Zusätzlich zu dem oder den Objekten 16, die gemessen, rekonstruiert und so weiter werden sollen, ist die Szene auch mit mehreren Ankerpunkten oder Targets ausgestattet, allgemein mit der Referenzzahl 17 identifiziert, deren Positionen relativ zu einem gewählten globalen Koordinatensystem bekannt sind. Wie der Fachmann versteht, wird eine virtuelle Rekonstruktion eines Bereichs einer Szene anhand eines Satzes von Bildern dieses Bereichs der Szene in Relation zu einem Koordinatensystem erfolgen, das jenem Satz von Bildern zugeordnet ist, und die Targets 17 erleichtern die Zuordnung derartiger lokaler virtueller Rekonstruktionen zu einem unitären globalen Koordinatensystem. Wenn analog die Merkmale der Objekte, die einer Messung unterzogen werden, erfordern, dass mehrere Sätze von Bildern für die Messung aufgenommen werden, müssen die Koordinaten der Merkmale nach Bestimmung unter Verwendung der jeweiligen Sätze von Bildern einem unitären globalen Koordinatensystem zugeordnet sein, damit sie gemessen werden können, und die Targets erleichtern auch diese Operation.
  • Die Szene 15 wird von einer oder mehreren Lichtquellen beleuchtet, allgemein durch die Referenzzahl 20 identifiziert. Wie unten beschrieben wird, liefern mindestens einige der Lichtquellen eine strukturierte Beleuchtung für die Szene 15. Die strukturierte Beleuchtung wird verwendet, um auf dem oder den Objekten 16 in der Szene 15 ein Muster oder eine Textur zu verleihen, was das Bildverarbeitungsuntersystem 13 dabei unterstützt, in einem Satz von Bildern, die beim Generieren einer lokalen virtuellen Rekonstruktion verwendet werden, Punkte in den Bildern in dem Satz zu identifizieren, die Bilder des gleichen Punkts in der Szene 15 sind, was beim Bestimmen ihrer Koordinaten in dem jeweiligen lokalen Koordinatensystem nützlich ist. Im Allgemeinen werden in einer Szene 15, die zusätzlich zu den Objekten 16, die einer Messung, virtuellen Rekonstruktion und dergleichen unterzogen werden sollen, Targets 17 enthält, mindestens zwei aufeinander folgende Bilder aufgenommen, eines mit einer Texturbeleuchtung, die bei der virtuellen Rekonstruktion des Objekts 16 verwendet wird, und ein anderens mit uniformer Beleuchtung, um die Targets 17 zu messen. In diesem Fall verschlechtert eine etwaige Relativbewegung zwischen dem Objekt und dem optischen Kopf, was während der Bilderfassung der beiden Bilder vorkommt, wie es oftmals in industrieller Umgebung geschieht, die Genauigkeit der globalen Messung. Der Versuch, die Targets 17 nur unter Verwendung von strukturierter Beleuchtung zu lokalisieren, führt zu einer schlechten Bestimmung des Orts der Targets, da ihre Bilder durch die Textur der strukturierten Beleuchtung verformt sind. Die Erfindung stellt mehrere Anordnungen in zwei allgemeinen Klassen bereit, die gestatten, dass das digitale Abbildungssystem 10 Bilder der Szene 15 aufnimmt, einschließlich sowohl der Objekte 16 als auch Targets 17, die durch die strukturierte Beleuchtung beleuchtet werden, während die genaue Messung des Orts von Targets 17 ermöglicht wird. Dies gestattet, dass das digitale Abbildungssystem 10 seine Messungsoperationen durchführt, virtuelle Rekonstruktionen generiert und dergleichen und ihre Positionen in dem globalen Koordinatensystem genau und mit Unempfindlichkeit gegenüber Vibrationen oder anderen Relativbewegungen zwischen dem Objekt und dem optischen Kopf bestimmt.
  • Wie oben angemerkt, stellt die Erfindung zwei allgemeine Klassen von Anordnungen bereit. Bei einer allgemeinen Klasse stellt die Erfindung einen Satz von Anordnungen bereit, die gewählte Beleuchtungs- und Bildaufnahmebedingungen verwenden, die es in Kombination mit Oberflächencharakteristiken der Targets 17 und Objekte 16 gestatten, dass die Targets 17 ohne weiteres von den Objekten 16 unterschieden werden, und die außerdem gestatten, dass das volle Target in den Bildern erfasst wird, und zwar ohne Verformung, die möglicherweise beispielsweise auf die Textur zurückzuführen ist, die auf eine für die Objekte 16 bereitgestellte strukturierte Beleuchtung zurückzuführen ist. Bei einer zweiten allgemeinen Klasse stellt die Erfindung einen Satz von Anordnungen bereit, die verschiedene Algorithmen verwenden, um Targets 17 von den Objekten 16 in den Bildern zu unterscheiden und die Positionen der Targets in den Bildern trotz der Tatsache genau zu bestimmen, dass Bilder davon aufgezeichnet werden, während sie durch strukturierte Beleuchtung beleuchtet werden. Die algorithmusbasierten Techniken können mit den Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechniken verwendet werden, doch können die algorithmusbasierten Techniken auch anstelle der Beleuchtungsbedingungs-/Oberflächencharakteristiktechniken verwendet werden, wenn keine Beleuchtungsbedingungs-/Targetoberflächencharaktieristiktechniken verwendet werden können. Digitale Abbildungssysteme, die so aufgebaut sind, dass sie eine Beleuchtungsbedingungs-/Targetoberflächentechnik gemäß der Erfindung verwenden, werden zuerst beschrieben, gefolgt von digitalen Abbildungssystemen, die so aufgebaut sind, dass sie eine algorithmische Technik gemäß der Erfindung verwenden.
  • Das digitale Abbildungssystem 10 enthält im Allgemeinen zwei Sätze von Lichtquellen, allgemein durch Referenzzahlen 20A und 20B identifiziert. Die Lichtquellen 20A sind konfiguriert, unstrukturierte uniforme Beleuchtung zu bieten. Andererseits sind Lichtquellen 20B konfiguriert, strukturierte Beleuchtung zu bieten. Gemäß einem Aspekt der Erfindung sind die Oberflächen von Targets 17 retroreflektiv und die Oberflächen von Objekten 17 sind relativ diffus. In diesem Fall ist der optische Kopf so konfiguriert, dass er die Quellen 20A nahe den Linsen der Kameras lokalisiert, und bevorzugt sind die Quellen 20A von einer Ringart, um die Retroreflexion von den Zielen effizient zu sammeln, und die Quellen 20B sind weit von den Linsen der Kamera angeordnet, damit nur ein kleiner Bruchteil oder nichts von dem von ihnen emittierten und von den retroreflektiven Targets reflektierten Licht in die Linsen der Kameras eintritt. In diesem Fall kann die Intensität der von den Lichtquellen 20A für die Targets 17 bereitgestellten unstrukturierten uniformen Beleuchtung weit geringer sein als die Intensität der durch Lichtquellen 20B für Objekte 16 bereitgestellten strukturierten Beleuchtung.
  • Da die Oberflächen der Targets 17 retroreflektierend sind, können sie die von den Lichtquellen 20A bereitgestellte, relativ schwache Beleuchtung ohne weiteres reflektieren. Da andererseits die Oberflächen von Objekten 16 im Allgemeinen relativ diffus sind, werden sie die von den Lichtquellen 20A bereitgestellte Reflexion in keinem signifikantem Ausmaß reflektieren, in Relation zu dem Ausmaß, in dem sie die strukturierte Beleuchtung reflektieren, die von den Lichtquellen 20B bereitgestellt wird, wodurch die von der strukturierten Beleuchtung gelieferte Textur beibehalten wird. In diesem Fall können die beiden Sätze von Lichtquellen 20A und 20B die Szene 15 gleichzeitig beleuchten, und die Targets 17 reflektieren die von den Lichtquellen 20A bereitgestellte unstrukturierte uniforme Beleuchtung, und so erscheinen die Targets 17 in dem von den Kameras 14n aufgenommenen Bildern uniform beleuchtet.
  • Das Bildverarbeitungsuntersystem 13 kann die Bilder sowohl für Messungsinformationen, virtuelle Rekonstruktion und so weiter von Objekten 16 verarbeiten, da sie mit strukturierter Beleuchtung beleuchtet wurden. Andererseits kann das Bildverarbeitungsuntersystem 13 das Bild verarbeiten, um den Ort von Targets 17 genau zu bestimmen, während sie mit uniformer Beleuchtung beleuchtet werden, um Ausrichtungsinformationen zu liefern, über die das lokale Koordinatensystem, das mit den Positionen der Kameras, an denen die Bilder aufgenommen wurden, verbunden ist, dem globalen Koordinatensystem zugeordnet werden kann.
  • Gemäß einem weiteren Aspekt der Erfindung sind die Oberflächen von Target 17 in der Szene 15 spektral empfindlich für Licht mit verschiedenen Wellenlängen und absorbieren und/oder reflektieren dies somit. In diesem Fall enthält das digitale Abbildungssystem 10 zwei Sätze von Lichtquellen, allgemein durch die Referenzzahlen 20A und 20B identifiziert. Die Lichtquellen 20A sind konfiguriert, um eine unstrukturierte uniforme Beleuchtung bei einer Wellenlänge bereitzustellen, die von den Oberflächen durch Targets 17 reflektiert werden. Andererseits sind die Lichtquellen 20B konfiguriert, eine strukturierte Beleuchtung bei einer Wellenlänge bereitzustellen, die von Oberflächen von Targets 17 nicht reflektiert werden. Die Objekte 16 sollten die von den Lichtquellen 20B bereitgestellte Beleuchtung reflektieren und können auch die von den Lichtquellen 20A bereitgestellte Beleuchtung reflektieren. Bevorzugt ist die Intensität der Lichtquellen 20A geringer als die Intensität der Lichtquellen 20B, oder das emittierende Spektrum von Lichtquellen 20A ist schmaler als das von Lichtquellen 20B emittierte Spektrum, um die Reflexion von Licht von Lichtquellen 20B durch Objekte 16 gegenüber der Reflexion von Licht von Lichtquellen 20A durch Objekte 16 zu dominieren.
  • Da die Targets 17 nur das von den Lichtquellen 20A emittierte uniforme Licht reflektieren und sie das von den Lichtquellen 20B emittierte strukturierte Licht nicht reflektieren, werden ihre Bilder, wie sie von Kameras 14n aufgenommen werden, uniform erscheinen und werden nicht von der strukturierten Beleuchtung verformt. Trotz der Tatsache, dass die Objekte 16 sowohl die uniforme als auch die strukturierte Beleuchtung reflektieren, werden ihre Bilder, wie durch Kameras 14n aufgenommen, texturiert erscheinen, da wie oben beschrieben die Intensität der von Lichtquellen 20A bereitgestellten Beleuchtung geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten Beleuchtung, oder alternativ ist das emittierende Spektrum der Lichtquellen 20A schmaler als das von Lichtquellen 20B emittierte Spektrum, damit die Reflexion von von den Lichtquellen 20B durch Objekte 16 kommendem Licht gegenüber der Reflexion von von Lichtquellen 20A durch Objekte 16 kommendem Licht dominiert.
  • Gemäß einem weiteren Aspekt der Erfindung enthält das digitale Abbildungssystem 10 zwei Sätze von Lichtquellen, allgemein durch Referenzzahlen 20A und 20B identifiziert. Die Lichtquellen 20A sind konfiguriert, um eine unstrukturierte uniforme Beleuchtung bei einem Wellenlängenband bereitzustellen, und andererseits sind die Lichtquellen 20B konfiguriert, eine strukturierte Beleuchtung bei einem anderen verschiedenen Wellenlängenband bereitzustellen. Die jeweiligen Kameras 14n und das Bildverarbeitungsuntersystem 13 können konfiguriert sein, zwischen den Bereichen zu unterscheiden, die die Targets 17 und die Objekte 16 umfassen. Wenn beispielsweise die von den Lichtquellen 20A bereitgestellte uniforme Beleuchtung eine Wellenlänge besitzt, die sich im roten Bereich des sichtbaren Spektrums befindet, und wenn die von den Lichtquellen 20B bereitgestellte strukturierte Beleuchtung eine Wellenlänge besitzt, die sich im blauen Bereich des sichtbaren Spektrums befindet, kann das Bildverarbeitungsuntersystem 13 getrennt in jedem Bild, wie durch eine jeweilige Kamera 14n aufgenommen, Bereiche verarbeiten, die im roten Bereich des sichtbaren Spektrums liegen, als wenn sie Bilder der Targets 17 in dem jeweiligen Bild umfassen und Bereiche, die im blauen Bereich liegen. In diesem Fall wird das blaue Bild Bilder sowohl von dem Objekt 16 als auch den Targets 17 in strukturiertem Aussehen enthalten und wird zur Messung, Rekonstruktion und so weiter des Objekts 16 verwendet, und das rote Bild wird Bilder sowohl von Objekt 16 als auch Target 17 in uniformem Aussehen enthalten. Das Bildverarbeitungsuntersystem 13 kann zwischen den Targets und dem Objekt auf der Basis mehrerer herkömmlicher Methodiken unterscheiden, einschließlich beispielsweise jenen, die auf einem Grauwert, Kanten, einer Form oder anderen Dingen basieren, wie für den Fachmann offensichtlich ist. Der Ort des Bilds von Targets 17 kann anhand der unter Verwendung von uniformer Beleuchtung aufgenommenen Bilder genau bestimmt werden. Wenngleich das obige Beispiel auf eine Beleuchtung in Wellenlängen in dem sichtbaren Spektrum Bezug nimmt, ist es außerdem offensichtlich, dass die Beleuchtung in einem beliebigen Teil des elektromagnetischen Spektrums liegen kann.
  • Als Alternative dazu, dass die Kameras 14n Bilder in Farbe aufnehmen, können die jeweiligen Kameras Bilder monochrom derart aufnehmen, dass ein Unterscheiden zwischen verschiedenen Wellenlängenbändern erleichtert wird. Eine veranschaulichende Kamera, mit der Referenzzahl 30 identifiziert, ist in 2 schematisch gezeigt. Unter Bezugnahme auf 2 enthält die Kamera 30 ein Gehäuse 31, das ein Bildaufnahmemedium 32 aufnimmt. Ein Linsensystem 33 lenkt von der Szene 15 empfangenes Licht auf eine strahlzerlegende Anordnung 34. Die strahlzerlegende Anordnung 34 wiederum zerlegt das durch den Strahl 35 repräsentierte Licht, das von dem Linsensystem 33 empfangen wird, in zwei Anteile 35A und 35B. Der Anteil 35A des Lichts von der strahlzerlegenden Anordnung 34 wird von einem Filter 36A gefiltert, der Licht in der von der Lichtquelle 20A bereitgestellten Wellenlänge durchlässt und das Licht in der von der Lichtquelle 20B bereitgestellten Wellenlänge blockiert. Der Filter 36A lenkt das dadurch durchgelassene Licht zu einem Bereich des Bildaufnahmemediums 32, durch Bezugszahl 32A identifiziert. Analog wird der Anteil 35B des Lichts von der strahizerlegenden Anordnung von einem Filter 36B gefiltert, der Licht in der von der Lichtquelle 20B bereitgestellten Wellenlänge durchlässt und das Licht in der von der Lichtquelle 20A bereitgestellten Wellenlänge blockiert. Der Filter 36B lenkt das dadurch durchgelassene Licht zu einem Bereich des Bildaufnahmemediums 32, durch Bezugszahl 32B identifiziert. Die disjunkten Bereiche 32A und 32B des Bildaufnahmemediums können von dem Bildverarbeitungsuntersystem 13 unabhängig verarbeitet werden. Das Bildverarbeitungsuntersystem 13 kann das Bild verarbeiten, das im Bereich 32B des Bildaufnahmemediums 32 aufgenommen ist, das heißt, den Bereich, der mit der strukturierten Beleuchtung verbunden ist, um Messungsinformationen, virtuelle Rekonstruktion und so weiter bereitzustellen. Andererseits kann das Bildverarbeitungsuntersystem 13 das Bild verarbeiten, das im Bereich 32A des Bildaufnahmemediums 32 aufgenommen ist, das heißt den Bereich, der mit der uniformen Beleuchtung verbunden ist, um Ausrichtungsinformationen bereitzustellen, anhand derer das lokale Koordinatensystem, das mit den Positionen der Kameras verbunden ist, bei denen die Bilder aufgenommen wurden, dem globalen Koordinatensystem zugeordnet werden kann.
  • Ein weiterer Aspekt der Erfindung, der ebenfalls in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse ist, wird in Verbindung mit 1 beschrieben. Anstatt Differenzen bei Wellenlängen des Lichts bei Reflexion von den Oberflächen der Objekte 16 und der Targets 17 zu verwenden, um zwischen den Objekten und Targets zu unterscheiden, werden bei diesem Aspekt zum Unterscheiden zwischen den Objekten 16 und Targets 17 Polarisationscharakteristiken verwendet. Die Oberflächen der Targets 17 sind konfiguriert, Licht zu reflektieren, um die Polarisation zu bewahren, wohingegen die Oberflächen von Objekten 16 bevorzugt Licht in einer Weise reflektieren, dass die Polarisation nicht bewahrt wird. Bewerkstelligt werden kann dies, indem vorgesehen wird, dass die Oberflächen von Targets 17 retroreflektierend sind, was Licht in einer derartigen Weise reflektiert, dass die Polarisation von darauf einfallender Beleuchtung bewahrt wird, und die Oberflächen von Objekten 16 sind diffus, was Licht in einer derartigen Weise reflektiert, dass die Polarisation von darauf einfallender Beleuchtung nicht bewahrt wird. Die Beleuchtung, die von den Lichtquellen 20A bereitgestellt wird, die eine uniforme Beleuchtung für die Targets 17 in der Szene 15 bereitstellen sollen, ist in einer gewählten Richtung polarisiert, beispielsweise horizontal, wohingegen die strukturierte Beleuchtung, die von den Lichtquellen 20B bereitgestellt wird, die eine Beleuchtung für die Objekte 16 bereitstellen sollen, in der orthogonalen Richtung polarisiert ist, beispielsweise vertikal. Bevorzugt ist die Intensität der von den Lichtquellen 20A bereitgestellten Beleuchtung viel geringer als die Intensität der von den Lichtquellen 20B bereitgestellten Beleuchtung.
  • Die Oberflächen von Target 17 werden von beiden Lichtquellen 20A und 20B bereitgestellte Beleuchtung reflektieren. Da die retroreflektiven Oberflächen der Targets 17 die Polarisation bewahren, wird das reflektierte Licht eine horizontale Komponente aufweisen, die der von den Lichtquellen 20A bereitgestellten uniformen Beleuchtung entspricht, und eine vertikale Komponente, die der von den Lichtquellen 20B bereitgestellten strukturierten Beleuchtung entspricht. Die Oberflächen von Objekten 16 werden auch von sowohl Lichtquellen 20A als auch 20B bereitgestellte Beleuchtung reflektieren, doch versteht sich, dass, da die Intensität der von den Lichtquellen 20A bereitgestellten uniformen Beleuchtung viel geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten strukturierten Beleuchtung, das von den Oberflächen der Objekte 16 reflektierte Licht primär die strukturierte Beleuchtung sein wird. Da jedoch die Oberflächen von Objekten 16 diffus sind, wird das von dort reflektierte Licht nicht die Polarisation des darauf einfallenden Lichts bewahren, wobei dann das reflektierte strukturierte Licht horizontale sowie eine vertikale Komponente aufweisen wird.
  • Außerdem wird jede Kamera 14n mit einem nicht separat gezeigten Polarisator vor ihrem optischen Weg versehen sein, der nur horizontal polarisiertem Licht oder horizontalen Komponenten von Licht, das nicht horizontal polarisiert ist, gestattet, in die jeweilige Kamera einzutreten und dadurch aufgenommen zu werden. Wie oben angemerkt, werden die Targets 17 die von den Lichtquellen 20A bereitgestellte uniforme Beleuchtung reflektieren, die horizontal polarisiert ist, sowie die der von den Lichtquellen 20B bereitgestellten strukturierten Beleuchtung, die vertikal polarisiert ist, in einer derartigen Weise, dass die Polarisation bewahrt wird. In jeder Kamera 14n jedoch wird der jeweilige Polarisator nur gestatten, dass die horizontal polarisierte uniforme Beleuchtung von den Targets 17 hindurch gelangt und auf dem jeweiligen Bild aufgenommen wird. Dementsprechend werden die Bilder der Targets 17 in den entsprechenden Bildern einheitlich sein, Da andererseits die Oberflächen der Objekte 16 diffus sind, bewahren sie nicht die Polarisation. Dementsprechend wird die strukturierte Beleuchtung, wie von den Objekten 16 reflektiert, sowohl eine horizontale als auch eine vertikale Komponente aufweisen, und der jeweilige Polarisator wird gestatten, dass die horizontale Komponente der strukturierten Beleuchtung zusammen mit der horizontalen Komponente der uniformen Beleuchtung wie durch die Lichtquellen 20A bereitgestellt zum Aufnehmen auf dem jeweiligen Bild hindurch gelangt. Da wie oben angemerkt die Intensität der von Lichtquellen 20A bereitgestellten uniformen Beleuchtung viel geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten strukturierten Beleuchtung, wird das Licht, wie von den Oberflächen von Objekten 16 weg reflektiert und auf dem jeweiligen Bild aufgenommen, primär strukturiert sein.
  • Nachdem die Kameras 14n die Bilder aufgenommen haben, werden sie von dem Bildverarbeitungsuntersystem 13 verarbeitet, das unter anderem die Orte der Targets 17 in den jeweiligen Bildern bestimmt. Für jedes Bild kann das Bildverarbeitungsuntersystem 13 beispielsweise eine Suchmethodik verwenden, um nach Regionen des Bildes zu suchen, die allgemein von uniformer Intensität sind, von welchen Regionen es dann bestimmen kann, dass sie Bilder der jeweiligen Targets 17 in dem jeweiligen Bild enthalten. Andererseits kann das Bildverarbeitungsuntersystem 13 bestimmen, dass Regionen des jeweiligen Bildes, die hell sind, aber nicht allgemein uniform hell sind, Bilder der Objekte 16 wie durch die strukturierte Beleuchtung beleuchtet enthalten.
  • Ein weiterer Aspekt der Erfindung, der ebenfalls in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse liegt, wird in Verbindung mit 1 beschrieben. Bei diesem Aspekt werden, anstatt zwischen den Objekten 16 und den Targets 17 in den Bildern auf der Basis der Wellenlängen oder Polarisation des Lichts, wie in den jeweiligen Bildern aufgenommen, zu unterscheiden, die Objekte 16 und Targets 17 auf der Basis ihrer Positionen unterschieden. In diesem Fall sind die Kameras 14n bevorzugt hochauflösende Kameras mit einem relativ großem Blickfeld („FOV” – Field Of View). Die Mitte des Blicks der Kameras 14n ist primär auf die Objekte 16 in der Szene 15 gerichtet. Die Targets 17 sind bevorzugt in einem gewissen Abstand von den Objekten 16 positioniert, liegen aber immer noch innerhalb des Blickfelds der Kameras 14. Die Lichtquellen 20A, die eine uniforme Beleuchtung für die Targets 17 liefern sollen, sind auf die Bereiche der Szene 15 gerichtet, in denen sich die Targets 17 befinden. Andererseits sind die Lichtquellen 20B, die die strukturierte Beleuchtung liefern sollen, auf die Bereiche der Szene 15 gerichtet, in dem sich die Objekte 16 befinden. Somit ist die uniforme Beleuchtung auf die Peripherie des Blickfelds der Kamera 14n begrenzt, wo sich die Targets 17 befinden, wohingegen die strukturierte Beleuchtung auf die Bereiche der Szene etwas von den Targets 17 entfernt begrenzt ist, in den Bereichen der Szene 15, in denen die Objekte 16 angeordnet sind. Dies wird gestatten, dass das Bildverarbeitungsuntersystem 13 die Targets 17 in der Szene 15 ohne weiteres identifiziert und ihre Positionen mit einem Minimum an Rauschen bestimmt, während weiterhin eine strukturierte Beleuchtung bereitgestellt wird, die in Verbindung mit den Operationen Messung, virtuelle Rekonstruktion und so weiter nützlich ist. Als weitere Alternative sollen die Quellen 20A für uniforme Beleuchtung auf die ganze Szene 15 gerichtet sein, die innerhalb des Blickfelds der Kameras 14n liegen, aber ihre Intensität ist viel geringer als die Intensität der Quellen 20B der strukturierten Beleuchtung, so dass Objekte 16 primär mit strukturiertem Licht beleuchtet werden.
  • Die in Verbindung mit einem beliebigen der Aspekte in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse verwendeten Lichtquellen 20 können beliebige herkömmliche Arten von Lichtquellen zum Liefern von Beleuchtung der erforderlichen Wellenlängen, Beleuchtung der erforderlichen Polarisationsrichtung(en) oder Beleuchtung mit dem erforderlichen Muster von uniformer Beleuchtung nahe der Peripherie des oder der Blickfelder der Kameras und strukturierten Beleuchtung anderweitig, jedes Merkmal in Verbindung mit dem oben erwähnten relevanten Aspekten, sein.
  • Als Alternative kann das System 10 einen computergesteuerten Mustergenerator verwenden, wie etwa einen computergesteuerten LCD-(Liquid Crystal Display – Flüssigkristallanzeige)-Mustergenerator oder DMD (Digital Micromirror Device – digitale Mikrospiegeleinrichtung) und so weiter, der konfiguriert ist, um eine uniforme Beleuchtung für die Bereiche der Szene 15 bereitzustellen, die die Targets 17 enthalten, und eine strukturierte Beleuchtung für die Bereiche der Szene 15, die die Objekte 16 enthalten. Bei dieser Alternative liefert der Mustergenerator anfänglich eine uniforme Beleuchtung über die ganze Szene 15, und die Kameras 14n werden einen Satz von Bildern der Szene 15 aufnehmen. Das Bildverarbeitungsuntersystem 13 kann auf herkömmliche Weise zwischen den Targets und Objekten auf der Basis eines Grauwerts, Randform oder anderen Methodiken unterscheiden, wie für den Fachmann offensichtlich ist. Das Bildverarbeitungsuntersystem 13 bestimmt dann die Orte der Targets 17 in der Szene 15 und versetzt den Mustergenerator in die Lage, die uniforme Beleuchtung weiterhin in Regionen der Szene 15 bereitzustellen, in denen sich die Targets befinden, und eine strukturierte Beleuchtung anderweitig innerhalb der Blickfelder der Kameras 14n bereitzustellen, wonach die Kameras 14n in die Lage versetzt sind, einen zweiten Satz von Bildern aufzunehmen. Der zweite Satz von Bildern wird die Targets 17, die durch die uniforme Beleuchtung beleuchtet werden, und die Objekte 16, die durch die strukturierte Beleuchtung beleuchtet werden, enthalten, die von dem Bildverarbeitungsuntersystem 13 wie oben beschrieben verarbeitet werden können. Die Intensitäten der uniformen Beleuchtung über die Targets und die strukturierte Beleuchtung über die anderen Bereiche der Blickfelder von Kameras 14n kann mit unterschiedlichen Pegeln erfolgen, um den Dynamikbereich des Systems effektiv zu nutzen. Es versteht sich, dass das Intervall zwischen den Zeitpunkten, bei denen der erste Satz von Bildern und der zweite Satz von Bildern von den jeweiligen Kameras 14n aufgenommen werden, nicht klein zu sein braucht, da der erste Satz von Bildern nur benötigt wird, um die Orte der Targets in der Szene 15 zu bestimmen, um den Mustergenerator für den zweiten Satz von Bildern zu steuern.
  • Ein weiterer Aspekt der Erfindung wird in Verbindung mit 1 beschrieben. Wenn eine Kamera 14n in der Lage ist, ausreichend schnell aufeinander folgende Bilder aufzunehmen, wird es möglicherweise nicht erforderlich sein, dass sie mit solchen lichtstrahlzerlegenden optischen Anordnungen versehen ist, noch dass sie Bilder in Farbe aufnimmt, und die Targets 17 und Lichtquellen brauchen keine Beleuchtung spezieller Wellenlängen oder Polarisationsrichtungen zu haben. Wenn die Kameras 14n aufeinander folgende Bilder ausreichend schnell aufnehmen können, kann jede Kamera 14n aufeinander folgende Bilder aufnehmen, wobei ein Bild so aufgenommen wird, dass die Lichtquellen 20A, aber nicht die Lichtquellen 20B, die Szene 15 beleuchten, und wobei ein anderes Bild so aufgenommen wird, dass Lichtquellen 20B, aber nicht Lichtquellen 20A, die Szene 15 beleuchten. Wenn jede Kamera 14n die aufeinander folgenden Bilder ausreichend schnell aufnehmen kann, und wenn die Lichtquellen 20A und 20B ausreichend schnell aus- und einschalten können, würde eine etwaige Bewegung der Kameras 14, der Objekte 16 und/oder der Targets 17 während des kurzen Zeitintervalls zwischen den Zeiten, zu denen die Bilder aufgenommen werden, so geringfügig sein, dass sie effektiv null ist. Bei einer Ausführungsform verwenden die Kameras 14n einen Interline-Transfer-CCD-Sensor, der ein Bild sehr schnell zu dem Bildverarbeitungsuntersystem transferieren kann. Dies gestattet der jeweiligen Kamera 14n, Bilder nacheinander mit einem sehr kurzen Zeitintervall dazwischen, in der Regel in der Größenordnung von mehreren Mikrosekunden, aufzunehmen. Da das kurze Zeitintervall zwischen aufeinander folgenden Bildern so kurz ist, wird die Amplitude einer etwaigen mechanischen Schwingung der Ausrüstung 11 oder eine Bewegung der Objekte 16 klein genug sein, dass sie ignoriert werden können.
  • Wie oben angemerkt stellt die Erfindung zwei allgemeine Klassen von Anordnung bereit, wobei die zweite allgemeine Klasse einen Satz von Anordnungen umfasst, die zum Identifizieren und Unterscheiden von Targets 17 von den Objekten 16 in den Bildern Algorithmen verwenden. Anordnungen in dem Algorithmussatz können nützlich sein, wenn beispielsweise keine Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechnik verwendet werden kann, aber die algorithmusbasierten Techniken zusammen mit den Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechniken verwendet werden können.
  • Allen Techniken in der Algorithmusklasse ist gemein, dass die Kameras 14n in dem digitalen Abbildungssystem 10 anfänglich zwei Sätze von Bildern aufnehmen, nämlich einen Satz von Basislinienbildern und einen Satz von Arbeitsbildern. Wenn der Satz von Basislinienbildern aufgenommen wird, beleuchten die Lichtquellen 20 die Targets 17 mit uniformer Beleuchtung. Die Objekte 16 werden entweder nicht beleuchtet oder das System ist in einer derartigen Weise konfiguriert, dass die Targets 17 hinsichtlich ihrer Antwort überlegen sind. Da die Objekte 16 für den Basislinienbildsatz nicht beleuchtet werden, oder sie, wenn sie beleuchtet werden, so beleuchtet und aufgenommen werden, dass ihre Empfindlichkeit vernachlässigbar ist, werden Bilder davon nicht in dem Basislinienbildsatz aufgenommen. Da jedoch die Targets 17 uniform beleuchtet werden, können die Orte ihrer Bilder in jedem der Basislinienbilder in dem Basislinienbildsatz genau bestimmt werden, und so können auch ihre Orte relativ zu dem lokalen Koordinatensystem genau bestimmt werden. Für den Arbeitsbildsatz beleuchten die Lichtquellen 20 die Szene 15, einschließlich sowohl der Targets 17 als auch der Objekte 16, unter Verwendung von strukturierter Beleuchtung, die wie oben angemerkt in das Bestimmen der Orte der Targets 17 in dem jeweiligen Arbeitsbild Rauschen einführen kann. Das Bildverarbeitungsuntersystem 13 wird die Arbeitsbilder in Verbindung mit Messung, Generierung einer virtuellen Rekonstruktion und dergleichen in dem lokalen Koordinatensystem auf herkömmliche Weise verwenden. Da andererseits die Bilder der Targets 17 in den Arbeitsbildern aufgrund der strukturierten Beleuchtung im Allgemeinen verformt sind, wird das Bildverarbeitungsuntersystem 13 die Bilder der Targets 17 in den Basislinienbildern verwenden, um ein lokales Koordinatensystem auf herkömmliche Weise dem globalen Koordinatensystem zuzuordnen, vorausgesetzt das lokale Koordinatensystem der Arbeitsbilder und das lokale Koordinatensystem der Basislinienbilder sind die gleichen. Da jedoch das mit den Basislinienbildern verbundene lokale Koordinatensystem geringfügig von dem lokalen Koordinatensystem für die Targets, wie in den Arbeitsbildern aufgenommen, differieren kann, verwendet das Bildverarbeitungsuntersystem 13 eine oder mehrere der algorithmischen Techniken, die unten beschrieben werden, um die Bilder der Targets, wie in den jeweiligen Arbeitsbildern aufgenommen, zu lokalisieren und eine Transformation zu generieren, die das oder die mit den Basislinienbildern verbundenen lokalen Koordinatensysteme und das oder die mit den Arbeitsbildern verbundenen lokalen Koordinatensysteme zuordnet. Diese Transformation kann wiederum dazu verwendet werden, die Transformation zwischen dem mit den Arbeitsbildern verbundenen lokalen Koordinatensystem und dem globalen Koordinatensystem zu bestimmen.
  • Bevorzugt nehmen die Kameras 14n die Basislinienbilder und die verbundenen Arbeitsbilder innerhalb eines relativ kurzen Zeitintervalls auf, so dass die Transformation zwischen den damit verbundenen lokalen Koordinatensystemen relativ klein ist. Wenn ein Basislinienbild und das verbundene Arbeitsbild innerhalb eines relativ kurzen Zeitintervalls aufgenommen werden, werden sich außerdem die Targets 17 in den beiden Bildern ungefähr an den gleichen Orten befinden. Die Targets 17 befinden sich jedoch möglicherweise nicht präzise an den gleichen Orten, da eine gewisse Bewegung, Schwingung und dergleichen durch das digitale Abbildungssystem 10 und/oder die Objekte 16 und Targets 17 in der Szene 15 während des Zeitintervalls vorgelegen haben kann. Die Transformation(en) wie zwischen den Basislinienbildern in dem Basislinienbildsatz und den verbundenen Arbeitsbildern in dem Arbeitsbildsatz berücksichtigen eine derartige Bewegung.
  • Beim Bestimmen der Transformation wie zwischen jedem Arbeitsbild und dem verbundenen Basislinienbild verwendet das Bildverarbeitungsuntersystem 13 eine oder mehrere von mehreren algorithmischen Techniken in dem Versuch, die genauen Positionen der Bilder der Targets in dem Basislinienbild zu lokalisieren und die Relationen zwischen den Positionen der Targets 17 wie zwischen dem Basislinienbild und dem Arbeitsbild zu bestimmen. Gemäß allen Techniken in der algorithmischen Klasse bestimmt das Bildverarbeitungsuntersystem 13 nach dem Lokalisieren der Targets 17 in dem Basislinienbild Masken von Regionen in dem Arbeitsbild nahe dem gleichen relativen Ort wie die Bilder der jeweiligen Targets in dem Basislinienbild. Bei dieser Operation verwendet das Bildverarbeitungsuntersystem 13 das Basislinienbild eines Paars Basislinienbild-Arbeitsbild zum Generieren einer durch die Bilder der Targets in dem Basislinienbild definierten Maske. Jedes Element der Maske ist auf ein jeweiliges Target zentriert und weist eine Größe auf, die ein gewähltes Verhältnis zu der Größe des jeweiligen Targets ist. Die Maske wird zum Definieren von Regionen des Arbeitsbilds verwendet, die unter Verwendung einer beliebigen der Techniken in der Algorithmusklasse verarbeitet werden, weshalb die Größen der Maskenelemente derart sein werden, dass sie bevorzugt die Bilder der Targets 17 in dem Arbeitsbild enthalten, aber Bilder der Objekte 16 in dem Arbeitsbild ausschließen.
  • Gemäß einem Aspekt der algorithmischen Klasse umfassen beide Bilder Pixel, und das Bildverarbeitungsuntersystem 13 kann nach dem Lokalisieren der die Bilder der Targets 17 in dem Basislinienbild umfassenden Pixel eine pixelweise Korrelation zwischen dem Arbeitsbild und dem Basislinienbild durchführen, wodurch ihre relativen Positionen in den entsprechenden Bildern bestimmt werden. Nachdem das Bildverarbeitungsuntersystem 13 die Positionen der Targets 17 in den Basislinienbild- und Arbeitsbildern identifiziert hat, kann es die Transformation dazwischen auf herkömmliche Weise bestimmen.
  • Gemäß einem weiteren Aspekt der Techniken in der algorithmischen Klasse führt das Bildverarbeitungsuntersystem 13 in einer Region des Arbeitsbildes nahe dem gleichen relativen Ort wie das Bild des jeweiligen Targets in dem Basislinienbild eine Anpassung der kleinsten Quadrate durch. Nach dem Bestimmen von Orten der Targets in dem Satz von Arbeitsbildern verwendet das Bildverarbeitungsuntersystem 13 jene Orte und die Orte der jeweiligen Targets in den Basislinienbildern, um die Transformation zwischen den Arbeits- und Basislinienbildern zu bestimmen.
  • Gemäß noch einem weiteren Aspekt der Techniken in der algorithmischen Klasse detektiert das Bildverarbeitungsuntersystem 13 Ränder der Bilder der Targets in dem Basislinienbild und sucht nach einer Korrelation zwischen den Rändern der Bilder der jeweiligen Targets 17 in jedem Basislinienbild und Rändern oder Bereichen von Rändern der Bilder der jeweiligen Targets 17 in dem jeweiligen Arbeitsbild. Das Bildverarbeitungsuntersystem 13 wird für das Bild jedes Targets 17 in dem Basislinienbild anfänglich die Kontur des Randes in dem Basislinienbild bestimmen. Das Bildverarbeitungsuntersystem 13 führt danach eine pixelweise Suche in dem Arbeitsbild nach dem Rand des Bildes in dem Arbeitsbild durch. Nach dem Bestimmen von Orten der Targets in dem Satz von Arbeitsbildern verwendet das Bildverarbeitungsuntersystem 13 jene Orte und die Orte der jeweiligen Targets in den Basislinienbildern, um die Transformation zwischen den Arbeits- und Basislinienbildern zu bestimmen.
  • Gemäß noch einem weiteren Aspekt der Techniken in der algorithmischen Klasse verwendet das Bildverarbeitungsuntersystem 13 eine Entfernungstransformationstechnik. Bei dieser Technik lokalisiert das Bildverarbeitungsuntersystem 13 anfänglich die Bilder der Targets 17 in dem Arbeitsbild, wobei es jede zweckmäßige Methodik verwendet, einschließlich beispielsweise eine oben beschriebene Suchtechnik. Danach verarbeitet das Bildverarbeitungsuntersystem 13 das Arbeitsbild, um die kleinste Entfernung jedes Pixels in dem Arbeitsbild von einem den Rand des Bildes eines Targets 17 umfassenden Pixel zu bestimmen, wodurch ein neues Bild hergestellt wird. Das neue Bild wird in Regionen, in denen Merkmale des Basislinienbildes relativ nahe an Merkmalen in dem Arbeitsbild liegen, relativ dunkel sein. Da in dem Basislinienbild die einzigen Merkmale Bilder der Targets 17 sind und da Bilder der Targets 17 sowohl in dem Basislinienbild als auch im Arbeitsbild sich allgemein an ungefähr den gleichen Positionen in den beiden Bildern befinden werden, ist es wahrscheinlicher, dass das neue Bild in Bereichen, die nahe bei den Orten der Bilder der jeweiligen Targets in den Arbeits- und Basislinienbildern liegen, relativ hell sind, und in Bereichen des neuen Bildes, die den Orten der Bilder der Objekte 16 in dem Arbeitsbild entsprechen, nicht relativ hell sind. Das Bildverarbeitungsuntersystem 13 generiert dann die Transformation zum Zuordnen des Arbeitsbildes und des Basislinienbildes unter Verwendung des neuen „Entfernungskarten"-Bildes anstatt des Arbeitsbildes.
  • Ein weiterer Aspekt der Techniken in der algorithmischen Klasse nutzt die Tatsache, dass bei einer Ausführungsform die Targets 17 bei Betrachtung aus einer Richtung orthogonal zu einer Oberfläche allgemein kreisförmig oder elliptisch sind. Wenn ein Target betrachtet oder ein Bild des Targets aufgenommen wird, und zwar aus einer Richtung, die nicht orthogonal zu der kreisförmigen Oberfläche ist, wird außerdem das Target als eine Ellipse erscheinen. Deshalb nutzt bei dieser Technik das Bildverarbeitungsuntersystem 13 eine Formanpassungstechnik, um die Kontur(en) des Bildes oder der Bilder des oder der Targets in dem Basislinienbild zu bestimmen. Bei dieser Technik verarbeitet das Bildverarbeitungsuntersystem 13 anfänglich das Basislinienbild, um eine Form für jedes Bild eines Targets in dem Basislinienbild zu bestimmen. Danach verwendet das Bildverarbeitungsuntersystem 13 den Rand des Bildes des entsprechenden Targets in dem Arbeitsbild und versucht, den Ort in dem Arbeitsbild zu finden, der die beste Anpassung für die zuvor generierte Form liefert. Beim Finden des Orts, der die beste Anpassung liefert, bestimmt das Bildverarbeitungsuntersystem 13 den Ort, für den der Rand des Bildes des Targets 17 am besten der oben erwähnten Form entspricht. Der Ort in dem Arbeitsbild, der die beste Anpassung für die Form bereitstellt, wird als der Ort des Bildes des Targets in dem Arbeitsbild erachtet. Das Bildverarbeitungsuntersystem 13 kann die Stelle des Bildes jedes Targets 17 in jedem des Arbeitsbilds in der gleichen Weise bestimmen und verwendet die Orte nach Bestimmung sowohl in den Basislinien- als auch Arbeitsbildern zum Bestimmen der Transformation dazwischen. Es versteht sich, dass, wenn die Oberflächen der Targets eine andere Form aufweisen, wie etwa kreisförmig, rechteckig oder elliptisch, das Bildverarbeitungsuntersystem 13 eine ähnliche Operation durchführen kann, um die Form des kleinsten, beispielsweise vierseitigen in dem Basislinienbild zu bestimmen, das das Target umgibt, und führt danach entsprechende Operationen in Verbindung mit dem Arbeitsbild durch.
  • Da die Bilder von Targets durch die strukturierte Beleuchtung, die beim Aufnehmen bereitgestellt wurde, möglicherweise in den Arbeitsbildern verformt sein können, fehlen möglicherweise einige Bereiche der Bilder der Targets oder der Ränder der Bilder der Targets in den Arbeitsbildern. Nachdem das Bildverarbeitungsuntersystem 13 den Rand des Bildes des entsprechenden Targets 17 in dem Arbeitsbild lokalisiert, kann eine weitere Ausführungsform der algorithmischen Klasse einen Gewichtungswert generieren, der das Ausmaß darstellt, in dem sich die Konturen der Ränder in den beiden Bildern entsprechen. Wenn dementsprechend der Rand des Bildes oder das Bild selbst des Targets 17 in dem Arbeitsbild nicht durch die strukturierte Beleuchtung übermäßig verformt ist, wird der Gewichtungswert relativ hoch sein, wohingegen, wenn der Rand des Bildes übermäßig verformt ist, der Gewichtungswert relativ niedrig liegen wird. Das Bildverarbeitungsuntersystem 13 wird dann die Bilder der Targets in den Arbeits- und Basislinienbildern, mit den dafür generierten jeweiligen Gewichtungswerten gewichtet, zum Bestimmen der Transformation dazwischen verwenden. Diese Transformation, zwischen den Targetbildern in den Basislinien- und Arbeitsbildsätzen berechnet, ist eine affine Transformation und eindeutig, weil sie die starre Bewegung aller Targets in der Szene berücksichtigt, und keine separate Transformation für jedes Target.
  • 3 bis 7 zeigen Flussdiagramme von Operationen, die von dem Bildverarbeitungsuntersystem 13 in Verbindung mit den oben beschriebenen Techniken durchgeführt werden. Da die Operationen aus der obigen Beschreibung offensichtlich sind, werden die Flussdiagramme hierin nicht weiter beschrieben.
  • Die Erfindung stellt eine Reihe von Vorteilen bereit. Die Erfindung stellt insbesondere eine Reihe von Anordnungen bereit, die das Aufnehmen von Bildern von Objekten 16 und Targets 17 in einer Szene 15 gestatten, wobei eine strukturierte Beleuchtung für die Objekte 16 bereitgestellt wird und dabei Rauschen in Verbindung mit den Positionen der Targets in den Bildern, das aus der Verwendung von strukturierter Beleuchtung entstehen kann, reduziert oder eliminiert wird.
  • Wenngleich das Bildverarbeitungsuntersystem so beschrieben worden ist, dass es eine Transformation zwischen dem Arbeits- und Basislinienbildsatz generiert, was zum Transformieren des mit dem Arbeitsbildsatz verbundenen lokalen Koordinatensystems in das globale Koordinatensystem verwendet werden kann, versteht sich, dass das Bildverarbeitungsuntersystem stattdessen die Orte der Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, nach Bestimmung unter Verwendung des Basislinienbildsatzes, verwenden kann, um eine Transformation direkt zwischen dem mit dem Arbeitsbildsatz verbundenen lokalen Koordinatensystem und dem globalen Koordinatensystem zu bestimmen.
  • Es versteht sich, dass ein System gemäß der Erfindung ganz oder teilweise aus Spezialhardware oder einem Allzweckcomputersystem oder in einer beliebigen Kombination davon aufgebaut werden kann, wobei ein beliebiger Abschnitt davon durch ein geeignetes Programm gesteuert werden kann. Jedes Programm kann ganz oder teilweise auf herkömmliche Weise Teil des Systems sein oder darauf gespeichert sein, oder es kann ganz oder teilweise über ein Netz oder einen anderen Mechanismus zum Transferieren von Informationen auf herkömmliche Weise in dem System bereitgestellt sein. Außerdem versteht sich, dass das System mit Hilfe von Informationen betrieben und/oder anderweitig gesteuert werden kann, die von einem Operator unter Verwendung von nicht gezeigten Operatoreingabeelementen, die direkt an das System angeschlossen sein können oder die die Informationen an das System über ein Netz oder einen anderen Mechanismus zum Transferieren von Informationen auf herkömmliche Weise transferieren können, bereitgestellt werden.
  • 1
  • 10
    bildverarbeitungsuntersystem 13
  • 3
  • Korrelationsmethodik
  • 100
    Basislinien- und Arbeitsbildsatz aufnehmen
    101
    Bilder indem Basislinienbildsatz analysieren, um Orte der Targets darin zu identifizieren
    102
    Generieren einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
    103
    Unter Verwendung der Masken, Durchführen einer Korrelationsoperation zwischen den jeweiligen Masken der Arbeits- und Basislinienbildsätze in Verbindung mit jedem Targetbild, um den Ort des Bildes jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, zu bestimmen
    104
    Verwenden der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen einer beschränkten Transformation dazwischen.
  • 4
  • Methodik der kleinsten Quadrate
  • 110
    Basislinien- und Arbeitsbildsatz aufnehmen
    111
    Bilder in dem Basislinienbildsatz analysieren, um Orte der Targets darin zu identifizieren
    112
    Generieren einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
    113
    Unter Verwendung der Masken, Durchführen einer Operation der Anpassung der kleinsten Quadrate zwischen den jeweiligen Masken der Arbeits- und Basislinienbildsätze in Verbindung mit jedem Targetbild, um den Ort des Bildes jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, zu bestimmen
    114
    Verwenden der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen einer beschränkten Transformation dazwischen.
  • 5
  • Randsuchmethodik
  • 120
    Basislinien- und Arbeitsbildsatz aufnehmen
    121
    Bilder in dem Basislinienbildsatz analysieren, um Orte der Targets darin zu identifizieren
    122
    Generieren einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
    123
    Unter Verwendung der Masken, Durchführen einer Suchoperation für einen Rand oder mehrere Ränder jedes Targetbildes in jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt von einer Korrelationsoperation zwischen Rändern innerhalb der jeweiligen Masken der Arbeits- und Basislinienbildsätze, um den Ort des Bildes jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, zu bestimmen
    124
    Verwenden der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen einer beschränkten Transformation dazwischen.
  • 6
  • Entfernungstransformationsmethodik
  • 130
    Basislinien- und Arbeitsbildsatz aufnehmen
    131
    Bilder in dem Basislinienbildsatz analysieren, um Orte der Targets darin zu identifizieren
    132
    Generieren einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
    133
    Unter Verwendung der Masken, Durchführen einer Suchoperation für einen Rand oder mehrere Ränder jedes Targetbildes in den jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt von einer Entfernungstransformationsoperation zwischen den Rändern innerhalb der jeweiligen Masken der Arbeits- und Basislinienbildsätze, um den Ort des Bildes jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, zu bestimmen
    134
    Verwenden der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen einer beschränkten Transformation dazwischen.
  • 7
  • Formsuchmethodik
  • 140
    Basislinien- und Arbeitsbildsatz aufnehmen
    141
    Bilder in dem Basislinienbildsatz analysieren, um Orte der Targets darin zu identifizieren
    142
    Generieren einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
    143
    Unter Verwendung der Masken, Durchführen einer Suchoperation für einen Rand oder mehrere Ränder jedes Targetbildes in den jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt durch Formberechnung der Targetbildkontur in dem Basislinienbildsatz und dem nachfolgenden Durchführen einer Operation der besten Anpassung zwischen dem Rand des Targetbildes in dem Arbeitsbildsatz an die berechnete Form in dem Basislinienbildsatz, um den Ort des Bildes jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen, zu bestimmen
    144
    Verwenden der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen einer beschränkten Transformation dazwischen.

Claims (27)

  1. Digitales Abbildungssystem (10), umfassend: A. eine Bildaufnahmeeinrichtung (11), konfiguriert um zumindest ein Bild einer Szene (15) aufzunehmen, wobei die Szene zumindest ein Objekt (16) und zumindest ein Target (17) umfasst; B. eine Szenenbeleuchtungsanordnung (20), konfiguriert um die Szene (15) gleichzeitig mit strukturierter Beleuchtung und mit uniformer Beleuchtung zu beleuchten, wobei die Szenenbeleuchtungsanordnung konfiguriert ist, um die Szene (15) zu beleuchten, um Disambiguierung zwischen dem zumindest einen Objekt (16) und dem zumindest einen Target (17) zu erleichtern; C. ein Bildverarbeitungsuntersystem (13), konfiguriert, um das zumindest eine Bild zu verarbeiten, um Messung oder virtuelle Rekonstruktion des zumindest einen Objektes (16) zu bieten, unterstützt dadurch, dass das zumindest eine Objekt (16) durch die strukturierte Beleuchtung beleuchtet wird, wobei das Bildverarbeitungsuntersystem (13) außerdem konfiguriert ist, um das zumindest eine Bild zu verarbeiten, um einen Ort von dem Bild von dem zumindest einen Target (17) in dem zumindest einen Bild zu identifizieren, unterstützt dadurch, dass das zumindest eine Target (17) mittels der uniformen Beleuchtung beleuchtet wird, um dadurch die Zuordnung eines lokalen Koordinatensystems, das mit dem Ort verbunden ist, von welchem die Bildaufnahmeeinrichtung das zumindest eine Bild der Szene (15) aufgenommen hat, zu einem globalen Koordinatensystem zu erleichtern.
  2. Digitales Abbildungssystem gemäß Anspruch 1, in welchem A. das zumindest eine Target eine Oberfläche aufweist, die konfiguriert ist, um Licht einer gewählten Wellenlänge zu reflektieren; B. die Szenenbeleuchtungsanordnung konfiguriert ist, um die Szene mit Beleuchtung der gewählten Wellenlänge zu beleuchten; und C. das Bildverarbeitungsuntersystem konfiguriert ist, um den Ort des Bildes von dem zumindest einen Target als den Ort in dem zumindest einen Bild einer Region zu identifizieren, die das Bild aus Licht der von der Oberfläche des zumindest einen Targets reflektierten Wellenlänge repräsentiert.
  3. Digitales Abbildungssystem gemäß Anspruch 2, wobei die uniforme Beleuchtung uniformes Licht der gewählten Wellenlänge umfasst.
  4. Digitales Abbildungssystem gemäß Anspruch 3, in welchem die gewählte Wellenlänge ein Band aus Wellenlängen umfasst.
  5. Digitales Abbildungssystem gemäß Anspruch 2, wobei die strukturierte Beleuchtung Beleuchtung bei einer weiteren Wellenlänge umfasst, die nicht durch das zumindest ein Target reflektiert wird.
  6. Digitales Abbildungssystem gemäß Anspruch 5, in welchem die weitere Wellenlänge ein Wellenlängenband umfasst, wobei das Wellenlängenband und die gewählte Wellenlänge disjunkt sind.
  7. Digitales Abbildungssystem gemäß Anspruch 1, in welchem A. das zumindest eine Target eine Oberfläche aufweist, die konfiguriert ist, um Licht einer gewählten Wellenlänge zu reflektieren; B. die Szenenbeleuchtungsanordnung konfiguriert ist, um die Szene mit der uniformen Beleuchtung bei der gewählten Wellenlänge zu beleuchten und mit der strukturierten Beleuchtung bei zumindest bei einer anderen Wellenlänge; und C. C. die Bildaufnahmeeinrichtung konfiguriert ist, um zwei Bilder aufzunehmen, i. wobei eines der Bilder ein Bild umfasst, das aufgenommen ist, während die Szenenbeleuchtungsanordnung die Szene mit Licht der gewählten Wellenlänge beleuchtet; und ii. wobei das andere der Bilder ein Bild umfasst, das aufgenommen ist, während die Szenenbeleuchtungsanordnung die Szene mit Licht der zumindest einen anderen Wellenlänge beleuchtet.
  8. Digitales Abbildungssystem gemäß Anspruch 7, in welchem die Bildaufnahmeeinrichtung eine Strahlzerlegungsanordnung aufweist, konfiguriert, um dahin von der Szene reflektiertes Licht in zwei Anteile zu teilen, und zwei Filter, von denen jeder Licht von einer der jeweiligen Wellenlängen gestattet, zu einem Bildaufnahmemedium hindurchzugelangen.
  9. Digitales Abbildungssystem gemäß Anspruch 1, in welchem A. die Szenenbeleuchtungsanordnung konfiguriert ist, um die Szene mit Beleuchtung zu beleuchten, die jeweils gewählte Polarisationsrichtungen aufweist, wobei die uniforme Beleuchtung eine Polarisationsrichtung besitzt und die strukturierte Beleuchtung die andere Polarisationsrichtung besitzt; B. das zumindest eine Target eine Oberfläche aufweist, konfiguriert um darauf eintreffende Beleuchtung in einer Weise zu reflektieren, um die Polarisationsrichtung zu bewahren, und wobei das zumindest eine Objekt eine Oberfläche aufweist, konfiguriert, um die darauf eintreffende Beleuchtung auf eine Weise zu reflektieren, um die Polarisationsrichtung nicht zu erhalten; C. die Bildaufnahmeeinrichtung konfiguriert ist, um ein Bild der Szene so aufzunehmen, dass das Bild von dem zumindest einen Target auf dessen Oberfläche eintreffende uniforme Beleuchtung reflektiert; und D. das Bildverarbeitungssubsystem konfiguriert ist, um den Ort des Bildes von dem zumindest einen Target zu identifizieren in Relation zu der Uniformität des Bildes davon, wie durch die Bildaufnahmeeinrichtung auf genommen.
  10. Digitales Abbildungssystem gemäß Anspruch 9, in welchem A. die Szenenbeleuchtungsanordnung konfiguriert ist, um die Szene so zu beleuchten, dass die uniforme Beleuchtung in einer ersten ausgewählten Richtung polarisiert ist und die strukturierte Beleuchtung in einer zweiten ausgewählten Richtung, die zu der ersten ausgewählten Richtung senkrecht ist, polarisiert ist; und B. Die Bildaufnahmeeinrichtung mit einer Polarisationsanordnung versehen ist, konfiguriert, um Beleuchtung der ersten ausgewählten Richtung zu einem Bildaufnahmemedium hindurchzulassen, dabei gewährleistend, dass von der Oberfläche des zumindest einen Targets reflektierte strukturierte Beleuchtung nicht in dem mittels des Bildaufnahmemediums aufgenommenen Bild dargestellt wird.
  11. Digitales Abbildungssystem gemäß Anspruch 1, in welchem A. das zumindest eine Target in einer Position in der Szene angeordnet ist, die von der Position des zumindest einen Objekts verlagert ist; B. die Szenenbeleuchtungsanordnung konfiguriert ist, um die uniforme Beleuchtung in zumindest einer Region der Szene bereitzustellen, in welcher das zumindest eine Target angeordnet ist, und die strukturierte Beleuchtung zumindest einem Bereich der Szene, in welcher das zumindest eine Objekt angeordnet ist; und C. das Bildverarbeitungsuntersystem konfiguriert ist, um den Ort des Bildes des zumindest einen Targets in Relation zu der Uniformität des Bildes davon, wie mittels der Bildaufnahmeeinrichtung aufgenommen, zu identifizieren.
  12. Digitales Abbildungssystem gemäß Anspruch 11, in welchem das Bildverarbeitungsuntersystem konfiguriert ist, um (1) die Szenenbeleuchtungsanordnung in die Lage zu versetzen, die Szene mittels uniformer Beleuchtung zu beleuchten, und die Bildaufnahmeeinrichtung in die Lage zu versetzen, ein erstes Bild der Szene aufzunehmen, und das erste Bild zu verwenden, um den Ort des zumindest einen Targets in der Szene zu bestimmen; und (ii) danach die Szenenbeleuchtungsanordnung in die Lage zu versetzen, den Bereich der Szene, bei welchem das zumindest eine Target angeordnet ist, mittels uniformer Beleuchtung zu beleuchten, und zumindest einen anderen Bereich der Szene mit strukturierter Beleuchtung zu beleuchter, und um die Bildaufnahmeeinrichtung zu befähigen, ein zweites Bild der Szene aufzunehmen, und um das zweite Bild zu verwenden, um den Ort des zumindest einen Targets in der Szene zu bestimmen, um dadurch die Zuordnung des lokalen Koordinatensystems, das mit dem Ort, von welchem die Bildaufnahmeeinrichtung das zweite Bild der Szene aufgenommen hat, verbunden ist, zu dem globalen Koordinatensystem zu erleichtern.
  13. Digitales Abbildungssystem gemäß Anspruch 12, in dem die Szenenbeleuchtungsanordnung einen Mustergenerator aufweist, konfiguriert, um selektiv uniforme Beleuchtung für zumindest einen Bereich der Szene and strukturierte Beleuchtung für zumindest einen zweiten Bereich der Szene zu generieren.
  14. Digitales Abbildungsverfahren, umfassend die Schritte: A. Beleuchtung einer Szene (15) gleichzeitig mit strukturierter Beleuchtung und mit uniformer Beleuchtung, wobei die Szene (15) zumindest ein Objekt (16) und zumindest ein Target (17) umfasst, auf eine Weise, um Disambiguierung zwischen dem zumindest einen Objekt (16) und dem zumindest einen Target (17) zu erleichtern; B. Aufnehmen von zumindest einem Bild der Szene (15); und C. Verarbeitung des zumindest einen Bildes, um Messung oder virtuelle Rekonstruktion des zumindest einen Objekts (16) zu besorgen, unterstützt dadurch, dass das zumindest eine Objekt (16) mittels der strukturierten Beleuchtung beleuchtet wird, und Verarbeitung des zumindest einen Bildes, um einen Ort des Bildes des zumindest einen Targets (17) in dem zumindest einen Bild zu identifizieren, unterstützt dadurch, dass das zumindest eine Target (17) mittels der uniformen Beleuchtung beleuchtet wird, um dadurch die Zuordnung eines lokalen Koordinatensystems, das mit dem Ort, von welchem die Bildaufnahmeeinrichtung das zumindest eine Bild der Szene (15) aufgenommen hat, verbunden ist, zu einem globalen Koordinatensystem zu erleichtern.
  15. Digitales Abbildungsverfahren gemäß Anspruch 14, in welchem A. das zumindest eine Target eine Oberfläche aufweist, die konfiguriert ist, um Licht einer gewählten Wellenlänge zu reflektieren; B. der Szenenbeleuchtungsschritt den Schritt der Beleuchtung der Szene mit Beleuchtung der gewählten Wellenlänge beinhaltet; und C. der Bildverarbeitungsschritt den Schritt beinhaltet der Identifizierung des Ortes von dem Bild von dem zumindest einen Target als den Ort in dem zumindest einen Bild von einer Region, welche das Bild von Licht der von der Oberfläche des zumindest einen Targets reflektierten Wellenlänge repräsentiert.
  16. Digitales Abbildungsverfahren gemäß Anspruch 15, in welchem in dem Szenenbeleuchtungsschritt das uniforme Licht von der gewählten Wellenlänge ist.
  17. Digitales Abbildungsverfahren gemäß Anspruch 16, in welchem die gewählte Wellenlänge ein Wellenlängenband umfasst.
  18. Digitales Abbildungsverfahren gemäß Anspruch 15, in welchem in dem Szenenbeleuchtungsschritt die strukturierte Beleuchtung bei einer weiteren Wellenlänge, die nicht von dem zumindest einen Target reflektiert wird, stattfindet.
  19. Digitales Abbildungsverfahren gemäß Anspruch 18, in welchem die weitere Wellenlänge ein Wellenlängenband umfasst, wobei das Wellenlängenband und die ausgewählte Wellenlänge disjunkt sind.
  20. Digitales Abbildungsverfahren gemäß Anspruch 14, in welchem jedes von dem zumindest einen Objekt und dem zumindest einen Target eine Oberfläche aufweist, konfiguriert, um Licht der jeweils gewählten Wellenlängen zu reflektieren, A. wobei der Szenenbeleuchtungsschritt den Schritt der Beleuchtung der Szene mit Beleuchtung der jeweils gewählten Wellenlängen beinhaltet; und B. der Bildverarbeitungsschritt den Schritt beinhaltet der Identifizierung des Ortes von dem Bild von dem zumindest einen Target als den Ort in dem zumindest einen Bild von einer Region, die das Bild aus Licht der von der Oberfläche des zumindest einen Targets reflektierten Wellenlänge repräsentiert.
  21. Digitales Abbildungsverfahren gemäß Anspruch 14, in welchem jedes von dem zumindest einen Objekt und zumindest einen Target eine Oberfläche aufweist, konfiguriert, um Licht der jeweils gewählten Wellenlängen zu reflektieren; A. wobei der Szenenbeleuchtungsschritt den Schritt der Beleuchtung der Szene mit Beleuchtung der jeweils gewählten Wellenlängen beinhaltet, und B. der Bildverarbeitungsschritt den Schritt beinhaltet der Aufnahme zweier Bilder, i. wobei eines dieser Bilder ein Bild aus Licht bei der Wellenlänge, für welche die Oberfläche des Targets reflektierend konfiguriert ist, umfasst, und ii. das andere dieser Bilder ein Bild bei der Wellenlänge, für welche die Oberfläche des Objektes reflektierend konfiguriert ist, umfasst.
  22. Digitales Abbildungsverfahren gemäß Anspruch 21, in welchem der Bildaufnahmeschritt die Schritte beinhaltet: A. Teilung des von der Szene reflektierten Lichts in zwei Anteile, und B. Filterung jedes Anteils auf solche Weise, um Licht von einer der jeweiligen Wellenlängen zu gestatten, zu einem Bildaufnahmemedium hindurchzugelangen.
  23. Digitales Abbildungsverfahren gemäß Anspruch 14, in welchem das zumindest eine Target eine Oberfläche aufweist, die konfiguriert ist, um darauf einfallende Beleuchtung in einer solchen Weise zu reflektieren, um die Polarisationsrichtung zu erhalten, und in welchem das zumindest eine Objekt eine Oberfläche aufweist, die konfiguriert ist, um darauf einfallende Beleuchtung in einer solchen Weise zu reflektieren, um die Polarisationsrichtung nicht zu bewahren, A. wobei der Szenenbeleuchtungsschritt den Schritt beinhaltet der Beleuchtung der Szene mit Beleuchtung, welche entsprechend gewählte Polarisationsrichtungen aufweist, wobei die uniforme Beleuchtung eine Polarisationsrichtung aufweist und die strukturierte Beleuchtung die andere Polarisationsrichtung aufweist; B. wobei der Bildaufnahmeschritt den Schritt beinhaltet der Aufnahme eines Bildes von der Szene, so dass das Bild von dem zumindest einen Target auf dessen Oberfläche einfallende uniforme Beleuchtung reflektiert; und C. wobei der Bildverarbeitungsschritt den Schritt beinhaltet der Identifizierung des Ortes von dem Bild von dem zumindest einen Target in Relation zu der Uniformität des Bildes davon, wie mittels der Bildaufnahmeeinrichtung aufgenommen.
  24. Digitales Abbildungsverfahren gemäß Anspruch 23, in welchem A. der Szenenbeleuchtungsschritt den Schritt beinhaltet der Beleuchtung der Szene, so dass die uniforme Beleuchtung in einer ersten gewählten Richtung polarisiert ist und die strukturierte Beleuchtung in einer zweiten gewählten, zu der ersten gewählten Richtung senkrechten Richtung polarisiert ist; und B. der Bildaufnahmeschrittt einen Polarisationsschritt beinhaltet, in welchem Beleuchtung durchgelassen wird, die eine erste gewählte Richtung aufweist zu einem Bildaufnahmemedium, wobei gewährleistet wird, dass strukturierte Beleuchtung, die von der Oberfläche des zumindest einen Targets reflektiert wird, nicht in dem mittels des Bildaufnahmemediums aufgenommenen Bildes dargestellt wird.
  25. Digitales Abbildungsverfahren gemäß Anspruch 23, in welchem das zumindest eine Target in einer Position in der Szene angeordnet ist, die von der Position des zumindest einen Objektes verlagert ist; A. wobei der Szenenbeleuchtungsschritt den Schritt beinhaltet der Bereitstellung von uniformer Beleuchtung in zumindest einem Bereich der Szene, in welchem das zumindest eine Target angeordnet ist, und von strukturierter Beleuchtung in zumindest einem Bereich der Szene, in welchem das zumindest eine Objekt angeordnet ist; und B. wobei der Bildverarbeitungsschritt den Schritt beinhaltet der Identifizierung des Ortes von dem Bild von dem zumindest einen Target in Relation zu der Uniformität von dessen Bild, wie mittels der Bildaufnahmeeinrichtung aufgenommen.
  26. Digitales Abbildungsverfahren gemäß Anspruch 25, in welchem A. anfänglich (i) in Verbindung mit dem Szenenbeleuchtungsschritt die Szene mit uniformer Beleuchtung beleuchtet wird, und (ii) in Verbindung mit dem Bildaufnahmeschritt ein erstes Bild von der Szene aufgenommen wird, und (iii) in Verbindung mit dem Bildverarbeitungsschritt das erste Bild verwendet wird, um den Ort des zumindest einen Targets in der Szene zu bestimmen; und B. danach (i) in Verbindung mit dem Szenenbeleuchtungsschritt der Bereich von der Szene, bei welchem das zumindest eine Target angeordnet ist, mit uniformer Beleuchtung beleuchtet wird, und zumindest ein anderer Bereich der Szene mit strukturierter Beleuchtung beleuchtet wird, und (ii) in Verbindung mit dem Bildaufnahmeschritt ein zweites Bild der Szene aufgenommen wird, und (iii) in Verbindung mit dem Bildverarbeitungsschritt das zweite Bild verwendet wird, um den Ort des zumindest einen Targets in der Szene zu bestimmen, um dadurch die Zuordnung des lokalen Koordinatensystems, das mit dem Ort, von welchem die Bildaufnahmeeinrichtung das zweite Bild der Szene aufgenommen hat, verbunden ist, zu dem globalen Koordinatensystem zu erleichtern.
  27. Digitales Abbildungsverfahren gemäß Anspruch 26, in welchem der Szenenbeleuchtungsschritt den Schritt beinhaltet der Verwendung eines Mustergenerators, der konfiguriert ist, um selektiv uniforme Beleuchtung für zumindest einen Bereich der Szene und strukturierte Beleuchtung für zumindest einen zweiten Bereich der Szene generieren.
DE60133026T 2000-08-28 2001-08-28 Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern Expired - Lifetime DE60133026T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US22853300P 2000-08-28 2000-08-28
US228533P 2000-08-28
PCT/IB2001/001982 WO2002019687A2 (en) 2000-08-28 2001-08-28 Accurately aligning images in digital imaging systems by matching points in the images

Publications (2)

Publication Number Publication Date
DE60133026D1 DE60133026D1 (de) 2008-04-10
DE60133026T2 true DE60133026T2 (de) 2009-02-19

Family

ID=22857564

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60133026T Expired - Lifetime DE60133026T2 (de) 2000-08-28 2001-08-28 Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern

Country Status (8)

Country Link
US (1) US7006086B2 (de)
EP (1) EP1330790B1 (de)
JP (1) JP2004518947A (de)
AT (1) ATE387685T1 (de)
CA (1) CA2420866A1 (de)
DE (1) DE60133026T2 (de)
ES (1) ES2302750T3 (de)
WO (1) WO2002019687A2 (de)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7678390B2 (en) 1999-04-01 2010-03-16 Yale University Carbon monoxide as a biomarker and therapeutic agent
US7053908B2 (en) * 2001-04-12 2006-05-30 Polaroid Corporation Method and apparatus for sensing and interpolating color image data
US20050168465A1 (en) * 2003-09-24 2005-08-04 Setsuji Tatsumi Computer graphics system, computer graphics reproducing method, and computer graphics program
DE112005002690B4 (de) * 2004-11-01 2013-05-29 Cognitens Ltd. Verfahren und System zur optischen Kantenbestimmung
WO2006080023A1 (en) * 2005-01-31 2006-08-03 Cognitens Ltd. Method and system for illumination adjustment
US20080317313A1 (en) * 2005-09-30 2008-12-25 Ut-Battelle, Llc System and method for tracking motion for generating motion corrected tomographic images
US20070152157A1 (en) * 2005-11-04 2007-07-05 Raydon Corporation Simulation arena entity tracking system
US20080151194A1 (en) * 2006-01-31 2008-06-26 Avner Segev Method and System for Illumination Adjustment
TWI306572B (en) * 2006-02-15 2009-02-21 Pixart Imaging Inc Light pointing device and light tracking receiver having function selection key and system using the same
KR100809533B1 (ko) * 2006-09-21 2008-03-04 삼성중공업 주식회사 공간의 정밀 계측을 위한 글로벌 좌표 생성방법
US20080306708A1 (en) * 2007-06-05 2008-12-11 Raydon Corporation System and method for orientation and location calibration for image sensors
US7880798B2 (en) * 2008-09-09 2011-02-01 Electro Scientific Industries, Inc. Apparatus and method for optically converting a three-dimensional object into a two-dimensional planar image
US20130002598A1 (en) * 2011-06-30 2013-01-03 Victor Phay Kok Heng Circuits and Methods for Tracking Multiple Objects Relative to a Touch-Sensitive Interface
US9155475B2 (en) * 2012-06-26 2015-10-13 Xerox Corporation Enabling hybrid video capture of a scene illuminated with unstructured and structured illumination sources
US9141868B2 (en) * 2012-06-26 2015-09-22 Xerox Corporation Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources
US8837700B2 (en) 2012-12-04 2014-09-16 Genesys Telecommunications Laboratories, Inc. Dialed string matching and call cost minimization in dial plan
FR3020684B1 (fr) * 2014-04-30 2017-05-19 Horiba Jobin Yvon Sas Systeme et procede de spectrometrie de decharge luminescente et de mesure in situ de la profondeur de gravure d'un echantillon
WO2017119202A1 (ja) * 2016-01-06 2017-07-13 富士フイルム株式会社 構造物の部材特定装置及び方法
DE102017109854A1 (de) * 2017-05-08 2018-11-08 Wobben Properties Gmbh Verfahren zur Referenzierung mehrerer Sensoreinheiten und zugehörige Messeinrichtung
US11095854B2 (en) 2017-08-07 2021-08-17 Verizon Patent And Licensing Inc. Viewpoint-adaptive three-dimensional (3D) personas
US11004264B2 (en) 2017-08-07 2021-05-11 Verizon Patent And Licensing Inc. Systems and methods for capturing, transferring, and rendering viewpoint-adaptive three-dimensional (3D) personas
US10625824B2 (en) * 2018-01-13 2020-04-21 Thomas Frizlen Method and system for determining displacement of an anchor
CN113273176B (zh) * 2019-01-02 2023-05-30 杭州他若定位科技有限公司 使用基于图像的对象跟踪的自动化电影制作
CN113330275B (zh) * 2019-01-23 2023-05-09 株式会社索思未来 相机信息计算装置、系统、相机信息计算方法及记录介质
CN113758918B (zh) * 2020-06-04 2024-02-27 成都数字天空科技有限公司 一种基于无人机系统的材质确定方法和装置
US20220245291A1 (en) * 2021-02-02 2022-08-04 Baya Inc. Apparatus, system and method for three-dimensional (3d) modeling with a plurality of linked metadata feeds

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
GB9405299D0 (en) * 1994-03-17 1994-04-27 Roke Manor Research Improvements in or relating to video-based systems for computer assisted surgery and localisation
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
US5835241A (en) * 1996-05-30 1998-11-10 Xerox Corporation Method for determining the profile of a bound document with structured light
US6466701B1 (en) * 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
US6125197A (en) * 1998-06-30 2000-09-26 Intel Corporation Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
JP2001028671A (ja) * 1999-07-12 2001-01-30 Nec Corp 画像読取装置及び画像読取方法
US6677941B2 (en) * 2000-08-05 2004-01-13 American Gnc Corporation Three-dimensional relative positioning and tracking using LDRI

Also Published As

Publication number Publication date
EP1330790B1 (de) 2008-02-27
WO2002019687A3 (en) 2002-08-08
ATE387685T1 (de) 2008-03-15
ES2302750T3 (es) 2008-08-01
DE60133026D1 (de) 2008-04-10
US7006086B2 (en) 2006-02-28
CA2420866A1 (en) 2002-03-07
EP1330790A4 (de) 2006-03-22
US20020140670A1 (en) 2002-10-03
WO2002019687A2 (en) 2002-03-07
JP2004518947A (ja) 2004-06-24
EP1330790A2 (de) 2003-07-30

Similar Documents

Publication Publication Date Title
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
DE69831181T2 (de) Positionsbestimmung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE69826753T2 (de) Optischer Profilsensor
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE602004008681T2 (de) Mikroskop-System und Verfahren
DE102014113433B4 (de) Vorrichtung und Verfahren zur dreidimensionalen Abbildung eines Objekts
DE112014006439B4 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2527784A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
DE102005034332A1 (de) Einrichtung und Verfahren zur Beobachtung, Dokumentation und/oder Diagnose des Augenhintergrundes
DE102005010390A1 (de) Transparentes Kamerakalibrierungswerkzeug zur Kamerakalibrierung und dessen Kalibrierungsverfahren
DE102012023623B4 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE102014113256A1 (de) Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme mit Reflexunterdrückung
EP2147346B1 (de) Vorrichtung und verfahren zur kompensation von farbverschiebungen in faseroptischen abbildunssystemen
DE112017001464B4 (de) Abstandsmessvorrichtung und Abstandsmessverfahren
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
EP3628995A1 (de) Kalibriervorlage und kalibrierverfahren zum geometrischen kalibrieren einer vielzahl von kameras eines kamera-arrays
DE102005034990B4 (de) Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
DE102008015979A1 (de) Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche

Legal Events

Date Code Title Description
8364 No opposition during term of opposition