-
ERFINDUNGSGEBIET
-
Die
Erfindung betrifft allgemein das Gebiet der digitalen Abbildung
und insbesondere Systeme und Verfahren zum Ausrichten von Bildern
in digitalen Abbildungssystemen.
-
ALLGEMEINER STAND DER TECHNIK
-
Digitale
Abbildungssysteme zeichnen viele Bilder einer Szene für verschiedene
Anwendungen auf. Einige Anwendungen erfordern eine präzise Kenntnis
der Positionen von Punkten in der Szene in Relation zu einem dreidimensionalen
Koordinatensystem, was wiederum präzise Kenntnis der Orte von Projektionen
der Punkte in den jeweiligen Bildern erfordert. Eine illustrative
Anwendung ist die Photogrammetrie, bei der Informationen wie etwa
Abstände
zwischen Punkten in einer Szene, Höhen von Punkten in der Szene über einer
Referenzebene und so weiter anhand von Messungen zwischen und unter
Punkten auf den zweidimensionalen Bildern, die von der Szene aufgenommen
wurden, bestimmt werden können.
Eine weitere Anwendung ist die dreidimensionale virtuelle Rekonstruktion
von Objekten in einer Szene anhand der zweidimensionalen Bilder, die
von der Szene aufgenommen wurden. Solche virtuellen Rekonstruktionen
können
beispielsweise für eine
genaue Messung von Merkmalen der rekonstruierten Objekte verwendet
werden.
-
Bei
einigen Anwendungen ist erwünscht,
gewisse Merkmale in einer Szene mit einem hohen Grad an Präzision zu
messen. Solche Messungen erfordern entweder, dass Informationen über die
Szene an das Abbildungssystem geliefert werden, oder dass das Abbildungssystem
in der Lage ist, solche Informationen auf automatisierte Weise aus
den Bildern zu extrahieren. In jedem Fall ist es für das Abbildungssystem
hilfreich, wenn in der Szene, wie in den Bildern aufgenommen, gewisse
Merkmale vorliegen, die präzise
detektiert werden können
und deren Positionen und Größen präzise gemessen
werden können.
Diese Merkmale, die als „Ankerpunkte" oder „Targets" bezeichnet werden
können,
können
künstlich
innerhalb der Szene gepflanzt werden, um Referenzinformationen für das Abbildungssystem
zu liefern. Die Targets besitzen vorbestimmte optische Charakteristiken
und können
durch das Abbildungssystem ohne weiteres automatisch von anderen
Objekten in der Szene unterschieden werden. Außerdem kennt das Abbildungssystem
die Positionen von jeweiligen einzelnen der Targets in der Szene
relativ zu einem dreidimensionalen Koordinatensystem. Das Abbildungssystem
wiederum wird in der Lage sein müssen,
präzise
zu bestimmen, welche Pixel in den von der Szene aufgenommenen Bildern
zu jeweiligen einzelnen der Targets in der Szene in Beziehung stehen.
Da das Abbildungssystem eine genaue und präzise Identifikation der Targets
vornehmen werden muss, kann es zu mehreren Problemen kommen. Insbesondere
muss die Materialart, aus der die Targets hergestellt sind, ihre
Formen und so weiter im Allgemeinen besonders berücksichtigt
werden. Eine Technik besteht darin, die Targets mit spezifischen Formen
und Konturen zu versehen, die auf vorbestimmte Weise codiert werden
können,
um sicherzustellen, dass sie hervorstehen und sich ohne weiters von
den anderen Objekten in der Szene unterscheiden lassen. Die Targets
können
aus Materialien mit vorbestimmten Oberflächencharakteristiken hergestellt
sein, wie etwa diffus oder stark reflektierend, solange ihre Formen
und/oder ihr Reflexionsvermögen sich
erheblich von den erwarteten Formen und/oder dem erwarteten Reflexionsvermögen der
Objekte in der Szene unterscheiden, die einer Messung, Rekonstruktion
und so weiter unterzogen werden sollen.
-
Eine
weitere Technik beinhaltet die Verwendung von gerichtet reflektierenden
Materialien wie etwa retroreflektierende Materialien für die Targets. Ein
aus einem retroreflektierenden Material hergestelltes Objekt reflektiert
Licht, das darauf eintrifft, überwiegend
in der Richtung der Lichtquelle zurück, aus der das Licht kommt.
Arten von retroreflektierenden Materialien sind wohlbekannt und
werden beispielsweise bei Zeichen, Sicherheitsreflektoren und so
weiter verwendet. Die Reflexionscharakteristik des Materials ist
im Allgemeinen von dem Einfallswinkel des Lichts auf der Oberfläche über einen
relativ großen
Bereich von Einfallswinkeln hinweg unabhängig. Wenn die Objekte in der
Szene, die einer Messung, Rekonstruktion und so weiter unterzogen werden
sollen, nicht aus retroreflektierenden Materialien hergestellt sind,
werden sich die reflektierenden Charakteristiken ihrer Oberflächen wesentlich
von den reflektierenden Charakteristiken der Targets unterscheiden,
und wenn sie richtig beleuchtet sind, wie unten beschrieben wird,
kann es für
das Abbildungssystem relativ leicht sein, zwischen den Targets und den
anderen Objekten in der Szene zu unterscheiden.
-
Noch
eine weitere Technik beinhaltet die Verwendung von Targets, die
im Wesentlichen Löcher
in der Szene liefern, indem sie beispielsweise darauf einfallendes
Licht absorbieren oder das Licht derart reflektieren, dass es nicht
zu der oder den Bildaufnahmeeinrichtungen gelenkt wird, wenn Bilder
davon aufgenommen werden.
-
Um
die Positionen der Targets genau zu bestimmen, müssen sie uniform beleuchtet
sein, so dass das Aussehen jedes Targets nicht über das Blickfeld hinweg oder
von Bild zu Bild variieren wird. Wenn jedoch das Abbildungssystem
eine strukturierte Beleuchtung erfordert, die ein texturiertes Aussehen
für Oberflächen bietet,
die ansonsten möglicherweise
relativ merkmalslos erscheinen könnten,
wird die gleichzeitige Verwendung von strukturierter Beleuchtung und
uniformer Beleuchtung den Effekt der strukturierten Beleuchtung
auf die Szene, was wiederum die Fähigkeit des Abbildungssystems
stören kann,
seine Operationen der Messung, der virtuellen Rekonstruktion und
so weiter zu stören,
in der Regel reduzieren. Wenn andererseits strukturierte Beleuchtung
alleine oder überwiegend
zum Beleuchten der Szene einschließlich der Targets verwendet
wird, kann sich das Aussehen jeweiliger einzelner der Targets von
Bild zu Bild ändern,
was es für
das Abbildungssystem erschwert, die Projektionen eines jeweiligen
in den verschiedenen Bildern zu identifizieren. Außerdem kann
die strukturierte Beleuchtung bewirken, dass Projektionen der Targets
verformt erscheinen, was die Schwierigkeit, ihre Orte in den Bildern
genau zu bestimmen, erhöhen
kann. Wenn schließlich
sowohl eine strukturierte Beleuchtung als auch eine uniforme Beleuchtung
verwendet werden, aber für
das Aufnehmen von aufeinander folgenden Bildern aus einer Richtung,
von der gehofft wird, dass sie die gleiche Richtung ist, kann es
zu Problemen kommen, da eine oder beide der Kameras oder eine andere
Einrichtung, die die Bilder und das oder die Objekte, einschließlich des
oder der Targets, in der Szene aufnimmt, vibrieren oder auf andere
Weise schwingen kann, was wiederum Ungenauigkeiten bei der Registrierung
zwischen den beiden Bildern verursachen kann. Das Zeitintervall
zwischen Zeiten, bei denen die Kamera aufeinander folgende Bilder
aufnehmen kann, kann auf der Basis einer Reihe von Variablen variieren,
einschließlich
beispielsweise Bildgröße und Bildauflösung, Bildpufferdownloadzeit und
so weiter, doch oftmals ist das Zeitintervall lang genug, dass solche
Unterschiede abträgliche
Effekte aufweisen. Dies kann die Genauigkeit der Operationen der
Messung, Rekonstruktion und/oder anderer Operationen, die das Abbildungssystem
möglicherweise
ausführen
muss, erheblich reduzieren.
-
Aus
EP 0350957 ist eine Bildaufnahmevorrichtung bekannt,
die Folgendes umfasst: Eine Beleuchtungsvorrichtung, die Licht mit
der Wellenlänge λ
2 zu
dem Bild des Gesichts emittiert, ist um eine Linse herum vorgesehen,
und eine Beleuchtungsvorrichtung, die Licht mit der Wellenlänge λ
1 zu
dem Bild des Gesichts emittiert, ist getrennt von einer optischen
Achse der Linse vorgesehen. Das von dem Bild des Gesichts reflektierte
Licht mit der Wellenlänge λ
1 wird
mit Hilfe eines Prismas verzweigt. Aus dem verzweigten reflektierten
Licht werden eine regelmäßig reflektierte
Komponente und eine diffundierte reflektierte Komponente von einem
CCD-Bildaufnahmeelement detektiert, die diffundierte reflektierte Komponente
wird von einem CCD-Bildaufnahmeelement
detektiert, und die Differenz zwischen den detektierten Ausgaben
wird durch Subtraktionsoperationsmittel berechnet, wodurch ein von
der Hornhaut reflektiertes Bild erzeugt wird. Dabei wird das von dem
Bild des Gesichts reflektierte Licht mit der Wellenlänge λ
2 mit
Hilfe eines Prismas und eines Wellenlängentrennfilms getrennt. Folglich
wird die regelmäßig reflektierte
Komponente abgeschnitten und die diffundierte reflektierte Komponente
wird von einem CCD-Bildaufnahmeelement detektiert. Die Differenz zwischen
der detektierten Ausgabe und der diffundierten reflektierten Komponente
als der Ausgabe von dem CCD-Bildaufnahmeelement
wird durch Subtraktionsoperationsmittel berechnet, wodurch die Pupille
extrahiert wird.
-
In „Registration
of Anatomic Landmarks During Respiration Using Ultraviolet and Structured Lighting" von R. Bruce Backmann
et al wird eine Registrierungstechnik präsentiert, die Ultraviolett- und strukturierte
Lichtabbildung vereinigt, um anatomische Landmarken zu registrieren.
Die Verwendung dieser kontrastierenden Modalitäten überwindet das Problem von Markern,
die das strukturierte Lichtbild stören. Auch die Idee der hierarchischen
Registrierung wird eingeführt.
Dies beinhaltet mehrere Ebenen der Registrierungsauflösung. Die
Effektivität
dieser Techniken wird in einer Studie einer Bezugsbewegung während der
Atmung demonstriert.
-
KURZE DARSTELLUNG DER ERFINDUNG
-
Die
Erfindung stellt neue und verbesserte Systeme und Verfahren zum
genauen Ausrichten von Bildern in einem digitalen Abbildungssystem
bereit.
-
Kurz
zusammengefasst stellt die Erfindung ein neues digitales Abbildungssystem
und -verfahren bereit, das den Ort von Ankern oder Targets in Bildern
einer Szene erleichtert. Die Erfindung stellt zwei allgemeine Aspekte
bereit. Bei einem allgemeinen Aspekt verwendet das digitale Abbildungssystem beispielsweise
Differenzen wie etwa zwischen den Eigenschaften der Oberflächen der
Targets und den Eigenschaften der Oberflächen der Objekte, die gemessen,
rekonstruiert und so weiter werden sollen, um das Bereitstellen
einer uniformen Beleuchtung der Targets zu erleichtern, wenn ein
Satz von Bildern der Szene aufgenommen wird, wodurch Rauschen reduziert
wird, zu dem es möglicherweise
in Verbindung mit dem Bestimmen der Orte der Targets kommen kann,
wenn sie durch strukturierte Beleuchtung beleuchtet würden, während gleichzeitig
dafür gesorgt
wird, dass die Objekte durch strukturierte Beleuchtung beleuchtet
werden können,
wenn die Bilder aufgenommen werden können. In diesem Aspekt kann
das digitale Abbildungssystem die Positionen der Targets in den
Bildern verwenden, um ein lokales Koordinatensystem, das mit dem
Bildsatz verbunden ist, einem globalen Koordinatensystem zuzuordnen.
-
Ein
zweiter allgemeiner Aspekt verwendet einen oder mehrere von mehreren
Algorithmen, um die Orte von Targets in den Bildern der Szene in
den jeweiligen Objekten zu bestimmen. Bei diesem Aspekt nimmt das
digitale Aufnahmesystem zwei Sätze
von Bildern auf, einschließlich
eines Basisliniensatzes und eines Arbeitssatzes. Der Basisliniensatz
wird unter Verwendung uniformer Beleuchtung aufgenommen, wobei der
Basisliniensatz nur Bilder der Targets umfasst. Der Arbeitssatz
wird in Verbindung von strukturierter Beleuchtung aufgenommen, wobei
der Arbeitssatz Bilder sowohl der Targets als auch der Objekte umfasst.
Der Arbeitssatz wird in Verbindung mit Messung, virtueller Rekonstruktion
und so weiter verwendet, und ein oder mehrere der Algorithmen werden
verwendet, um die wahrscheinlichen Positionen der Targets in den
Bildern in dem Arbeitsbildsatz zu bestimmen und um Transformationen
zwischen dem Basislinien- und Arbeitsbildsatz derart zu bestimmen,
dass das mit dem Arbeitsbildsatz assoziierte lokale Koordinatensystem
dem globalen Koordinatensystem zugeordnet werden kann.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
Die
vorliegende Erfindung wird in den beigefügten Ansprüchen im Einzelnen hervorgehoben.
Die obigen und weiteren Vorteile der vorliegenden Erfindung lassen
sich unter Bezugnahme auf die folgende Beschreibung in Verbindung
mit den beiliegenden Zeichnungen besser verstehen. Es zeigen:
-
1 schematisch
ein gemäß der Erfindung konstruiertes
digitales Abbildungssystem;
-
2 schematisch
eine Kamera, die bei einer Ausführungsform
des in 1 gezeigten digitalen Abbildungssystems nützlich ist;
und
-
3 bis 7 Flussdiagramme,
die Operationen beschreiben, die von jeweiligen Ausführungsformen
des digitalen Abbildungssystems in Verbindung mit der Erfindung
durchgeführt
werden.
-
AUSFÜHRLICHE BESCHREIBUNG EINER
VERANSCHAULICHENDEN AUSFÜHRUNGSFORM
-
1 stellt
schematisch ein gemäß der Erfindung
konstruiertes digitales Abbildungssystem 10 dar. Das digitale
Abbildungssystem 10 enthält einen optischen Kopf 11,
eine Ausrüstung 12 und
ein Bildverarbeitungsuntersystem 13. Der optische Kopf 11 umfasst
eine oder mehrere Kameras 14A, ..., 14N (allgemein
durch die Bezugszahl 14n identifiziert), die Bilder einer
Szene 15 aufnehmen können.
Die Ausrüstung 12 ist
mit einer Bewegungskapazität
ausgestattet, die beispielsweise den optischen Kopf 11 relativ
zu der Szene 15 parallel verschieben und/oder drehen kann,
damit die den optischen Kopf 11 umfassenden Kameras 14n Sätze von
Bildern der Szene 15 von mehreren Positionen und Winkelorientierungen
aufnehmen können.
Bei einer Ausführungsform enthalten
die den optischen Kopf 11 umfassenden Kameras 14n Bilderfassungs-
und -aufnahmemedien wie etwa CCD-(Charge
Coupled Devices – Ladungsgekoppelte
Einrichtungen) oder CMOS-(Complementary Metal-Oxide Semiconductor-)-Einrichtungen,
die Bilder in elektronischer Form aufnehmen, und die Kameras 14n laden
die Bilder, nachdem sie aufgenommen worden sind, zur Verarbeitung
zu dem Bildverarbeitungsuntersystem 13 herunter.
-
Die
von dem Bildverarbeitungsuntersystem 13 durchgeführten jeweiligen
Verarbeitungsoperationen hängen
von der jeweiligen Anwendung ab, für die das digitale Abbildungssystem 10 verwendet wird.
Wenn beispielsweise das digitale Abbildungssystem 10 zur
Messung von Elementen der Szene 15 verwendet werden soll,
kann das Bildverarbeitungsuntersystem 13 Abstände zwischen
Punkten auf gewählten
einzelnen von mehreren Objekten, allgemein mit der Referenzzahl 16 identifiziert,
in der Szene, Abstände
zwischen Punkten auf Objekten 16 in der Szene und einer
bestimmten Referenzebene wie etwa einem Boden und dergleichen bestimmen. Wenn
analog das digitale Abbildungssystem 10 dazu verwendet
werden soll, eine virtuelle dreidimensionale Rekonstruktion von
einem oder mehreren der Objekte 16 in der Szene zu generieren,
kann es eine derartige virtuelle Rekonstruktion unter Verwendung einer
oder mehrerer einer Reihe von Techniken generieren, die dem Fachmann
bekannt sind. Zusätzlich zu
dem oder den Objekten 16, die gemessen, rekonstruiert und
so weiter werden sollen, ist die Szene auch mit mehreren Ankerpunkten
oder Targets ausgestattet, allgemein mit der Referenzzahl 17 identifiziert,
deren Positionen relativ zu einem gewählten globalen Koordinatensystem
bekannt sind. Wie der Fachmann versteht, wird eine virtuelle Rekonstruktion
eines Bereichs einer Szene anhand eines Satzes von Bildern dieses
Bereichs der Szene in Relation zu einem Koordinatensystem erfolgen,
das jenem Satz von Bildern zugeordnet ist, und die Targets 17 erleichtern
die Zuordnung derartiger lokaler virtueller Rekonstruktionen zu
einem unitären
globalen Koordinatensystem. Wenn analog die Merkmale der Objekte,
die einer Messung unterzogen werden, erfordern, dass mehrere Sätze von
Bildern für
die Messung aufgenommen werden, müssen die Koordinaten der Merkmale
nach Bestimmung unter Verwendung der jeweiligen Sätze von
Bildern einem unitären
globalen Koordinatensystem zugeordnet sein, damit sie gemessen werden
können,
und die Targets erleichtern auch diese Operation.
-
Die
Szene 15 wird von einer oder mehreren Lichtquellen beleuchtet,
allgemein durch die Referenzzahl 20 identifiziert. Wie
unten beschrieben wird, liefern mindestens einige der Lichtquellen
eine strukturierte Beleuchtung für
die Szene 15. Die strukturierte Beleuchtung wird verwendet,
um auf dem oder den Objekten 16 in der Szene 15 ein
Muster oder eine Textur zu verleihen, was das Bildverarbeitungsuntersystem 13 dabei
unterstützt,
in einem Satz von Bildern, die beim Generieren einer lokalen virtuellen
Rekonstruktion verwendet werden, Punkte in den Bildern in dem Satz
zu identifizieren, die Bilder des gleichen Punkts in der Szene 15 sind,
was beim Bestimmen ihrer Koordinaten in dem jeweiligen lokalen Koordinatensystem
nützlich
ist. Im Allgemeinen werden in einer Szene 15, die zusätzlich zu
den Objekten 16, die einer Messung, virtuellen Rekonstruktion
und dergleichen unterzogen werden sollen, Targets 17 enthält, mindestens
zwei aufeinander folgende Bilder aufgenommen, eines mit einer Texturbeleuchtung, die
bei der virtuellen Rekonstruktion des Objekts 16 verwendet
wird, und ein anderens mit uniformer Beleuchtung, um die Targets 17 zu
messen. In diesem Fall verschlechtert eine etwaige Relativbewegung zwischen
dem Objekt und dem optischen Kopf, was während der Bilderfassung der
beiden Bilder vorkommt, wie es oftmals in industrieller Umgebung
geschieht, die Genauigkeit der globalen Messung. Der Versuch, die
Targets 17 nur unter Verwendung von strukturierter Beleuchtung
zu lokalisieren, führt
zu einer schlechten Bestimmung des Orts der Targets, da ihre Bilder
durch die Textur der strukturierten Beleuchtung verformt sind. Die
Erfindung stellt mehrere Anordnungen in zwei allgemeinen Klassen
bereit, die gestatten, dass das digitale Abbildungssystem 10 Bilder
der Szene 15 aufnimmt, einschließlich sowohl der Objekte 16 als
auch Targets 17, die durch die strukturierte Beleuchtung
beleuchtet werden, während
die genaue Messung des Orts von Targets 17 ermöglicht wird.
Dies gestattet, dass das digitale Abbildungssystem 10 seine
Messungsoperationen durchführt,
virtuelle Rekonstruktionen generiert und dergleichen und ihre Positionen
in dem globalen Koordinatensystem genau und mit Unempfindlichkeit
gegenüber
Vibrationen oder anderen Relativbewegungen zwischen dem Objekt und
dem optischen Kopf bestimmt.
-
Wie
oben angemerkt, stellt die Erfindung zwei allgemeine Klassen von
Anordnungen bereit. Bei einer allgemeinen Klasse stellt die Erfindung
einen Satz von Anordnungen bereit, die gewählte Beleuchtungs- und Bildaufnahmebedingungen
verwenden, die es in Kombination mit Oberflächencharakteristiken der Targets 17 und
Objekte 16 gestatten, dass die Targets 17 ohne
weiteres von den Objekten 16 unterschieden werden, und
die außerdem
gestatten, dass das volle Target in den Bildern erfasst wird, und
zwar ohne Verformung, die möglicherweise
beispielsweise auf die Textur zurückzuführen ist, die auf eine für die Objekte 16 bereitgestellte
strukturierte Beleuchtung zurückzuführen ist.
Bei einer zweiten allgemeinen Klasse stellt die Erfindung einen
Satz von Anordnungen bereit, die verschiedene Algorithmen verwenden,
um Targets 17 von den Objekten 16 in den Bildern
zu unterscheiden und die Positionen der Targets in den Bildern trotz
der Tatsache genau zu bestimmen, dass Bilder davon aufgezeichnet
werden, während
sie durch strukturierte Beleuchtung beleuchtet werden. Die algorithmusbasierten
Techniken können
mit den Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechniken
verwendet werden, doch können
die algorithmusbasierten Techniken auch anstelle der Beleuchtungsbedingungs-/Oberflächencharakteristiktechniken
verwendet werden, wenn keine Beleuchtungsbedingungs-/Targetoberflächencharaktieristiktechniken verwendet
werden können.
Digitale Abbildungssysteme, die so aufgebaut sind, dass sie eine
Beleuchtungsbedingungs-/Targetoberflächentechnik gemäß der Erfindung
verwenden, werden zuerst beschrieben, gefolgt von digitalen Abbildungssystemen,
die so aufgebaut sind, dass sie eine algorithmische Technik gemäß der Erfindung
verwenden.
-
Das
digitale Abbildungssystem 10 enthält im Allgemeinen zwei Sätze von
Lichtquellen, allgemein durch Referenzzahlen 20A und 20B identifiziert.
Die Lichtquellen 20A sind konfiguriert, unstrukturierte uniforme
Beleuchtung zu bieten. Andererseits sind Lichtquellen 20B konfiguriert,
strukturierte Beleuchtung zu bieten. Gemäß einem Aspekt der Erfindung sind
die Oberflächen
von Targets 17 retroreflektiv und die Oberflächen von
Objekten 17 sind relativ diffus. In diesem Fall ist der
optische Kopf so konfiguriert, dass er die Quellen 20A nahe
den Linsen der Kameras lokalisiert, und bevorzugt sind die Quellen 20A von
einer Ringart, um die Retroreflexion von den Zielen effizient zu
sammeln, und die Quellen 20B sind weit von den Linsen der
Kamera angeordnet, damit nur ein kleiner Bruchteil oder nichts von
dem von ihnen emittierten und von den retroreflektiven Targets reflektierten
Licht in die Linsen der Kameras eintritt. In diesem Fall kann die
Intensität
der von den Lichtquellen 20A für die Targets 17 bereitgestellten
unstrukturierten uniformen Beleuchtung weit geringer sein als die
Intensität
der durch Lichtquellen 20B für Objekte 16 bereitgestellten
strukturierten Beleuchtung.
-
Da
die Oberflächen
der Targets 17 retroreflektierend sind, können sie
die von den Lichtquellen 20A bereitgestellte, relativ schwache
Beleuchtung ohne weiteres reflektieren. Da andererseits die Oberflächen von
Objekten 16 im Allgemeinen relativ diffus sind, werden
sie die von den Lichtquellen 20A bereitgestellte Reflexion
in keinem signifikantem Ausmaß reflektieren,
in Relation zu dem Ausmaß,
in dem sie die strukturierte Beleuchtung reflektieren, die von den
Lichtquellen 20B bereitgestellt wird, wodurch die von der
strukturierten Beleuchtung gelieferte Textur beibehalten wird. In
diesem Fall können
die beiden Sätze
von Lichtquellen 20A und 20B die Szene 15 gleichzeitig
beleuchten, und die Targets 17 reflektieren die von den
Lichtquellen 20A bereitgestellte unstrukturierte uniforme
Beleuchtung, und so erscheinen die Targets 17 in dem von
den Kameras 14n aufgenommenen Bildern uniform beleuchtet.
-
Das
Bildverarbeitungsuntersystem 13 kann die Bilder sowohl
für Messungsinformationen,
virtuelle Rekonstruktion und so weiter von Objekten 16 verarbeiten,
da sie mit strukturierter Beleuchtung beleuchtet wurden. Andererseits
kann das Bildverarbeitungsuntersystem 13 das Bild verarbeiten,
um den Ort von Targets 17 genau zu bestimmen, während sie mit
uniformer Beleuchtung beleuchtet werden, um Ausrichtungsinformationen
zu liefern, über
die das lokale Koordinatensystem, das mit den Positionen der Kameras,
an denen die Bilder aufgenommen wurden, verbunden ist, dem globalen
Koordinatensystem zugeordnet werden kann.
-
Gemäß einem
weiteren Aspekt der Erfindung sind die Oberflächen von Target 17 in
der Szene 15 spektral empfindlich für Licht mit verschiedenen Wellenlängen und
absorbieren und/oder reflektieren dies somit. In diesem Fall enthält das digitale Abbildungssystem 10 zwei
Sätze von
Lichtquellen, allgemein durch die Referenzzahlen 20A und 20B identifiziert.
Die Lichtquellen 20A sind konfiguriert, um eine unstrukturierte
uniforme Beleuchtung bei einer Wellenlänge bereitzustellen, die von
den Oberflächen
durch Targets 17 reflektiert werden. Andererseits sind
die Lichtquellen 20B konfiguriert, eine strukturierte Beleuchtung
bei einer Wellenlänge
bereitzustellen, die von Oberflächen
von Targets 17 nicht reflektiert werden. Die Objekte 16 sollten
die von den Lichtquellen 20B bereitgestellte Beleuchtung
reflektieren und können
auch die von den Lichtquellen 20A bereitgestellte Beleuchtung
reflektieren. Bevorzugt ist die Intensität der Lichtquellen 20A geringer
als die Intensität
der Lichtquellen 20B, oder das emittierende Spektrum von
Lichtquellen 20A ist schmaler als das von Lichtquellen 20B emittierte Spektrum,
um die Reflexion von Licht von Lichtquellen 20B durch Objekte 16 gegenüber der
Reflexion von Licht von Lichtquellen 20A durch Objekte 16 zu dominieren.
-
Da
die Targets 17 nur das von den Lichtquellen 20A emittierte
uniforme Licht reflektieren und sie das von den Lichtquellen 20B emittierte
strukturierte Licht nicht reflektieren, werden ihre Bilder, wie
sie von Kameras 14n aufgenommen werden, uniform erscheinen
und werden nicht von der strukturierten Beleuchtung verformt. Trotz
der Tatsache, dass die Objekte 16 sowohl die uniforme als
auch die strukturierte Beleuchtung reflektieren, werden ihre Bilder,
wie durch Kameras 14n aufgenommen, texturiert erscheinen,
da wie oben beschrieben die Intensität der von Lichtquellen 20A bereitgestellten
Beleuchtung geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten
Beleuchtung, oder alternativ ist das emittierende Spektrum der Lichtquellen 20A schmaler
als das von Lichtquellen 20B emittierte Spektrum, damit
die Reflexion von von den Lichtquellen 20B durch Objekte 16 kommendem
Licht gegenüber
der Reflexion von von Lichtquellen 20A durch Objekte 16 kommendem
Licht dominiert.
-
Gemäß einem
weiteren Aspekt der Erfindung enthält das digitale Abbildungssystem 10 zwei Sätze von
Lichtquellen, allgemein durch Referenzzahlen 20A und 20B identifiziert.
Die Lichtquellen 20A sind konfiguriert, um eine unstrukturierte
uniforme Beleuchtung bei einem Wellenlängenband bereitzustellen, und
andererseits sind die Lichtquellen 20B konfiguriert, eine
strukturierte Beleuchtung bei einem anderen verschiedenen Wellenlängenband
bereitzustellen. Die jeweiligen Kameras 14n und das Bildverarbeitungsuntersystem 13 können konfiguriert
sein, zwischen den Bereichen zu unterscheiden, die die Targets 17 und
die Objekte 16 umfassen. Wenn beispielsweise die von den
Lichtquellen 20A bereitgestellte uniforme Beleuchtung eine
Wellenlänge besitzt,
die sich im roten Bereich des sichtbaren Spektrums befindet, und
wenn die von den Lichtquellen 20B bereitgestellte strukturierte
Beleuchtung eine Wellenlänge
besitzt, die sich im blauen Bereich des sichtbaren Spektrums befindet,
kann das Bildverarbeitungsuntersystem 13 getrennt in jedem
Bild, wie durch eine jeweilige Kamera 14n aufgenommen,
Bereiche verarbeiten, die im roten Bereich des sichtbaren Spektrums
liegen, als wenn sie Bilder der Targets 17 in dem jeweiligen
Bild umfassen und Bereiche, die im blauen Bereich liegen. In diesem
Fall wird das blaue Bild Bilder sowohl von dem Objekt 16 als
auch den Targets 17 in strukturiertem Aussehen enthalten und
wird zur Messung, Rekonstruktion und so weiter des Objekts 16 verwendet,
und das rote Bild wird Bilder sowohl von Objekt 16 als
auch Target 17 in uniformem Aussehen enthalten. Das Bildverarbeitungsuntersystem 13 kann
zwischen den Targets und dem Objekt auf der Basis mehrerer herkömmlicher
Methodiken unterscheiden, einschließlich beispielsweise jenen,
die auf einem Grauwert, Kanten, einer Form oder anderen Dingen basieren,
wie für
den Fachmann offensichtlich ist. Der Ort des Bilds von Targets 17 kann
anhand der unter Verwendung von uniformer Beleuchtung aufgenommenen
Bilder genau bestimmt werden. Wenngleich das obige Beispiel auf eine
Beleuchtung in Wellenlängen
in dem sichtbaren Spektrum Bezug nimmt, ist es außerdem offensichtlich,
dass die Beleuchtung in einem beliebigen Teil des elektromagnetischen
Spektrums liegen kann.
-
Als
Alternative dazu, dass die Kameras 14n Bilder in Farbe
aufnehmen, können
die jeweiligen Kameras Bilder monochrom derart aufnehmen, dass ein Unterscheiden
zwischen verschiedenen Wellenlängenbändern erleichtert
wird. Eine veranschaulichende Kamera, mit der Referenzzahl 30 identifiziert,
ist in 2 schematisch gezeigt. Unter Bezugnahme auf 2 enthält die Kamera 30 ein
Gehäuse 31,
das ein Bildaufnahmemedium 32 aufnimmt. Ein Linsensystem 33 lenkt
von der Szene 15 empfangenes Licht auf eine strahlzerlegende
Anordnung 34. Die strahlzerlegende Anordnung 34 wiederum
zerlegt das durch den Strahl 35 repräsentierte Licht, das von dem
Linsensystem 33 empfangen wird, in zwei Anteile 35A und 35B.
Der Anteil 35A des Lichts von der strahlzerlegenden Anordnung 34 wird
von einem Filter 36A gefiltert, der Licht in der von der
Lichtquelle 20A bereitgestellten Wellenlänge durchlässt und
das Licht in der von der Lichtquelle 20B bereitgestellten Wellenlänge blockiert.
Der Filter 36A lenkt das dadurch durchgelassene Licht zu
einem Bereich des Bildaufnahmemediums 32, durch Bezugszahl 32A identifiziert.
Analog wird der Anteil 35B des Lichts von der strahizerlegenden
Anordnung von einem Filter 36B gefiltert, der Licht in
der von der Lichtquelle 20B bereitgestellten Wellenlänge durchlässt und
das Licht in der von der Lichtquelle 20A bereitgestellten Wellenlänge blockiert.
Der Filter 36B lenkt das dadurch durchgelassene Licht zu
einem Bereich des Bildaufnahmemediums 32, durch Bezugszahl 32B identifiziert.
Die disjunkten Bereiche 32A und 32B des Bildaufnahmemediums
können
von dem Bildverarbeitungsuntersystem 13 unabhängig verarbeitet werden.
Das Bildverarbeitungsuntersystem 13 kann das Bild verarbeiten,
das im Bereich 32B des Bildaufnahmemediums 32 aufgenommen
ist, das heißt,
den Bereich, der mit der strukturierten Beleuchtung verbunden ist,
um Messungsinformationen, virtuelle Rekonstruktion und so weiter
bereitzustellen. Andererseits kann das Bildverarbeitungsuntersystem 13 das Bild
verarbeiten, das im Bereich 32A des Bildaufnahmemediums 32 aufgenommen
ist, das heißt
den Bereich, der mit der uniformen Beleuchtung verbunden ist, um
Ausrichtungsinformationen bereitzustellen, anhand derer das lokale
Koordinatensystem, das mit den Positionen der Kameras verbunden
ist, bei denen die Bilder aufgenommen wurden, dem globalen Koordinatensystem
zugeordnet werden kann.
-
Ein
weiterer Aspekt der Erfindung, der ebenfalls in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse
ist, wird in Verbindung mit 1 beschrieben.
Anstatt Differenzen bei Wellenlängen des
Lichts bei Reflexion von den Oberflächen der Objekte 16 und
der Targets 17 zu verwenden, um zwischen den Objekten und
Targets zu unterscheiden, werden bei diesem Aspekt zum Unterscheiden
zwischen den Objekten 16 und Targets 17 Polarisationscharakteristiken
verwendet. Die Oberflächen
der Targets 17 sind konfiguriert, Licht zu reflektieren,
um die Polarisation zu bewahren, wohingegen die Oberflächen von
Objekten 16 bevorzugt Licht in einer Weise reflektieren,
dass die Polarisation nicht bewahrt wird. Bewerkstelligt werden
kann dies, indem vorgesehen wird, dass die Oberflächen von
Targets 17 retroreflektierend sind, was Licht in einer
derartigen Weise reflektiert, dass die Polarisation von darauf einfallender
Beleuchtung bewahrt wird, und die Oberflächen von Objekten 16 sind
diffus, was Licht in einer derartigen Weise reflektiert, dass die
Polarisation von darauf einfallender Beleuchtung nicht bewahrt wird.
Die Beleuchtung, die von den Lichtquellen 20A bereitgestellt
wird, die eine uniforme Beleuchtung für die Targets 17 in
der Szene 15 bereitstellen sollen, ist in einer gewählten Richtung
polarisiert, beispielsweise horizontal, wohingegen die strukturierte
Beleuchtung, die von den Lichtquellen 20B bereitgestellt
wird, die eine Beleuchtung für
die Objekte 16 bereitstellen sollen, in der orthogonalen
Richtung polarisiert ist, beispielsweise vertikal. Bevorzugt ist
die Intensität der
von den Lichtquellen 20A bereitgestellten Beleuchtung viel
geringer als die Intensität
der von den Lichtquellen 20B bereitgestellten Beleuchtung.
-
Die
Oberflächen
von Target 17 werden von beiden Lichtquellen 20A und 20B bereitgestellte
Beleuchtung reflektieren. Da die retroreflektiven Oberflächen der
Targets 17 die Polarisation bewahren, wird das reflektierte
Licht eine horizontale Komponente aufweisen, die der von den Lichtquellen 20A bereitgestellten
uniformen Beleuchtung entspricht, und eine vertikale Komponente,
die der von den Lichtquellen 20B bereitgestellten strukturierten
Beleuchtung entspricht. Die Oberflächen von Objekten 16 werden
auch von sowohl Lichtquellen 20A als auch 20B bereitgestellte
Beleuchtung reflektieren, doch versteht sich, dass, da die Intensität der von den
Lichtquellen 20A bereitgestellten uniformen Beleuchtung
viel geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten
strukturierten Beleuchtung, das von den Oberflächen der Objekte 16 reflektierte
Licht primär
die strukturierte Beleuchtung sein wird. Da jedoch die Oberflächen von
Objekten 16 diffus sind, wird das von dort reflektierte
Licht nicht die Polarisation des darauf einfallenden Lichts bewahren,
wobei dann das reflektierte strukturierte Licht horizontale sowie
eine vertikale Komponente aufweisen wird.
-
Außerdem wird
jede Kamera 14n mit einem nicht separat gezeigten Polarisator
vor ihrem optischen Weg versehen sein, der nur horizontal polarisiertem
Licht oder horizontalen Komponenten von Licht, das nicht horizontal
polarisiert ist, gestattet, in die jeweilige Kamera einzutreten
und dadurch aufgenommen zu werden. Wie oben angemerkt, werden die
Targets 17 die von den Lichtquellen 20A bereitgestellte
uniforme Beleuchtung reflektieren, die horizontal polarisiert ist,
sowie die der von den Lichtquellen 20B bereitgestellten
strukturierten Beleuchtung, die vertikal polarisiert ist, in einer
derartigen Weise, dass die Polarisation bewahrt wird. In jeder Kamera 14n jedoch
wird der jeweilige Polarisator nur gestatten, dass die horizontal
polarisierte uniforme Beleuchtung von den Targets 17 hindurch
gelangt und auf dem jeweiligen Bild aufgenommen wird. Dementsprechend
werden die Bilder der Targets 17 in den entsprechenden
Bildern einheitlich sein, Da andererseits die Oberflächen der
Objekte 16 diffus sind, bewahren sie nicht die Polarisation.
Dementsprechend wird die strukturierte Beleuchtung, wie von den
Objekten 16 reflektiert, sowohl eine horizontale als auch eine
vertikale Komponente aufweisen, und der jeweilige Polarisator wird
gestatten, dass die horizontale Komponente der strukturierten Beleuchtung
zusammen mit der horizontalen Komponente der uniformen Beleuchtung
wie durch die Lichtquellen 20A bereitgestellt zum Aufnehmen
auf dem jeweiligen Bild hindurch gelangt. Da wie oben angemerkt
die Intensität der
von Lichtquellen 20A bereitgestellten uniformen Beleuchtung
viel geringer ist als die Intensität der von Lichtquellen 20B bereitgestellten
strukturierten Beleuchtung, wird das Licht, wie von den Oberflächen von
Objekten 16 weg reflektiert und auf dem jeweiligen Bild
aufgenommen, primär
strukturiert sein.
-
Nachdem
die Kameras 14n die Bilder aufgenommen haben, werden sie
von dem Bildverarbeitungsuntersystem 13 verarbeitet, das
unter anderem die Orte der Targets 17 in den jeweiligen
Bildern bestimmt. Für
jedes Bild kann das Bildverarbeitungsuntersystem 13 beispielsweise
eine Suchmethodik verwenden, um nach Regionen des Bildes zu suchen, die
allgemein von uniformer Intensität
sind, von welchen Regionen es dann bestimmen kann, dass sie Bilder
der jeweiligen Targets 17 in dem jeweiligen Bild enthalten.
Andererseits kann das Bildverarbeitungsuntersystem 13 bestimmen,
dass Regionen des jeweiligen Bildes, die hell sind, aber nicht allgemein uniform
hell sind, Bilder der Objekte 16 wie durch die strukturierte
Beleuchtung beleuchtet enthalten.
-
Ein
weiterer Aspekt der Erfindung, der ebenfalls in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse liegt,
wird in Verbindung mit 1 beschrieben. Bei diesem Aspekt
werden, anstatt zwischen den Objekten 16 und den Targets 17 in
den Bildern auf der Basis der Wellenlängen oder Polarisation des
Lichts, wie in den jeweiligen Bildern aufgenommen, zu unterscheiden,
die Objekte 16 und Targets 17 auf der Basis ihrer
Positionen unterschieden. In diesem Fall sind die Kameras 14n bevorzugt
hochauflösende
Kameras mit einem relativ großem
Blickfeld („FOV” – Field
Of View). Die Mitte des Blicks der Kameras 14n ist primär auf die
Objekte 16 in der Szene 15 gerichtet. Die Targets 17 sind
bevorzugt in einem gewissen Abstand von den Objekten 16 positioniert,
liegen aber immer noch innerhalb des Blickfelds der Kameras 14.
Die Lichtquellen 20A, die eine uniforme Beleuchtung für die Targets 17 liefern
sollen, sind auf die Bereiche der Szene 15 gerichtet, in
denen sich die Targets 17 befinden. Andererseits sind die
Lichtquellen 20B, die die strukturierte Beleuchtung liefern
sollen, auf die Bereiche der Szene 15 gerichtet, in dem
sich die Objekte 16 befinden. Somit ist die uniforme Beleuchtung
auf die Peripherie des Blickfelds der Kamera 14n begrenzt,
wo sich die Targets 17 befinden, wohingegen die strukturierte
Beleuchtung auf die Bereiche der Szene etwas von den Targets 17 entfernt
begrenzt ist, in den Bereichen der Szene 15, in denen die
Objekte 16 angeordnet sind. Dies wird gestatten, dass das
Bildverarbeitungsuntersystem 13 die Targets 17 in
der Szene 15 ohne weiteres identifiziert und ihre Positionen
mit einem Minimum an Rauschen bestimmt, während weiterhin eine strukturierte
Beleuchtung bereitgestellt wird, die in Verbindung mit den Operationen
Messung, virtuelle Rekonstruktion und so weiter nützlich ist.
Als weitere Alternative sollen die Quellen 20A für uniforme Beleuchtung
auf die ganze Szene 15 gerichtet sein, die innerhalb des
Blickfelds der Kameras 14n liegen, aber ihre Intensität ist viel
geringer als die Intensität der
Quellen 20B der strukturierten Beleuchtung, so dass Objekte 16 primär mit strukturiertem
Licht beleuchtet werden.
-
Die
in Verbindung mit einem beliebigen der Aspekte in der Beleuchtungsbedingungs-/Targetoberflächentechnikklasse
verwendeten Lichtquellen 20 können beliebige herkömmliche
Arten von Lichtquellen zum Liefern von Beleuchtung der erforderlichen
Wellenlängen,
Beleuchtung der erforderlichen Polarisationsrichtung(en) oder Beleuchtung
mit dem erforderlichen Muster von uniformer Beleuchtung nahe der
Peripherie des oder der Blickfelder der Kameras und strukturierten
Beleuchtung anderweitig, jedes Merkmal in Verbindung mit dem oben
erwähnten
relevanten Aspekten, sein.
-
Als
Alternative kann das System 10 einen computergesteuerten
Mustergenerator verwenden, wie etwa einen computergesteuerten LCD-(Liquid Crystal
Display – Flüssigkristallanzeige)-Mustergenerator
oder DMD (Digital Micromirror Device – digitale Mikrospiegeleinrichtung)
und so weiter, der konfiguriert ist, um eine uniforme Beleuchtung
für die
Bereiche der Szene 15 bereitzustellen, die die Targets 17 enthalten,
und eine strukturierte Beleuchtung für die Bereiche der Szene 15,
die die Objekte 16 enthalten. Bei dieser Alternative liefert
der Mustergenerator anfänglich
eine uniforme Beleuchtung über
die ganze Szene 15, und die Kameras 14n werden
einen Satz von Bildern der Szene 15 aufnehmen. Das Bildverarbeitungsuntersystem 13 kann
auf herkömmliche
Weise zwischen den Targets und Objekten auf der Basis eines Grauwerts,
Randform oder anderen Methodiken unterscheiden, wie für den Fachmann
offensichtlich ist. Das Bildverarbeitungsuntersystem 13 bestimmt
dann die Orte der Targets 17 in der Szene 15 und
versetzt den Mustergenerator in die Lage, die uniforme Beleuchtung
weiterhin in Regionen der Szene 15 bereitzustellen, in
denen sich die Targets befinden, und eine strukturierte Beleuchtung
anderweitig innerhalb der Blickfelder der Kameras 14n bereitzustellen,
wonach die Kameras 14n in die Lage versetzt sind, einen
zweiten Satz von Bildern aufzunehmen. Der zweite Satz von Bildern
wird die Targets 17, die durch die uniforme Beleuchtung
beleuchtet werden, und die Objekte 16, die durch die strukturierte
Beleuchtung beleuchtet werden, enthalten, die von dem Bildverarbeitungsuntersystem 13 wie
oben beschrieben verarbeitet werden können. Die Intensitäten der
uniformen Beleuchtung über
die Targets und die strukturierte Beleuchtung über die anderen Bereiche der
Blickfelder von Kameras 14n kann mit unterschiedlichen
Pegeln erfolgen, um den Dynamikbereich des Systems effektiv zu nutzen.
Es versteht sich, dass das Intervall zwischen den Zeitpunkten, bei
denen der erste Satz von Bildern und der zweite Satz von Bildern
von den jeweiligen Kameras 14n aufgenommen werden, nicht
klein zu sein braucht, da der erste Satz von Bildern nur benötigt wird,
um die Orte der Targets in der Szene 15 zu bestimmen, um den
Mustergenerator für
den zweiten Satz von Bildern zu steuern.
-
Ein
weiterer Aspekt der Erfindung wird in Verbindung mit 1 beschrieben.
Wenn eine Kamera 14n in der Lage ist, ausreichend schnell
aufeinander folgende Bilder aufzunehmen, wird es möglicherweise
nicht erforderlich sein, dass sie mit solchen lichtstrahlzerlegenden
optischen Anordnungen versehen ist, noch dass sie Bilder in Farbe
aufnimmt, und die Targets 17 und Lichtquellen brauchen
keine Beleuchtung spezieller Wellenlängen oder Polarisationsrichtungen
zu haben. Wenn die Kameras 14n aufeinander folgende Bilder
ausreichend schnell aufnehmen können,
kann jede Kamera 14n aufeinander folgende Bilder aufnehmen,
wobei ein Bild so aufgenommen wird, dass die Lichtquellen 20A,
aber nicht die Lichtquellen 20B, die Szene 15 beleuchten,
und wobei ein anderes Bild so aufgenommen wird, dass Lichtquellen 20B,
aber nicht Lichtquellen 20A, die Szene 15 beleuchten.
Wenn jede Kamera 14n die aufeinander folgenden Bilder ausreichend
schnell aufnehmen kann, und wenn die Lichtquellen 20A und 20B ausreichend
schnell aus- und einschalten können,
würde eine
etwaige Bewegung der Kameras 14, der Objekte 16 und/oder
der Targets 17 während
des kurzen Zeitintervalls zwischen den Zeiten, zu denen die Bilder
aufgenommen werden, so geringfügig
sein, dass sie effektiv null ist. Bei einer Ausführungsform verwenden die Kameras 14n einen
Interline-Transfer-CCD-Sensor, der ein Bild sehr schnell zu dem Bildverarbeitungsuntersystem
transferieren kann. Dies gestattet der jeweiligen Kamera 14n,
Bilder nacheinander mit einem sehr kurzen Zeitintervall dazwischen,
in der Regel in der Größenordnung
von mehreren Mikrosekunden, aufzunehmen. Da das kurze Zeitintervall
zwischen aufeinander folgenden Bildern so kurz ist, wird die Amplitude
einer etwaigen mechanischen Schwingung der Ausrüstung 11 oder eine
Bewegung der Objekte 16 klein genug sein, dass sie ignoriert
werden können.
-
Wie
oben angemerkt stellt die Erfindung zwei allgemeine Klassen von
Anordnung bereit, wobei die zweite allgemeine Klasse einen Satz
von Anordnungen umfasst, die zum Identifizieren und Unterscheiden
von Targets 17 von den Objekten 16 in den Bildern
Algorithmen verwenden. Anordnungen in dem Algorithmussatz können nützlich sein,
wenn beispielsweise keine Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechnik verwendet
werden kann, aber die algorithmusbasierten Techniken zusammen mit
den Beleuchtungsbedingungs-/Targetoberflächencharakteristiktechniken verwendet
werden können.
-
Allen
Techniken in der Algorithmusklasse ist gemein, dass die Kameras 14n in
dem digitalen Abbildungssystem 10 anfänglich zwei Sätze von
Bildern aufnehmen, nämlich
einen Satz von Basislinienbildern und einen Satz von Arbeitsbildern.
Wenn der Satz von Basislinienbildern aufgenommen wird, beleuchten
die Lichtquellen 20 die Targets 17 mit uniformer
Beleuchtung. Die Objekte 16 werden entweder nicht beleuchtet
oder das System ist in einer derartigen Weise konfiguriert, dass
die Targets 17 hinsichtlich ihrer Antwort überlegen
sind. Da die Objekte 16 für den Basislinienbildsatz nicht
beleuchtet werden, oder sie, wenn sie beleuchtet werden, so beleuchtet und
aufgenommen werden, dass ihre Empfindlichkeit vernachlässigbar
ist, werden Bilder davon nicht in dem Basislinienbildsatz aufgenommen.
Da jedoch die Targets 17 uniform beleuchtet werden, können die
Orte ihrer Bilder in jedem der Basislinienbilder in dem Basislinienbildsatz
genau bestimmt werden, und so können
auch ihre Orte relativ zu dem lokalen Koordinatensystem genau bestimmt
werden. Für
den Arbeitsbildsatz beleuchten die Lichtquellen 20 die Szene 15,
einschließlich
sowohl der Targets 17 als auch der Objekte 16,
unter Verwendung von strukturierter Beleuchtung, die wie oben angemerkt
in das Bestimmen der Orte der Targets 17 in dem jeweiligen Arbeitsbild
Rauschen einführen
kann. Das Bildverarbeitungsuntersystem 13 wird die Arbeitsbilder
in Verbindung mit Messung, Generierung einer virtuellen Rekonstruktion
und dergleichen in dem lokalen Koordinatensystem auf herkömmliche
Weise verwenden. Da andererseits die Bilder der Targets 17 in
den Arbeitsbildern aufgrund der strukturierten Beleuchtung im Allgemeinen
verformt sind, wird das Bildverarbeitungsuntersystem 13 die
Bilder der Targets 17 in den Basislinienbildern verwenden,
um ein lokales Koordinatensystem auf herkömmliche Weise dem globalen Koordinatensystem
zuzuordnen, vorausgesetzt das lokale Koordinatensystem der Arbeitsbilder
und das lokale Koordinatensystem der Basislinienbilder sind die
gleichen. Da jedoch das mit den Basislinienbildern verbundene lokale
Koordinatensystem geringfügig
von dem lokalen Koordinatensystem für die Targets, wie in den Arbeitsbildern
aufgenommen, differieren kann, verwendet das Bildverarbeitungsuntersystem 13 eine
oder mehrere der algorithmischen Techniken, die unten beschrieben
werden, um die Bilder der Targets, wie in den jeweiligen Arbeitsbildern aufgenommen,
zu lokalisieren und eine Transformation zu generieren, die das oder
die mit den Basislinienbildern verbundenen lokalen Koordinatensysteme und
das oder die mit den Arbeitsbildern verbundenen lokalen Koordinatensysteme
zuordnet. Diese Transformation kann wiederum dazu verwendet werden, die
Transformation zwischen dem mit den Arbeitsbildern verbundenen lokalen
Koordinatensystem und dem globalen Koordinatensystem zu bestimmen.
-
Bevorzugt
nehmen die Kameras 14n die Basislinienbilder und die verbundenen
Arbeitsbilder innerhalb eines relativ kurzen Zeitintervalls auf,
so dass die Transformation zwischen den damit verbundenen lokalen
Koordinatensystemen relativ klein ist. Wenn ein Basislinienbild
und das verbundene Arbeitsbild innerhalb eines relativ kurzen Zeitintervalls aufgenommen
werden, werden sich außerdem
die Targets 17 in den beiden Bildern ungefähr an den gleichen
Orten befinden. Die Targets 17 befinden sich jedoch möglicherweise
nicht präzise
an den gleichen Orten, da eine gewisse Bewegung, Schwingung und
dergleichen durch das digitale Abbildungssystem 10 und/oder
die Objekte 16 und Targets 17 in der Szene 15 während des
Zeitintervalls vorgelegen haben kann. Die Transformation(en) wie
zwischen den Basislinienbildern in dem Basislinienbildsatz und den
verbundenen Arbeitsbildern in dem Arbeitsbildsatz berücksichtigen
eine derartige Bewegung.
-
Beim
Bestimmen der Transformation wie zwischen jedem Arbeitsbild und
dem verbundenen Basislinienbild verwendet das Bildverarbeitungsuntersystem 13 eine
oder mehrere von mehreren algorithmischen Techniken in dem Versuch,
die genauen Positionen der Bilder der Targets in dem Basislinienbild
zu lokalisieren und die Relationen zwischen den Positionen der Targets 17 wie
zwischen dem Basislinienbild und dem Arbeitsbild zu bestimmen. Gemäß allen
Techniken in der algorithmischen Klasse bestimmt das Bildverarbeitungsuntersystem 13 nach dem
Lokalisieren der Targets 17 in dem Basislinienbild Masken
von Regionen in dem Arbeitsbild nahe dem gleichen relativen Ort
wie die Bilder der jeweiligen Targets in dem Basislinienbild. Bei
dieser Operation verwendet das Bildverarbeitungsuntersystem 13 das
Basislinienbild eines Paars Basislinienbild-Arbeitsbild zum Generieren einer durch
die Bilder der Targets in dem Basislinienbild definierten Maske.
Jedes Element der Maske ist auf ein jeweiliges Target zentriert
und weist eine Größe auf,
die ein gewähltes Verhältnis zu
der Größe des jeweiligen
Targets ist. Die Maske wird zum Definieren von Regionen des Arbeitsbilds
verwendet, die unter Verwendung einer beliebigen der Techniken in
der Algorithmusklasse verarbeitet werden, weshalb die Größen der
Maskenelemente derart sein werden, dass sie bevorzugt die Bilder
der Targets 17 in dem Arbeitsbild enthalten, aber Bilder
der Objekte 16 in dem Arbeitsbild ausschließen.
-
Gemäß einem
Aspekt der algorithmischen Klasse umfassen beide Bilder Pixel, und
das Bildverarbeitungsuntersystem 13 kann nach dem Lokalisieren
der die Bilder der Targets 17 in dem Basislinienbild umfassenden
Pixel eine pixelweise Korrelation zwischen dem Arbeitsbild und dem
Basislinienbild durchführen,
wodurch ihre relativen Positionen in den entsprechenden Bildern
bestimmt werden. Nachdem das Bildverarbeitungsuntersystem 13 die
Positionen der Targets 17 in den Basislinienbild- und Arbeitsbildern
identifiziert hat, kann es die Transformation dazwischen auf herkömmliche
Weise bestimmen.
-
Gemäß einem
weiteren Aspekt der Techniken in der algorithmischen Klasse führt das
Bildverarbeitungsuntersystem 13 in einer Region des Arbeitsbildes
nahe dem gleichen relativen Ort wie das Bild des jeweiligen Targets
in dem Basislinienbild eine Anpassung der kleinsten Quadrate durch.
Nach dem Bestimmen von Orten der Targets in dem Satz von Arbeitsbildern
verwendet das Bildverarbeitungsuntersystem 13 jene Orte
und die Orte der jeweiligen Targets in den Basislinienbildern, um
die Transformation zwischen den Arbeits- und Basislinienbildern
zu bestimmen.
-
Gemäß noch einem
weiteren Aspekt der Techniken in der algorithmischen Klasse detektiert das
Bildverarbeitungsuntersystem 13 Ränder der Bilder der Targets
in dem Basislinienbild und sucht nach einer Korrelation zwischen
den Rändern
der Bilder der jeweiligen Targets 17 in jedem Basislinienbild
und Rändern
oder Bereichen von Rändern
der Bilder der jeweiligen Targets 17 in dem jeweiligen
Arbeitsbild. Das Bildverarbeitungsuntersystem 13 wird für das Bild
jedes Targets 17 in dem Basislinienbild anfänglich die
Kontur des Randes in dem Basislinienbild bestimmen. Das Bildverarbeitungsuntersystem 13 führt danach
eine pixelweise Suche in dem Arbeitsbild nach dem Rand des Bildes
in dem Arbeitsbild durch. Nach dem Bestimmen von Orten der Targets
in dem Satz von Arbeitsbildern verwendet das Bildverarbeitungsuntersystem 13 jene
Orte und die Orte der jeweiligen Targets in den Basislinienbildern,
um die Transformation zwischen den Arbeits- und Basislinienbildern
zu bestimmen.
-
Gemäß noch einem
weiteren Aspekt der Techniken in der algorithmischen Klasse verwendet das
Bildverarbeitungsuntersystem 13 eine Entfernungstransformationstechnik.
Bei dieser Technik lokalisiert das Bildverarbeitungsuntersystem 13 anfänglich die
Bilder der Targets 17 in dem Arbeitsbild, wobei es jede
zweckmäßige Methodik verwendet, einschließlich beispielsweise
eine oben beschriebene Suchtechnik. Danach verarbeitet das Bildverarbeitungsuntersystem 13 das
Arbeitsbild, um die kleinste Entfernung jedes Pixels in dem Arbeitsbild von
einem den Rand des Bildes eines Targets 17 umfassenden
Pixel zu bestimmen, wodurch ein neues Bild hergestellt wird. Das
neue Bild wird in Regionen, in denen Merkmale des Basislinienbildes
relativ nahe an Merkmalen in dem Arbeitsbild liegen, relativ dunkel
sein. Da in dem Basislinienbild die einzigen Merkmale Bilder der
Targets 17 sind und da Bilder der Targets 17 sowohl
in dem Basislinienbild als auch im Arbeitsbild sich allgemein an
ungefähr
den gleichen Positionen in den beiden Bildern befinden werden, ist
es wahrscheinlicher, dass das neue Bild in Bereichen, die nahe bei
den Orten der Bilder der jeweiligen Targets in den Arbeits- und
Basislinienbildern liegen, relativ hell sind, und in Bereichen des
neuen Bildes, die den Orten der Bilder der Objekte 16 in
dem Arbeitsbild entsprechen, nicht relativ hell sind. Das Bildverarbeitungsuntersystem 13 generiert
dann die Transformation zum Zuordnen des Arbeitsbildes und des Basislinienbildes
unter Verwendung des neuen „Entfernungskarten"-Bildes anstatt des
Arbeitsbildes.
-
Ein
weiterer Aspekt der Techniken in der algorithmischen Klasse nutzt
die Tatsache, dass bei einer Ausführungsform die Targets 17 bei
Betrachtung aus einer Richtung orthogonal zu einer Oberfläche allgemein
kreisförmig
oder elliptisch sind. Wenn ein Target betrachtet oder ein Bild des
Targets aufgenommen wird, und zwar aus einer Richtung, die nicht orthogonal
zu der kreisförmigen
Oberfläche
ist, wird außerdem
das Target als eine Ellipse erscheinen. Deshalb nutzt bei dieser
Technik das Bildverarbeitungsuntersystem 13 eine Formanpassungstechnik, um
die Kontur(en) des Bildes oder der Bilder des oder der Targets in
dem Basislinienbild zu bestimmen. Bei dieser Technik verarbeitet
das Bildverarbeitungsuntersystem 13 anfänglich das Basislinienbild, um
eine Form für
jedes Bild eines Targets in dem Basislinienbild zu bestimmen. Danach
verwendet das Bildverarbeitungsuntersystem 13 den Rand
des Bildes des entsprechenden Targets in dem Arbeitsbild und versucht,
den Ort in dem Arbeitsbild zu finden, der die beste Anpassung für die zuvor
generierte Form liefert. Beim Finden des Orts, der die beste Anpassung
liefert, bestimmt das Bildverarbeitungsuntersystem 13 den
Ort, für
den der Rand des Bildes des Targets 17 am besten der oben
erwähnten
Form entspricht. Der Ort in dem Arbeitsbild, der die beste Anpassung
für die
Form bereitstellt, wird als der Ort des Bildes des Targets in dem
Arbeitsbild erachtet. Das Bildverarbeitungsuntersystem 13 kann
die Stelle des Bildes jedes Targets 17 in jedem des Arbeitsbilds in
der gleichen Weise bestimmen und verwendet die Orte nach Bestimmung
sowohl in den Basislinien- als auch Arbeitsbildern zum Bestimmen
der Transformation dazwischen. Es versteht sich, dass, wenn die Oberflächen der
Targets eine andere Form aufweisen, wie etwa kreisförmig, rechteckig
oder elliptisch, das Bildverarbeitungsuntersystem 13 eine ähnliche Operation
durchführen
kann, um die Form des kleinsten, beispielsweise vierseitigen in
dem Basislinienbild zu bestimmen, das das Target umgibt, und führt danach
entsprechende Operationen in Verbindung mit dem Arbeitsbild durch.
-
Da
die Bilder von Targets durch die strukturierte Beleuchtung, die
beim Aufnehmen bereitgestellt wurde, möglicherweise in den Arbeitsbildern verformt
sein können,
fehlen möglicherweise
einige Bereiche der Bilder der Targets oder der Ränder der Bilder
der Targets in den Arbeitsbildern. Nachdem das Bildverarbeitungsuntersystem 13 den
Rand des Bildes des entsprechenden Targets 17 in dem Arbeitsbild
lokalisiert, kann eine weitere Ausführungsform der algorithmischen
Klasse einen Gewichtungswert generieren, der das Ausmaß darstellt,
in dem sich die Konturen der Ränder
in den beiden Bildern entsprechen. Wenn dementsprechend der Rand
des Bildes oder das Bild selbst des Targets 17 in dem Arbeitsbild
nicht durch die strukturierte Beleuchtung übermäßig verformt ist, wird der
Gewichtungswert relativ hoch sein, wohingegen, wenn der Rand des
Bildes übermäßig verformt
ist, der Gewichtungswert relativ niedrig liegen wird. Das Bildverarbeitungsuntersystem 13 wird
dann die Bilder der Targets in den Arbeits- und Basislinienbildern,
mit den dafür
generierten jeweiligen Gewichtungswerten gewichtet, zum Bestimmen
der Transformation dazwischen verwenden. Diese Transformation, zwischen
den Targetbildern in den Basislinien- und Arbeitsbildsätzen berechnet,
ist eine affine Transformation und eindeutig, weil sie die starre
Bewegung aller Targets in der Szene berücksichtigt, und keine separate
Transformation für
jedes Target.
-
3 bis 7 zeigen
Flussdiagramme von Operationen, die von dem Bildverarbeitungsuntersystem 13 in
Verbindung mit den oben beschriebenen Techniken durchgeführt werden.
Da die Operationen aus der obigen Beschreibung offensichtlich sind,
werden die Flussdiagramme hierin nicht weiter beschrieben.
-
Die
Erfindung stellt eine Reihe von Vorteilen bereit. Die Erfindung
stellt insbesondere eine Reihe von Anordnungen bereit, die das Aufnehmen
von Bildern von Objekten 16 und Targets 17 in
einer Szene 15 gestatten, wobei eine strukturierte Beleuchtung für die Objekte 16 bereitgestellt
wird und dabei Rauschen in Verbindung mit den Positionen der Targets in
den Bildern, das aus der Verwendung von strukturierter Beleuchtung
entstehen kann, reduziert oder eliminiert wird.
-
Wenngleich
das Bildverarbeitungsuntersystem so beschrieben worden ist, dass
es eine Transformation zwischen dem Arbeits- und Basislinienbildsatz
generiert, was zum Transformieren des mit dem Arbeitsbildsatz verbundenen
lokalen Koordinatensystems in das globale Koordinatensystem verwendet
werden kann, versteht sich, dass das Bildverarbeitungsuntersystem
stattdessen die Orte der Targets in dem oder den Bildern, die den
Arbeitsbildsatz umfassen, nach Bestimmung unter Verwendung des Basislinienbildsatzes,
verwenden kann, um eine Transformation direkt zwischen dem mit dem
Arbeitsbildsatz verbundenen lokalen Koordinatensystem und dem globalen
Koordinatensystem zu bestimmen.
-
Es
versteht sich, dass ein System gemäß der Erfindung ganz oder teilweise
aus Spezialhardware oder einem Allzweckcomputersystem oder in einer beliebigen
Kombination davon aufgebaut werden kann, wobei ein beliebiger Abschnitt
davon durch ein geeignetes Programm gesteuert werden kann. Jedes Programm
kann ganz oder teilweise auf herkömmliche Weise Teil des Systems
sein oder darauf gespeichert sein, oder es kann ganz oder teilweise über ein Netz
oder einen anderen Mechanismus zum Transferieren von Informationen
auf herkömmliche
Weise in dem System bereitgestellt sein. Außerdem versteht sich, dass
das System mit Hilfe von Informationen betrieben und/oder anderweitig
gesteuert werden kann, die von einem Operator unter Verwendung von nicht
gezeigten Operatoreingabeelementen, die direkt an das System angeschlossen
sein können
oder die die Informationen an das System über ein Netz oder einen anderen
Mechanismus zum Transferieren von Informationen auf herkömmliche
Weise transferieren können,
bereitgestellt werden.
-
1
- 10
- bildverarbeitungsuntersystem 13
-
3
-
Korrelationsmethodik
- 100
- Basislinien-
und Arbeitsbildsatz aufnehmen
- 101
- Bilder
indem Basislinienbildsatz analysieren, um Orte der Targets darin
zu identifizieren
- 102
- Generieren
einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort
wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
- 103
- Unter
Verwendung der Masken, Durchführen einer
Korrelationsoperation zwischen den jeweiligen Masken der Arbeits-
und Basislinienbildsätze
in Verbindung mit jedem Targetbild, um den Ort des Bildes jedes
Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen,
zu bestimmen
- 104
- Verwenden
der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen
einer beschränkten
Transformation dazwischen.
-
4
-
Methodik der kleinsten Quadrate
- 110
- Basislinien-
und Arbeitsbildsatz aufnehmen
- 111
- Bilder
in dem Basislinienbildsatz analysieren, um Orte der Targets darin
zu identifizieren
- 112
- Generieren
einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen
Ort wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
- 113
- Unter
Verwendung der Masken, Durchführen einer
Operation der Anpassung der kleinsten Quadrate zwischen den jeweiligen
Masken der Arbeits- und Basislinienbildsätze in Verbindung mit jedem Targetbild,
um den Ort des Bildes jedes Targets in dem oder den Bildern, die
den Arbeitsbildsatz umfassen, zu bestimmen
- 114
- Verwenden
der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen
einer beschränkten
Transformation dazwischen.
-
5
-
Randsuchmethodik
- 120
- Basislinien-
und Arbeitsbildsatz aufnehmen
- 121
- Bilder
in dem Basislinienbildsatz analysieren, um Orte der Targets darin
zu identifizieren
- 122
- Generieren
einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort
wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
- 123
- Unter
Verwendung der Masken, Durchführen einer
Suchoperation für
einen Rand oder mehrere Ränder
jedes Targetbildes in jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt
von einer Korrelationsoperation zwischen Rändern innerhalb der jeweiligen Masken
der Arbeits- und Basislinienbildsätze, um den Ort des Bildes
jedes Targets in dem oder den Bildern, die den Arbeitsbildsatz umfassen,
zu bestimmen
- 124
- Verwenden
der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen
einer beschränkten
Transformation dazwischen.
-
6
-
Entfernungstransformationsmethodik
- 130
- Basislinien-
und Arbeitsbildsatz aufnehmen
- 131
- Bilder
in dem Basislinienbildsatz analysieren, um Orte der Targets darin
zu identifizieren
- 132
- Generieren
einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort
wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
- 133
- Unter
Verwendung der Masken, Durchführen einer
Suchoperation für
einen Rand oder mehrere Ränder
jedes Targetbildes in den jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt
von einer Entfernungstransformationsoperation zwischen den Rändern innerhalb
der jeweiligen Masken der Arbeits- und Basislinienbildsätze, um
den Ort des Bildes jedes Targets in dem oder den Bildern, die den
Arbeitsbildsatz umfassen, zu bestimmen
- 134
- Verwenden
der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen
einer beschränkten
Transformation dazwischen.
-
7
-
Formsuchmethodik
- 140
- Basislinien-
und Arbeitsbildsatz aufnehmen
- 141
- Bilder
in dem Basislinienbildsatz analysieren, um Orte der Targets darin
zu identifizieren
- 142
- Generieren
einer Maske, die Regionen des Arbeitsbildes nahe dem gleichen relativen Ort
wie Bilder der jeweiligen Targets in dem Basislinienbild definiert
- 143
- Unter
Verwendung der Masken, Durchführen einer
Suchoperation für
einen Rand oder mehrere Ränder
jedes Targetbildes in den jeweiligen Bildern der Arbeits- und Basislinienbildsätze gefolgt
durch Formberechnung der Targetbildkontur in dem Basislinienbildsatz und
dem nachfolgenden Durchführen
einer Operation der besten Anpassung zwischen dem Rand des Targetbildes
in dem Arbeitsbildsatz an die berechnete Form in dem Basislinienbildsatz,
um den Ort des Bildes jedes Targets in dem oder den Bildern, die
den Arbeitsbildsatz umfassen, zu bestimmen
- 144
- Verwenden
der Orte der Bilder der Targets in den Arbeits- und Basislinienbildsätzen zum Bestimmen
einer beschränkten
Transformation dazwischen.