DE69635891T2 - Verbesserte optische kamera zur entfernungsmessung - Google Patents

Verbesserte optische kamera zur entfernungsmessung Download PDF

Info

Publication number
DE69635891T2
DE69635891T2 DE69635891T DE69635891T DE69635891T2 DE 69635891 T2 DE69635891 T2 DE 69635891T2 DE 69635891 T DE69635891 T DE 69635891T DE 69635891 T DE69635891 T DE 69635891T DE 69635891 T2 DE69635891 T2 DE 69635891T2
Authority
DE
Germany
Prior art keywords
image
camera
location
distance
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69635891T
Other languages
English (en)
Other versions
DE69635891D1 (de
Inventor
Giora Yahav
I. Gavriel IDDAN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft International Holdings BV
Original Assignee
3DV Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from IL114278A external-priority patent/IL114278A/en
Priority claimed from IL116223A external-priority patent/IL116223A/en
Application filed by 3DV Systems Ltd filed Critical 3DV Systems Ltd
Application granted granted Critical
Publication of DE69635891D1 publication Critical patent/DE69635891D1/de
Publication of DE69635891T2 publication Critical patent/DE69635891T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft im Allgemeinen Systeme zum Erzeugen dreidimensionaler Bilder und insbesondere Kamerasysteme, die ein Bild eines Ortes erfassen und die Entfernung zu Objekten oder Anteilen von Objekten an dem Ort bestimmen.
  • Allgemeiner Stand der Technik
  • Es sind verschiedene Techniken zum Erzeugen dreidimensionaler Bilder eines Ortes bekannt, d.h. Bilder, die Tiefen- oder Entfernungsinformation enthalten. Zu beispielhaften Verfahren gehören Laufzeit, Phasendetektion und Triangulation. Diese Techniken erfordern im Allgemeinen, dass das Bild z.B. durch einen Laserstrahl abgetastet wird und Punkt für Punkt Tiefendaten beschafft werden. Es wäre jedoch bei zahlreichen Anwendungen wünschenswert, Tiefen- oder Entfernungsinformation gleichzeitig über das gesamte Bild zu erhalten.
  • Die US-Patentschrift 5,200,793, die hierin durch Bezugnahme aufgenommen ist, beschreibt eine entfernungsmessende Array-Kamera, die eine Lichtquelle und ein CCD oder ein anderes Detektor Array enthält. Ein elektrooptischer Modulator moduliert sowohl die Beleuchtung des Zielortes durch die Lichtquelle als auch das Licht, das von dem Ort zu dem Detektor Array reflektiert wird, sodass die Beleuchtung und das erfasste Licht dasselbe Modulationsmuster aufweisen. Wenn die Modulationsfrequenz geändert wird, analysiert ein Computer die Intensitätsänderung an jedem Pixel des Arrays, um die Entfernung von der Kamera zu dem Anteil des Ortes zu bestimmen, der durch das Pixel abgebildet ist.
  • S. Christie et. al. beschreiben in „Measurement Science and Technology 6" (September 1995), S. 1301 bis 1308, das hierin durch Bezugnahme aufgenommen ist, ein zweidimensionales Entfernungsmessungssensorsystem. Zu diesem System gehört ein Laser zum Beleuchten des interessierenden Ortes und eine torgesteuerte, verstärkte CCD-Kamera, die ein Bild des Ortes beschafft. Der Laser ist zum Bereitstellen eines Beleuchtungsimpulses mit einer erwünschten Länge moduliert, und die Kamera ist zum Empfangen von Licht von dem Ort für eine gleiche Zeitspanne torgesteuert. Der Kamerataktimpuls kann gleichzeitig mit dem Beleuchtungsimpuls erfolgen oder er kann zeitlich dazu verzögert sein. Die integrierte Lichtintensität, die an jedem Pixel des CCD- Arrays während des Taktimpulses empfangen wird, ist eine Funktion der Entfernung von der Kamera zu dem Abschnitt des Ortes, der durch das Pixel abgebildet ist. Ein Computer analysiert die derart empfangene Lichtintensität über das gesamte Array und leitet daraus Bereichsinformation ab.
  • Die PCT-Veröffentlichung WO 89/12837 beschreibt einen Entfernungsmesser, der eine Pulslichtquelle, einen torgesteuerten Bildverstärker und einen Bildsensor aufweist. Die Lichtquelle ist durch eine erste Wellenform gesteuert, und der getaktet Bildverstärker ist durch eine zweite Wellenform gesteuert. Die erste und die zweite Wellenform definieren einen Fensterbereich und eine Lichtmenge, die den Bildsensor von Objekten in dem Fensterbereich erreicht, wird zum Bestimmen von Entfernungen zu den Objekten verwendet.
  • Die Wellenformen sind nach der Kalibrierung nicht einstellbar und durch eine feststehende Zeitverzögerung zueinander zeitverzögert, die nur Schaltungs- und strukturelle Verzögerungen kompensiert. Infolgedessen ist der Fensterbereich in WO 89/12837 ein feststehender, verhältnismäßig kurzer Fensterbereich mit einem Mindestbereich, der im Wesentlichen null entspricht.
  • US 5,216,259 lehrt ein Verfahren zum Bestimmen einer Entfernung zu einem Ziel unter Verwendung eines optischen Signals, das durch einen zeitabhängigen Verstärkungsfaktor modifiziert oder geändert wird. Ein kurzer Lichtimpuls, der von einem Laser ausgesendet wird, wird von dem Ziel reflektiert und von einem optischen Verstärker mit einem zeitabhängigen Verstärkungsfaktor empfangen. Der Betrag, um die der empfangene Impuls verstärkt wird, hängt von einer Verstärkung zu einer Zeit ab, zu der das reflektierte Licht den Verstärker erreicht. Der reflektierte Impuls „stoppt" oder markiert die zeitabhängige Verstärkungsfunktion des Verstärkers, wenn er den Verstärker erreicht. Der verstärkte Impuls wird verarbeitet, um die Verstärkung zu bestimmen, die auf den Impuls angewandt wurde, und die Verstärkung wird wiederum zum Bestimmen einer Zeit benutzt, zu der der Impuls den Verstärker erreicht hat. Die Ankunftszeit wird zum Bestimmen eines Zeitablaufs von einer Zeit, zu der der Impuls gesendet wurde, zu einer Zeit benutzt, zu der der reflektierte Impuls den Verstärker erreicht. Die Entfernung zum Ziel wird aus dem Zeitablauf bestimmt.
  • Die Patentschrift lehrt ein zweites Verfahren zum Bestimmen einer Entfernung zu einem Ziel durch Empfangen von Licht, das vom Ziel reflektiert ist, von einem gesendeten Lichtimpuls in mehreren Abtastintervallen, die einer Zeit folgen, zu der der Impuls gesendet wurde. Ein Entfernungsprozessor bestimmt eine Kombination von Ab tastintervallen, in denen der reflektierte Lichtimpuls empfangen wird, und daraus eine Entfernung zum Ziel.
  • US 3,463,588 beschreibt ein optisches Radarsystem, bei dem positive Bilder, die aus Rückstreuung von übertragener Energie und Umgebungsenergie resultieren, mit negativen Bildern verschachtelt werden, die nur aus Umgebungsenergie resultieren, um Umgebungsbilder aus dem Display eines optischen Radars entsprechend verschachtelten, alternativen Steuersignalen zu beseitigen. Entfernungs- und Entfernungsbandsteuerung sind durch Steuern der Timing-Verhältnisse der Steuersignale bereitgestellt.
  • Kameras mit Entfernungsgattern sind gleichermaßen in der Technik bekannt. Zu derartigen Kameras gehört im Allgemeinen ein torgesteuertes Detektor Array, das in Verbindung mit einer gepulsten oder Stroboskoplichtquelle zusammenwirkt, die einen Ort beleuchtet. Das Array kann beispielsweise durch Ankoppeln eines torgesteuerten Verstärkers torgesteuert sein, wie etwa des verstärkten Lens System, das von IMCO Electro-optics Ltd., Essex, UK hergestellt wird, oder durch andere Mittel, die in der Technik allgemein bekannt sind. Das Gattertiming des Detektor Array ist bezüglich der Lichtquelle derart verzögert, dass nur Objekte innerhalb eines erwünschten Entfernungsbereichs von der Kamera erfasst werden. Die Kamera kann die Entfernungen zu verschiedenen Objekten oder verschiedenen Punkten innerhalb des Bereichs nicht bestimmen.
  • Kurzdarstellung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, eine verbesserte Entfernungsmessungskamera bereitzustellen, die Tiefeninformation im Wesentlichen gleichzeitig von allen Pixeln an einem Ort beschafft.
  • In einigen Aspekten der vorliegenden Erfindung erzeugt die Entfernungsmessungskamera sowohl ein Intensitätsbild als auch ein Entfernungsbild des Ortes, wobei die Bilder gleichzeitig registriert werden.
  • In einem Aspekt der vorliegenden Erfindung erzeugt die Entfernungsmessungskamera ein dreidimensionales Bild des Ortes.
  • In anderen Aspekten der vorliegenden Erfindung gibt die Entfernungsmessungskamera Information bezüglich der Entfernung eines oder mehrerer Objekte an dem Ort von der Kamera aus. Diese Entfernungsinformation kann zum Filtern und/oder weiteren Verarbeiten eines von der Kamera beschafften Bildes verwendet sein, oder als Rückmeldung zur Kamera selbst, wodurch es ihr ermöglicht wird, ihre Entfernungserfassungsfunktion zu größerer Selektivität und/oder Präzision anzupassen.
  • In bevorzugten Ausführungsformen der vorliegenden Erfindung weist eine Entfernungsmessungskamera eine Strahlungsquelle zum Beleuchten eines interessierenden Ortes und ein Detektor Array, vorzugsweise ein CCD-Array, zum Abtasten der Strahlungsintensität auf, die von Objekten an dem Ort reflektiert werden, wie in einer ersten PCT-Patentanmeldung unter dem Titel „Optical Ranging Camera" beschrieben, die am selben Datum von denselben Anmeldern wie der vorliegenden Anmeldung eingereicht wurde und auf den Inhaber der vorliegenden Anmeldung übertragen ist und deren Offenbarung hierin durch Bezugnahme aufgenommen ist. Die Strahlungsquelle wird beispielsweise durch eine mechanische Blende oder Flüssigkristallblende moduliert, die die Quelle abwechselnd für vorgegebene, bekannte Zeiträume blockiert und freigibt. Die reflektierte Strahlung wird gleichermaßen moduliert, so dass Strahlung, die das Detektor Array erreicht, vorzugsweise für vorgegebene, bekannte Zeiträume blockiert und freigegeben wird, die dieselben wie, oder insbesondere, andere als die Zeiträume sein können, für die die Strahlungsquelle blockiert und freigegeben wird. Die Intensität der Strahlung, die das Detektor Array erreicht und dadurch erfaßt ist, wird dann verarbeitet, um Entfernungen von Objekten an dem Ort zur Kamera zu bestimmen.
  • Während in einigen bevorzugten Ausführungsformen der vorliegenden Erfindung die Strahlungsquelle und reflektierte Strahlung durch eine oder mehrere mechanische Blenden oder Flüssigkristallblenden moduliert werden, wie oben beschrieben, können andere, in der Technik bekannte Strahlungsmodulatoren gleichermaßen benutzt sein. Daher modulieren in einigen bevorzugten Ausführungsformen ein oder mehrere elektrooptische Modulatoren, wie etwa KDP-Kristallmodulatoren, die Quelle und/oder reflektierte Strahlung. Zusätzlich oder alternativ kann in einigen Aspekten der vorliegenden Erfindung die Strahlungsquelle elektronisch moduliert sein, durch Anwenden einer geeigneten Wellenform auf Schaltungen, die die Quelle betreiben. Ferner kann zusätzlich oder alternativ die reflektierte Strahlung durch in der Technik bekannte Reset/Readout-Techniken moduliert sein, wobei das Detektor Array zunächst zurückgesetzt wird, d.h. Elemente des Arrays werden im Wesentlichen von darin angesammelten, gehäuften elektrischen Ladungen befreit, und nach einer vorgegebenen, bekannten Verzögerungsperiode werden Ladungen, die sich in den Elementen angesammelt haben, ausgelesen und gemessen.
  • Die Strahlungsquelle weist vorzugsweise einen Laser auf, kann jedoch alternativ geeignete Lichtquellen anderer Arten aufweisen.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung weist die Entfernungsmessungskamera ein telezentrisches optisches System auf, wie in einer zweiten PCT-Patentanmeldung unter dem Titel „Telecentric Optical Ranging Camera" beschrieben, die am selben Datum von denselben Anmeldern wie der vorliegenden Anmeldung eingereicht wurde und ebenfalls auf den Rechtsnachfolger der vorliegenden Anmeldung übertragen ist und deren Offenbarung hierin durch Bezugnahme aufgenommen ist. Vorzugsweise wird die reflektierte Strahlung durch geeignete Sammeloptiken gesammelt und durch einen elektrooptischen Modulator moduliert, wie etwa einen KDP-Kristallmodulator. Insbesondere werden die Quellstrahlung und die reflektierte Strahlung entlang einer gemeinsamen optischen Achse parallel gerichtet. In einer derartigen, bevorzugten Ausführungsform werden die Quellstrahlung und die reflektierte Strahlung durch einen gemeinsamen elektrooptischen Modulator moduliert, während sie in anderen bevorzugten Ausführungsformen separat durch verschiedene Modulatoren moduliert werden.
  • In bevorzugten Ausführungsformen der vorliegenden Erfindung wird die Strahlungsquelle durch eine erste Wellenform moduliert und die reflektierte Strahlung durch eine zweite Wellenform moduliert. Die Formen der ersten und zweiten Wellenform und eine Zeitverzögerung zwischen den Wellenformen ist derart eingestellt, dass sie eine erwünschte Funktionsabhängigkeit der Intensität ergeben, die an jedem Pixel des Detektor Array auf die Entfernung von der Kamera zu dem durch das Pixel abgebildeten Objekt erfasst ist.
  • Vorzugsweise werden die erste und zweite Wellenform und die Verzögerung dazwischen derart eingestellt, dass sie ein Entfernungs-„Fenster" definieren, d.h. einen Entfernungsbereich von Objekten von der Kamera, über die die Entfernungen der Objekte bestimmt werden können. Während die Strahlungsquelle und die reflektierte Strahlung jeweils durch die erste und zweite Wellenform moduliert werden, erhält die Kamera nur Bilder von Objekten innerhalb des Fensters. Durch sachdienliches Einstellen des Fensters ist die Verarbeitung der erfassten Strahlung zum Bestimmen der Entfernungen von der Kamera zu den Objekten innerhalb des Fensters vereinfacht und/oder ihre Genauigkeit verbessert. Vorzugsweise wird das Fenster außerdem zum Maximieren des Dynamikbereichs der Kamera für Objekte in einem Entfernungsbereich von der Kamera, der einem Abschnitt des interessierenden Orts entspricht, angepasst.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung sind die erste und die zweite Wellenform derart, dass die Sende- und/oder reflektierte Strahlung viele Male während eines einzelnen Felds oder Rahmens des Detektor Array blockiert und freigegeben werden. Vorzugsweise weisen die erste und zweite Wellenform mehrere Impulse auf, wobei jeder Impuls der zweiten Wellenform einem entsprechenden Impuls der ersten Wellenform durch eine vorgegebene, typischerweise konstante Verzögerung folgt. Unter Berücksichtigung, dass die Dauer eines Standardvideofelds ungefähr 16 ms beträgt, während die Dauer der Impulse der ersten und zweiten Wellenform typischerweise weniger als 1 ms betragen, ist ersichtlich, dass Hunderte oder Tausende derartiger Impulse in der Zeit eines einzigen Felds oder Rahmens enthalten sein können. Derartige Mehrfachimpulsfunktionen sind beim Erhöhen des Signal-Rausch-Verhältnisses des Bilds von Nutzen, das durch die Kamera erzeugt ist.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung ist das Fenster anpassungsfähig eingestellt, um Bilder von einem oder mehreren interessierenden Objekten zu beschaffen. Vorzugsweise wird ein erstes Fenster, das einen weiten Entfernungsbereich von der Kamera abgrenzt, anfänglich durch Modulieren der Quelle und der reflektierten Strahlung unter Verwendung von Wellenformen mit verhältnismäßig langer Dauer definiert. Ein Bild der interessierenden Objekte wird innerhalb dieses Fensters beschafft und die Entfernung zu wenigstens einem der Objekte bestimmt. Dann wird ein zweites Fenster definiert, das das wenigstens eine Objekt enthält und vorzugsweise einen engeren Entfernungsbereich als das erste Fenster abgrenzt. Auf diese Art und Weise wird ein zweites Bild erhalten, das eine reduzierte Gruppe von Objekten enthält, die nicht interessieren, und eine genauere Bestimmung zu dem wenigstens einen interessierenden Objekt ermöglicht.
  • Vorzugsweise wird das Fenster danach anpassungsfähig eingestellt, um das wenigstens eine interessierende Objekt zu verfolgen. Wenn sich die Entfernung des Objekts von der Kamera ändert, werden die Modulationswellenformen geändert, so dass das Objekt innerhalb des Entfernungsbereichs bleibt, der durch das Fenster abgegrenzt ist.
  • Alternativ oder zusätzlich kann die Entfernung zu einem interessierenden Objekt anfänglich unter Verwendung eines Suchstrahls, beispielsweise einem Laserentfernungsmesser oder anderen, in der Technik bekannten Entfernungsmesserarten, bestimmt sein. Das Fenster wird dann derart eingestellt, dass sich das Objekt innerhalb des Entfernungsbereichs befindet, der davon abgegrenzt ist.
  • In bevorzugten Ausführungsformen der vorliegenden Erfindung werden Bilder von Abschnitten des Ortes, die in Entfernungen von der Kamera außerhalb des Fensters angeordnet sind, nicht erfasst, oder alternativ separat von den Bildern von interessierenden Objekten an dem Ort erfasst. Die vorliegende Erfindung kann dann beispielsweise zum Unterscheiden der einen oder mehreren interessierenden Objekte von einem weiter entfernten Hintergrund verwendet werden. In einigen bevorzugten Ausführungsformen werden die Bilder der interessierenden Objekte dann unter Verwendung von im Stand der Technik bekannten Techniken mit anderen Bildern, beispielsweise computerverarbeiteten oder computererzeugten Bildern, kombiniert, um ein erwünschtes Mischbild zu erzeugen.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung ist das Detektor Array ein zweidimensionales Matrix-Array, beispielsweise ein CCD-Array, und ein oder mehrere Lichtmodulatoren modulieren das reflektierte Licht, das das Array erreicht, so dass verschiedene Modulationswellenformen jeweils verschiedenen Zeilen oder Gruppen benachbarter Zeilen des Array zugeordnet sind. Auf diese Art und Weise sind verschiedene Entfernungsfenster, d.h. verschiedene ausgewählte Entfernungsbereiche, verschiedenen Zeilen oder Gruppen benachbarter Zeilen zugeordnet. Jede derartige Zeile oder Gruppe benachbarter Zeilen erzeugt ein Linienbild des Ortes, das Tiefeninformation von Objekten enthält, die die Linie durchläuft. Zum Erzeugen eines Bilds des gesamten Ortes, das Tiefeninformation über einen weiten Bereich enthält, tastet das Gesichtsfeld allgemein den Ort ab, und mehrfache Linienbilder werden beschafft und kombiniert, wie untenstehend beschrieben.
  • In einigen dieser bevorzugten Ausführungsformen ist ein Flüssigkristallblenden-Array relativ zum CCD-Array angeordnet, um das reflektierte Licht, das jede Zeile oder folgende Gruppe benachbarter Zeilen des CCD-Array erreicht, separat zu modulieren. Vorzugsweise wird das Flüssigkristall-Array derart betrieben, das aufeinander folgende Zeilen oder folgende Gruppen benachbarter Zeilen des Array dem reflektierten Licht über gleiche, aufeinander folgende Zeiträume ausgesetzt sind. Daher empfängt jede aufeinander folgende Zeile oder Gruppe Licht von Objekten innerhalb eines aufeinander folgenden Entfernungsfensters an dem Ort und wird zum Bestimmen der Entfernung derartiger Objekte von der Kamera benutzt.
  • Insbesondere ist das Flüssigkristall-Array derart betrieben, dass eine erste Zeile des CCD-Array, die einer ersten Kante davon benachbart ist, Licht von einem ersten Entfernungsfenster empfängt, das sich verhältnismäßig nahe der Kamera befindet, und eine letzte Zeile des CCD-Array, das einer zweiten Kante davon gegenüber der ersten Kante benachbart ist, Licht von einem letzten Entfernungsfenster empfängt, das sich verhältnismäßig weit weg von der Kamera befindet. Jede aufeinander folgende Zeile des Arrays zwischen der ersten und der letzten Zeile empfängt Licht von einem aufeinander folgenden Entfernungsfenster, wobei alle dieser Entfernungsfenster zusammen im Wesentlichen die Entfernung zwischen dem ersten und letzten Fenster in aufeinander folgenden, vorzugsweise im Wesentlichen gleichen Schritten abdecken.
  • Alternativ wird in anderen bevorzugten Ausführungsformen der vorliegenden Erfindung ein Flüssigkristallblenden-Array zweckmäßig bezüglich des CCD-Arrays angeordnet und, zum separaten Modulieren des reflektierte Lichts, das jedes Pixel oder jede Gruppe benachbarter Pixel in dem CCD-Array erreicht, betrieben, so dass jedem Pixel oder jeder Gruppe von Pixeln ein eigenes Entfernungsfenster zugeordnet ist. Das Blenden-Array kann vorzugsweise anpassungsfähig betrieben sein, so dass jedes Entfernungsfenster die Entfernung zu einem Punkt auf einem interessierenden Objekt an dem Ort verfolgt, dessen Bild durch das entsprechende Pixel oder die entsprechende Gruppe von Pixeln erfasst ist. Dadurch kann das Entfernungsfenster, das jedem der Pixel oder jeder der Gruppen von Pixeln zugeordnet ist, zum Enthalten und Erbringen genauen Lesens der Entfernung zu dem Punkt sowie zum Reduzieren von Bildgruppen eingestellt sein.
  • In einigen dieser bevorzugten Ausführungsformen in denen jedes Pixel sein eigenes Entfernungsfenster aufweist, sind Gruppen von einander benachbarten Pixeln zum Zusammenwirken als „Superpixel" organisiert. Jedes derartige Super-Pixel kann beispielsweise eine Drei-mal-Drei-Gruppe von neun Pixeln enthalten, auf die Licht, das von dem Ort reflektiert wird, entlang einer gemeinsamen Achse abgebildet wird. Auf diese Art und Weise ist ein vollständiges Bild des Ortes erfasst, das Tiefeninformation mit einem gewünschten Entfernungsauflösungsgrad enthält, wenn auch zu Lasten der Seitenauflösung. Es können Superpixel jeder Größe, beispielsweise 1 × 2 Pixel, 2 × 2 Pixel oder 4 × 4 Pixel, zum Erzielen eines optimalen Kompromisses zwischen Entfernung und Seitenauflösung benutzt sein.
  • Obwohl die obigen Ausführungsformen unter Bezugnahme auf ein Flüssigkristallblenden-Array beschrieben wurden, versteht es sich, dass in anderen bevorzugten Ausführungsformen der vorliegenden Erfindung andere Lichtmodulator-Arrayarten zu ähnlichen Zwecken benutzt werden können, z.B. torgesteuerte, adressierbare Mikrokanal-Arrays oder Arrays elektrooptischer oder akustooptische Lichtmodulatoren.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung, in denen verschiedene Entfernungsfenster sequentiell verschiedenen Zeilen eines Detektor Array zugeordnet sind, die jeweils ein Linienbild eines Abschnitt des Ortes erzeugen, wie oben beschrieben, tastet das Gesichtsfeld des Array den Ort in einem "Pushbroom"-Abbildungsmodus ab. Anders gesagt wird die Kamera vorzugsweise seitlich bezüglich des Ortes auf eine Art und Weise verschoben, dass das Linienbild, das von jeder der Zeilen erzeugt wird, in einer Richtung über den Ort streicht, die senkrecht zur Längsausdehnung der Zeilen ist. Die Kamera erfasst eine Folge der Linienbilder von jeder Zeile des Detektor Arrays entlang einer Abfolge paralleler Linien.
  • Alternativ kann das Gesichtsfeld der Kamera abgetastet werden, oder Objekte an dem Ort können sich zum selben Zweck seitlich bezüglich der Kamera bewegen.
  • Vorzugsweise ist die Gewinnung von Bildern durch die Kamera mit der Verschiebung oder Abtastung des Detektor Array bezüglich des Orts synchronisiert, so dass ein Abschnitt des Ortes, der durch jede Zeile des Arrays (außer der ersten Zeile) an jedem Punkt in der von der Kamera erzeugten Abfolge von Bildern abgebildet ist, im Wesentlichen derselbe ist wie der Abschnitt des Ortes, der durch die vorhergehende Zeile des Arrays an dem vorhergehenden Punkt in der Abfolge abgebildet ist, außer dass ein anderes Entfernungsfenster vorliegt. Auf diese Art und Weise wird ein vollständiges, dreidimensionales Bild des Ortes ermittelt, da für jeden Punkt an dem Ort die Intensität des reflektierten Lichts als eine Funktion der Entfernung von der Kamera über einen weiten Entfernungsbereich gemessen wird.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung enthält die Kamera Scan-Optiken, die ein Linienbild des Ortes fokussieren und modulieren, so dass das Linienbild nacheinander auf jede der Zeilen des Detektor Arrays projiziert wird. Dadurch wird ein aufeinander folgendes Entfernungsfenster erhalten, das jeder Zeile des Array zugeordnet ist, wobei das Fenster durch die Zeit definiert ist, während der das Linienbild auf der Zeile verweilt. Entfernungen zu Objekten an dem Ort, die das Linienbild durchläuft, innerhalb jedes der aufeinander folgenden Entfernungsfenster werden gemäß dem oben beschrieben Verfahren bestimmt. Die Scan-Optik kann einen optomechanischen Hochgeschwindigkeitsscanner, einen akustooptischen oder elektrooptischen Modulator oder andere, in der Technik bekannte Scannerarten enthalten.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung enthält die Kamera drei Detektor Arrays mit zugeordneten Farbfiltern, vorzugsweise rot, grün und blau, wie in der Technik bekannt, und ermittelt dadurch Farbbilder des Ortes. Al ternativ könnte die Kamera nur ein oder zwei Detektor Arrays mit einem oder mehreren, in der Technik bekannten Streifen- oder Mosaikfarbfiltern enthalten, die ihr zum Ermitteln von Farbbildern zugeordnet sind. Daher wird bezüglich jedes Pixels des Arrays Intensitäts-Farb- und Tiefeninformation gleichzeitig ermittelt.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung werden zweidimensionale Intensitäts- und/oder Farbbilder und dreidimensionale Entfernungsbilder (d.h. Pixel-zu-Pixel-Entfernungsinformation) registriert und übereinander gelagert, um Tiefenbilder für einen Benutzer der Kamera zu erzeugen und sie ihm zu präsentieren. Derartige Tiefenbilder können unter Benutzung jeglicher in der Technik bekannter Verfahren erzeugt werden, beispielsweise durch Zeichnen von isodistanten Konturlinien auf ein zweidimensionales Bild oder durch Benutzen von Pseudofarbe zum Anzeigen von Entfernungen in einem einfarbigen Bild oder mit Hilfe einer computererzeugten isometrischen Projektion.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung ist die Kamera auf einer beweglichen Plattform angebracht, beispielsweise auf einem Luftfahrzeug zum Beschaffen topographischer Bilder des Bodens, über den das Luftfahrzeug fliegt, oder alternativ auf einer Seeplattform, entweder unter Wasser oder auf der Wasseroberfläche, oder auf einer Raumplattform. Die Kamera arbeitet vorzugsweise im "Pushbroom"-Modus, wie oben beschrieben, und die Bildgewinnung durch die Kamera ist mit der Geschwindigkeit über Grund der beweglichen Plattform synchronisiert. Durch die Kamera gewonnene Bilder werden vorzugsweise zum Aufzeichnen von Merkmalen und Objekten unter der Plattform verwendet und können außerdem zum Berechnen der dreidimensionalen Volumen derartiger Merkmale und Objekte benutzt sein. In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung ist die Kamera auf einem Roboter angebracht oder diesem anderweitig zugeordnet, der die von der Kamera bereitgestellte, dreidimensionale Bildinformation zum Führen seiner Aktion bei einer gewünschten Aufgabe benutzt.
  • Alternativ oder zusätzlich wird die Kamera in einigen bevorzugten Ausführungsformen der vorliegenden Erfindung zur Qualitätssicherung oder Qualitätskontrolle eines Herstellungsvorgangs benutzt, beispielsweise zum Bestimmen mehrfacher Dimensionen eines Herstellungsgegenstands und zum Bestätigen, dass er einen Standard erfüllt. Gleichermaßen kann durch Messen von Oberflächenkonturen von Schüttgut oder von Waren, die in einem Behälter gelagert sind, dessen Größe ebenfalls unter Verwendung der Kamera erkannt oder gemessen werden kann, das Volumen des Guts oder der Waren bestimmt werden.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung wird die Kamera in einem Modellscanner zum Erzeugen von dreidimensionalen Bildern eines interessierenden Objekts benutzt. Die Bilder sind vorzugsweise Farbbilder. In einer derartigen bevorzugten Ausführungsform werden diese dreidimensionalen Bilder in Verbindung mit einem System für rasche, dreidimensionale Prototypmodellierung, wie in der Technik bekannt, zum Reproduzieren einer oder mehrerer dreidimensionaler Kopien oder Modelle des interessierenden Objekts unter Beinhaltung von Oberflächenfarbreproduktion benutzt.
  • In wiederum anderen bevorzugten Ausführungsformen der vorliegenden Erfindung ist die Kamera auf einem Fahrzeug zum Gebrauch in einem Kollisionsverhütungssystem angebracht, beispielsweise durch Identifizieren möglicher Gefährdungen und Bestimmen der Entfernung vom Fahrzeug zu den Gefährdungen.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung wird eine Entfernungsmessungskamera wie oben beschrieben in Verbindung mit einem Endoskop zum Beschaffen dreidimensionaler Bilder eines interessierenden Bereichs innerhalb des Körpers eines Patienten benutzt.
  • In einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung ist die Kamera an eine Sensormatrix zur Benutzung durch eine blinde Person gekoppelt. Die Sensormatrix kann beispielsweise mehrere Stifte aufweisen, die zum Drücken gegen die Haut der blinden Person betätigt werden, beispielsweise auf ihrer Stirn, wobei der Druck, der von jedem Stift auf die Haut ausgeübt wird, proportional zur Entfernung der Person zu einem entsprechenden Punkt an dem Ort ist, der von der Kamera eingefangen ist. Vorzugsweise steuert die blinde Person das Entfernungsfenster der Kamera derart, dass der Bereich des durch die Stifte ausgeübten Drucks einem gewünschten Entfernungsbereich von der Person entspricht.
  • Es wird daher gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine Vorrichtung zum Erzeugen eines Bildes bereitgestellt, die Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    eine modulierte Strahlungsquelle mit einer ersten Modulationsfunktion, die Strahlung auf einen Ort richtet;
    einen Detektor, der von dem Ort reflektierte Strahlung erfasst, die durch eine zweite Modulationsfunktion moduliert ist, und entsprechend der erfassten modulierten Strahlung Signale entsprechend der Entfernung zu Bereichen des Orts erzeugt;
    einen Prozessor, der Signale von dem Detektor empfängt und Bilder auf Grundlage der Signale mit einer Intensitätswertverteilung erzeugt, welche für die Entfernung von Objekten von der Vorrichtung kennzeichnend ist; und
    eine Steuereinheit, die wenigstens eine der ersten und zweiten Modulationsfunktionen entsprechend der Intensitätswertverteilung des vom Prozessor erzeugten Bildes ändert.
  • Es ist ferner gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine Vorrichtung zum Erzeugen eines Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    eine modulierte Strahlungsquelle mit einer ersten Modulationsfunktion, die Strahlung auf einen Ort richtet;
    einen Detektor, der einen Detektormodulator enthält, mit einer zweiten Modulationsfunktion und ein Detektor Array, wobei das Array mehrere Detektorelemente enthält, wobei der Detektor Strahlung erfasst, die von mehreren parallelen, beabstandeten Segmenten innerhalb des Ortes reflektiert wird, und entsprechend der erfassten Strahlung Signale entsprechend der Entfernung zu Bereichen des Orts erzeugt; und
    einen Prozessor, der ein Bild erzeugt, das wenigstens einige der mehreren, beabstandeten Segmente enthält und eine Intensitätswertverteilung aufweist, welche für die Entfernung von Objekten von der Vorrichtung kennzeichnend ist,
    wobei jedes der mehreren, beabstandeten Segmente Entfernungsgrenzen bezüglich der Vorrichtung aufweist, die durch den Detektormodulator bestimmt sind, und wobei wenigstens eines der mehreren, beabstandeten Segmente Entfernungsgrenzen aufweist, die sich von den Grenzen von wenigstens einem anderen beabstandeten Element unterscheiden.
  • Außerdem ist gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein System zum Erzeugen eines erweiterten Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    eine Vorrichtung zum Erzeugen eines Bildes wie oben beschrieben, wobei die Vorrichtung mehrere folgende Bilder des Ortes erzeugt, wobei wenigstens eines der mehreren Bilder eine oder mehrere Bereiche des Ortes enthält, die in wenigstens einem anderen der Bilder nicht enthalten sind; und
    einen Bildprozessor, der die mehreren Bilder zum Erzeugen eines erweiterten Bildes kombiniert, das Entfernungen zu Objekten an dem Ort anzeigt.
  • Ferner ist gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine Vorrichtung zum Erzeugen eines Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    eine modulierte Strahlungsquelle, die Strahlung auf einen Ort richtet;
    telezentrische Optiken, die von dem Ort reflektierte Strahlung empfangen und parallel richten;
    einen Modulator, der die parallel gerichtete Strahlung moduliert;
    einen Detektor, der ein Bild erfasst, das aus der modulierten, parallel gerichteten Strahlung erzeugt ist; und
    einen Prozessor, der ein Bild mit einer Intensitätswertverteilung erzeugt, welche für die Entfernung von Objekten von der Vorrichtung kennzeichnend ist, entsprechend der Intensitätsverteilung des erfassten Bildes,
    wobei die Quelle und der Detektor achsausgerichtet sind, und
    wobei der Modulator, der die parallel gerichtete Strahlung moduliert, die von dem Ort reflektiert ist, nicht die Strahlung moduliert, die von der Quelle auf den Ort gerichtet ist.
  • Zudem ist gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine Vorrichtung zum Erzeugen eines Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    eine modulierte Strahlungsquelle mit einer ersten Modulationsfunktion, die Strahlung auf einen Ort richtet;
    einen ersten Detektor, der von dem Ort reflektierte Strahlung erfaßt, die durch eine zweite Modulationsfunktion moduliert ist, und entsprechend der erfaßten modulierten Strahlung Signale entsprechend der Entfernung zu Bereichen des Orts erzeugt;
    einen zweiten Detektor, der mit dem ersten Detektor achsausgerichtet ist und von dem Ort reflektierte Strahlung erfaßt, die nicht durch eine zweite Modulationsfunktion moduliert ist, und entsprechend der erfaßten Strahlung Signale entsprechend der Intensität von Licht, das von den Bereichen des Ortes reflektiert ist, erzeugt;
    einen Prozessor, der Signale von dem ersten und zweiten Detektor empfängt und ein Bild auf Grundlage der Signale erzeugt, mit einer Intensitätswertverteilung, welche für die Entfernung von Objekten von der Vorrichtung kennzeichnend ist.
  • Es ist ferner gemäß einer Ausführungsform der vorliegenden Erfindung ein System zur Roboterführung bereitgestellt, das eine Vorrichtung zum Erzeugen eines Bildes, welches Entfernungen zu Objekten an einem Ort anzeigt, wie oben beschrieben, und einen Roboter enthält, der auf ein Objekt an dem Ort einwirkt, unter Ausnutzung der durch die Vorrichtung angezeigten Entfernung zu dem Objekt zur Führung.
  • Es ist zudem gemäß einer andern bevorzugten Ausführungsform der vorliegenden Erfindung ein System bereitgestellt, zum Bestimmen von Dimensionen eines Gegenstandes, das eine Vorrichtung zum Erzeugen eines Bildes des Gegenstands, welche Entfernungen zu Bereichen des Gegenstands anzeigt, und einen Computer enthält, der die Dimensionen des Gegenstands unter Nutzung des Bildes und der angezeigten Entfernung bestimmt. Vorzugsweise vergleicht der Computer die Dimensionen mit einem Standard. Alternativ oder zusätzlich bestimmt der Computer unter Nutzung der bestimmten Dimensionen das Volumen des Gegenstands.
  • Es ist außerdem gemäß wiederum einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung ein System zum Erzeugen eines dreidimensionalen Modells eines Gegenstands bereitgestellt, das ein System zum Bestimmen von Dimensionen des Gegenstands, wie oben beschrieben, und eine rasche Prototypen erzeugende Vorrichtung enthält, die die Dimensionen empfängt, die von dem System zum Bestimmen von Dimensionen bestimmt sind, und das dreidimensionale Modell gemäß den Dimensionen erzeugt. Vorzugsweise empfängt die rasche Prototypen erzeugende Vorrichtung Bildinformation, die insbesondere Farbbildinformation enthält, von der Vorrichtung zum Erzeugen des Bilds des Gegenstands und wendet die Information auf eine Oberfläche des dreidimensionalen Modells an.
  • Es ist ferner gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein System zur Fahrzeugführung bereitgestellt, das eine Vorrichtung zum Erstellen eines Bildes, das Entfernungen zu Objekten an einem Ort vor dem Fahrzeug in einer Bewegungsrichtung davon anzeigt, wie oben beschrieben, und einen Prozessor enthält, der unter Nutzung des Bildes und der angezeigten Entfernungen Gefährdungen an dem Ort identifiziert.
  • Es wird zudem gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein System zur Endoskopiebildgebung bereitgestellt, das ein Endoskop mit einem fernen Ende zur Einführung in den Körper eines Patienten und einem nahen Ende zum Ankoppeln einer optischen Vorrichtung daran und eine Vorrichtung zum Erzeugen eines Bildes, wie oben beschrieben, enthält, wobei die Vorrichtung an das nahe Ende des Endoskops gekoppelt ist, um Strahlung durch das Endoskop in den Körper zu leiten und davon reflektierte Strahlung zu erfassen.
  • Es ist zudem gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein System zum Erzeugen von Tastbildern eines Orts bereitgestellt, das eine Entfernungsmessungskamera zum Erzeugen eines Bildes eines Ortes, das Entfernungsinformation bezüglich mehrerer Punkte an dem Ort enthält, wie oben beschrieben, und eine adressierbare Matrix von Tastsensoren in Kontakt mit einer Oberfläche auf dem Körper eines Patienten enthält, wobei jeder dieser Sensoren entsprechend der Entfernung zu einem jeweiligen der mehreren Punkten an dem Ort einen Druck auf die Oberfläche ausübt.
  • Es ist ferner gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine Mikrokanal-Arrayvorrichtung zum Modulieren eines Elektronenflusses bereitgestellt, aufweisend:
    eine Mikrokanalplatte, durch die die Elektronen beschleunigt werden; und
    mehrere schaltbare Elektroden, die der Mikrokanalplatte benachbart sind, wobei jede der Elektroden die Beschleunigung von Elektronen in einem entsprechenden Bereich der Platte moduliert.
  • Vorzugsweise weist das Mikrokanal-Array eine Fotokathode auf, die Elektronen empfängt, welche durch die Mikrokanalplatte beschleunigt werden, und Photonen entsprechend den Elektronen erzeugt, wobei die Elektronen leitfähiges, transparentes Material aufweisen, das auf die Fotokathode geschichtet ist.
  • Es ist außerdem gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Kamerasystem zum Erzeugen eines Bilds eines Ortes bereitgestellt, aufweisend:
    eine Fotoanode, die entsprechend einer Strahlung, die von dem Ort darauf einfällt, einen Elektronenfluss erzeugt;
    eine Mikrokanal-Arrayvorrichtung, wie oben beschrieben, die Photonen entsprechend dem Elektronenfluss moduliert und erzeugt; und
    einen Detektor, der die Photonen empfängt und dementsprechend das Bild des Ortes erzeugt.
  • Es ist außerdem gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Verfahren zum Erzeugen eines Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    Modulieren von Strahlung aus einer Strahlungsquelle gemäß einer ersten Modulationsfunktion und Richten der Strahlung auf einen Ort;
    Modulieren von Strahlung, die von dem Ort reflektiert wird, gemäß einer zweiten Modulationsfunktion;
    Erfassen der reflektierten Strahlung und Erzeugen von Signalen entsprechend Entfernungen zu Bereichen des Ortes entsprechend der erfaßten Strahlung;
    Erzeugen eines Bildes mit einer Intensitätswertverteilung, die für die Entfernung zu Objekten an dem Ort kennzeichnend ist; und
    Ändern von wenigstens einer der ersten und zweiten Modulationsfunktion entsprechend der Intensitätswertverteilung des Bildes.
  • Es ist zudem gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Verfahren zum Erzeugen eines Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    Modulieren von Strahlung aus einer Strahlungsquelle gemäß einer ersten Modulationsfunktion und Richten der Strahlung auf einen Ort;
    Definieren mehrerer paralleler, räumlicher Segmente innerhalb des Ortes, wobei jedes derartige Segment Entfernungsgrenzen aufweist;
    Erfassen von Strahlung, die von jedem der parallelen, räumlichen Segmente reflektiert wird, und Erzeugen von Signalen entsprechend der Entfernung zu Bereichen des Ortes entsprechend der erfaßten Strahlung; und
    Erzeugen eines Bildes mit einer Intensitätswertverteilung, die für die Entfernung zu Objekten an dem Ort kennzeichnend ist,
    wobei das Definieren der mehreren räumlichen Segmente das Definieren der Entfernungsgrenzen jedes der mehreren Segmente enthält, und
    wobei sich die Entfernungsgrenzen von wenigstens einem der mehreren räumlichen Segmente von den Entfernungsgrenzen von wenigstens einem anderen räumlichen Element unterscheiden.
  • Es ist ferner gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Verfahren zum Erzeugen eines erweiterten Bildes bereitgestellt, das Entfernungen zu Objekten an einem Ort anzeigt, aufweisend:
    Erzeugen eines ersten Bildes des Ortes, gemäß dem oben beschriebenen Verfahren;
    Abtasten der räumlichen Segmente seitlich, relativ zum Ort;
    Erzeugen eines zweiten Bildes des Ortes auf dieselbe Art und Weise, in der das erste Bild erzeugt wurde; und
    Registrieren und Kombinieren des ersten Bildes mit dem zweiten Bild zum Erzeugen des erweiterten Bildes.
  • Es ist ferner gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Verfahren zum Erzeugen eines Mischbildes bereitgestellt, das ein gewünschtes eingesetztes Bild enthält, welches in eine ausgewählte Zone in dem Mischbild eingefügt wird, das Verfahren weist auf:
    Markieren einer Zone an dem Ort;
    Erzeugen eines ersten Bildes des Ortes, das die markierte Zone enthält, wobei das erste Bild Entfernungen zu Objekten an dem Ort anzeigt;
    Bestimmen der Lage der Grenzen der Zone in dem ersten Bild und der Entfernung zu der Zone, wie durch das erste Bild angezeigt;
    Skalieren des eingesetzten Bildes zum Einpassen in die Grenzen der Zone gemäß der Entfernung zu der Zone; und
    Überlagern des skalierten, eingesetzten Bildes in die Zone in dem ersten Bild zum Erzeugen eines Mischbildes.
  • Vorzugsweise weist das Verfahren ferner auf, das Identifizieren eines interessierenden Objekts in dem ersten Bild, wobei die Entfernung zu dem interessierenden Objekt geringer als die Entfernung zu der Zone ist; das Filtern des ersten Bildes zum Erzeugen eines gefilterten Bildes des interessierenden Objekts; und das Überlagern des gefilterten Bildes des interessierenden Objekts in das eingesetzte Bild in der Zone.
  • Die vorliegende Erfindung wird aus der folgenden detaillierten Beschreibung ihrer bevorzugten Ausführungsformen zusammen mit den Zeichnungen besser verständlich.
  • Kurzbeschreibung der Figuren
  • Es zeigen:
  • 1 eine schematische Darstellung einer optischen Entfernungsmessungskamera gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 2A eine schematische Darstellung einer telezentrischen optischen Entfernungsmessungskamera gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 2B eine schematische Darstellung einer anderen telezentrischen optischen Entfernungsmessungskamera gemäß einer alternativen bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 2C eine schematische Darstellung wiederum einer anderen telezentrischen optischen Entfernungskamera, die zwei Detektor Arrays enthält, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 3 ein schematisches Diagramm, das Wellenformen zeigt, die ein Modulationsschema zum Gebrauch in Verbindung mit der Kamera von 1 oder 2B darstellen, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 4 eine schematische Darstellung eines Ortes, der durch eine Entfernungsmessungskamera abgebildet ist, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 5 eine schematische Darstellung einer entfernungsabhängigen Bildfilterfunktion, die durch Anwenden der in 3 gezeigten Wellenformen auf die Kamera von 1 oder 2B erzielt ist, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 6A ein schematisches Diagramm, das Wellenformen zeigt, die ein alternatives Modulationsschema zum Gebrauch in Verbindung mit der Kamera von 1 oder 2B darstellen, gemäß einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 6B eine schematische Darstellung einer entfernungsabhängigen Bildfilterfunktion, die durch Anwenden der in 6A gezeigten Wellenformen auf die Kamera von 1 oder 2B erzielt ist;
  • 7 eine schematische Darstellung eines anpassungsfähigen optischen Entfernungsmessungskamerasystems gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 8A eine schematische Darstellung eines optischen Entfernungsmessungskamerasystems zum Erzeugen von Videomischbildern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 8B eine schematische Darstellung eines Videobildes, das von dem System von 8A erzeugt ist;
  • 9 eine schematische Darstellung eines optischen Entfernungsmessungskamerasystems zum Erzeugen von Videomischbildern gemäß einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 10 eine schematische Darstellung einer optischen linienabbildenden Entfernungsmessungskamera gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 11 eine schematische, Explosions-Schnittdarstellung eines Blenden-Arrays, vorzugsweise zum Gebrauch mit der Kamera von 10, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 12A ein schematisches Diagramm, das Wellenformen zeigt, die ein Modulationsschema zum Gebrauch in Verbindung mit der Kamera von 10 darstellen, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 12B eine schematische Darstellung einer Abfolge von entfernungsabhängigen Bildfilterfunktionen, die durch Anwenden der in 11A gezeigten Wellenformen auf die Kamera von 10 erzielt sind, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 13 eine schematische Darstellung eines topographischen Abbildungssystems auf Grundlage der linienabbildenden Kamera von 10 gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 14 eine schematische Darstellung eines Bildabtastsystems auf Grundlage der linienabbildenden Kamera von 10 gemäß einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 15 eine schematische Darstellung einer optischen, linienabbildenden Entfernungsmessungskamera gemäß einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 16 eine schematische Darstellung eines Farbstreifenfilters zum Gebrauch zusammen mit einem Detektor Array in der linienabbildenden Kamera von 10 gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
  • 17A eine schematische Darstellung einer optischen Entfernungsmessungskamera gemäß wiederum einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung; und
  • 17B eine schematische Darstellung eines Abschnitts eines Detektor Arrays, der in der Kamera von 17A benutzt ist, zum Erzeugen mehrfacher Entfernungsfenster gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung.
  • Detaillierte Beschreibung von bevorzugten Ausführungsformen:
  • Es wird nun auf 1 Bezug genommen, die eine optische Entfernungsmessungskamera 20 gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt, wie in der oben genannten, zweiten PCT-Patentanmeldung beschrieben, die zum selben Datum eingereicht wurde und hierin durch Bezugnahme aufgenommen ist. Die Kamera 20 weist ein Detektor Array 22 auf, vorzugsweise ein CCD-Array, wie etwa das KAF 0400 CCD-Array, hergestellt von Eastman Kodak, Rochester, New York, USA, oder das HS 0512J CCD-Array, hergestellt von EG&G Reticon, Sunnyvale, Kalifornien, USA. Von dem CCD erzeugte Signale werden von einem Videoprozessor 24 verarbeitet, der vorzugsweise ein dreidimensionales digitales Bild eines Ortes 26, der von der Kamera abgebildet ist, oder alternativ ein zweidimensionales Videobild erzeugt, in dem Entfernungen zu interessierenden Orten angezeigt sind, wie im Folgenden beschrieben.
  • Die Kamera 20 enthält ferner eine optische Baugruppe 28, die von dem Ort 26 reflektiertes Licht empfängt. Die Baugruppe 28 weist eine Eingangsblende 30, eine Sammellinse 32, einen optischen Modulator 34, eine Fokussierungslinse 36 und eine Ausgangsblende 38 auf. Vorzugsweise bilden die Blende 30 und die Sammellinse 32 ein telezentrisches optisches System, wobei die Linse 32 das von dem Ort 26 empfangene Licht auf den Modulator 34 parallel richtet. Der optische Modulator 34 weist vorzugsweise einen elektrooptischen Modulator auf, wie etwa ein Kristall aus KDP oder anderem geeigneten, in der Technik bekannten Material, kann jedoch alternativ Lichtmodulatoren anderer, in der Technik bekannter Arten aufweisen, wie etwa akustooptische Modulatoren, Flüssigkristallblenden oder mechanische Hochgeschwindigkeitsblenden. Es versteht sich, dass die Baugruppe 28 zur Vereinfachung der Erläuterung hier nur schematisch gezeigt ist, und dass die Kamera 20 in der Praxis im Allgemeinen zusätzliche Linsen und/oder andere optische Elemente enthält, die in der Technik bekannt sind.
  • Die Kamera 20 enthält außerdem eine Lichtquelle 40, die vorzugsweise eine Hochleistungslaserdiode wie die OPC-1003-813 Laserdiode, hergestellt von Opto Power Corporation, City of Industry, Kalifornien, USA, und geeignete Optik, wie in der Technik bekannt, zum Bereitstellen einer im Allgemeinen einheitlichen Beleuchtung des Ortes 26 durch die Laserdiode. Alternativ kann die Lichtquelle 40 beispielsweise einen Laser jeglicher anderer, geeigneter Art oder eine inkohärente Lichtquelle, wie etwa eine Stroboskoplampe, aufweisen. Ein Lichtmodulator 44, der von derselben Art wie der Modulator 34 sein kann, ist der Lichtquelle 40 zum Modulieren der Beleuchtung des Ortes 26 zugeordnet. Als weitere Alternative können Antriebsschaltungen 42 eine sachgemäß modulierte Eingangsleistung für die Lichtquelle vorsehen, um die Beleuchtung des Ortes ohne das Erfordernis des zusätzlichen Modulators 44 zu modulieren.
  • Eine Steuereinheit 46 reguliert die Modulation der Beleuchtung des Ortes 26 durch Steuern des Modulators 44 und/oder der Schaltung 42 sowie Steuern des Modulators 34 zum Modulieren der Strahlung, die von dem Ort reflektiert wird und auf das Array 22 einfällt. Vorzugsweise kommuniziert die Steuereinheit 46 mit dem Videoprozessor 24, so dass die Modulation der Beleuchtung und reflektierten Strahlung adaptiv geändert werden kann, wie im Folgenden beschrieben.
  • 2A zeigt eine alternative bevorzugte Ausführungsform der vorliegenden Erfindung, die eine telezentrische optische Entfernungsmessungskamera 50 enthält, wie in der zweiten PCT-Patentanmeldung beschrieben, die zum selben Datum eingereicht wurde und hierin durch Bezugnahme aufgenommen ist. Die Kamera 50 weist ein Detektor Array 22, eine optische Baugruppe 28 und eine Lichtquelle 40 auf. Die Kamera 50 gleicht im Allgemeinen der Kamera 20, unterscheidet sich jedoch hauptsächlich darin von jener, dass bei der Kamera 50 ein gemeinsamer Modulator 52 sowohl die Beleuchtung von der Quelle 40 als auch die Strahlung moduliert, die von dem Ort 26 zum Array 22 reflektiert ist. Der Modulator 52 weist vorzugsweise ein KDP-Kristall oder alternativ jede andere geeignete Art von Modulator auf, wie oben beschrieben. Die Beleuchtung von der Quelle 40 wird im Wesentlichen durch eine Projektionslinse 54 parallel gerichtet und unter Benutzung eines Strahlenkombinators 58 auf die optischen Achse 56 ausgerichtet.
  • Der Modulator 52 kann zum Anwenden einer gemeinsamen Wellenform auf die Beleuchtung sowie die reflektierte Strahlung benutzt werden. In bevorzugten Ausführungsformen der vorliegenden Erfindung wird der Modulator 52 jedoch von der Steuereinheit 46 zum Anwenden mehrfacher Wellenformen betrieben, vorzugsweise einer ersten Wellenform, die auf die Beleuchtung angewendet wird, und einer zweiten Wellenform, die auf die reflektierte Strahlung angewendet wird, wie im Folgenden beschrieben.
  • Es versteht sich, dass der Modulator 52, während die erste und die zweite Wellenform jeweils angewendet werden, im Allgemeinen sowohl die Beleuchtung als auch die reflektierte Strahlung willkürlich überträgt. Vorzugsweise steuert dazu der Videoprozessor 24 das Array 22, so dass das Array nur in Reaktion auf Strahlung, die aufgrund der zweiten Wellenform durch den Modulator 52 übertragen wird, Signale erzeugt. Daher aktiviert beispielsweise in bevorzugten Ausführungsformen der Erfindung, in denen das Array 22 ein CCD-Array aufweist, wie oben beschrieben, der Videoprozessor 24 vorzugsweise die elektronische Blende des Array, wie in der Technik bekannt, synchron mit der zweiten Wellenform. Gleichermaßen steuert die Antriebsschaltung 42 die Lichtquelle 40 synchron mit der ersten Wellenform.
  • 2B zeigt wiederum eine andere bevorzugte Ausführungsform der vorliegenden Erfindung, die eine telezentrische optische Entfernungsmessungskamera 59 enthält. Die Kamera 59 gleicht der Kamera 50, die in 2A gezeigt ist, außer dass die Kamera 59 den Modulator 44 zum Modulieren der Beleuchtung des Ortes 26 unabhängig vom Modulator 52 aufweist, der die reflektierte Strahlung moduliert. Daher können die Modulationswellenformen, die auf die Kamera 20 angewendet sind, gleichermaßen mit ähnlichen Ergebnissen auf die Kamera 59 angewendet sein, wie im Folgenden beschrieben.
  • 2C zeigt wieder eine andere bevorzugte Ausführungsform der vorliegenden Erfindung, die eine telezentrische optische Entfernungsmessungskamera 64 mit zwei Detektor Arrays 22 und 65 enthält. Das Detektor Array 22 empfängt Strahlung, die von dem Ort 26 reflektiert und durch den Modulator 52 moduliert wurde, im Wesentlichen wie bezüglich des Detektor Arrays in 2B und in den oben beschriebenen, anderen bevorzugten Ausführungsformen beschrieben. Das Array 65 empfängt jedoch Strahlung von dem Ort 26, die nach der Reflexion von dem Ort nicht moduliert ist. Das Array 65 ist mit Hilfe eines Strahlteilers 66 mit dem Array 22 ausgerichtet. Eine Abbildungslinse 67 und eine Ausgangsblende 68 erzeugen daher ein nicht moduliertes Bild des Ortes 26 auf dem Array 65, wobei das Bild vorzugsweise im Wesentlichen mit dem (modulierten) Bild registriert ist, das auf dem Array 22 erzeugt ist.
  • Wie oben bezüglich der Kamera 59 angegeben, können die Modulationswellenformen, die auf die Kamera 20 angewendet sind, wie im Folgenden beschrieben, gleichermaßen auf die Kamera 64 angewendet werden, mit ähnlichen Ergebnissen bezüglich der Bilder, die vom Array 22 empfangen werden. Die Zweckmäßigkeit der vom Array 65 empfangenen, nicht modulierten Bilder wird ebenfalls im Folgenden beschrieben.
  • Obgleich die in 1, 2A, 2B und 2C dargestellten bevorzugten Ausführungsformen telezentrische Abbildungselemente aufweisen, versteht es sich, dass die Prinzipien der vorliegenden Erfindung gleichermaßen zum Hervorbringen nicht telezentrischer, optischer Entfernungsmessungskameras angewendet sein können, wie etwa in der oben genannten, ersten PCT-Patentanmeldung gezeigt und beschrieben.
  • 3 stellt schematisch Wellenformen 60 und 62 dar, die zum Betreiben der Modulatoren 44 und 34, die in 1 gezeigt sind, benutzt werden, um die Beleuchtung des Ortes 26 bzw. die davon reflektierte Strahlung zu modulieren. Wie gezeigt, weisen beide Wellenformen vorzugsweise rechteckige Impulsformen auf. Wenn sich jede der Wellenformen auf ihrem High Wert befindet, ermöglicht der jeweilige Modulator, dass Licht hindurchdringt. Wenn sich die Wellenform auf ihrem Low Wert befindet, blockiert der Modulator das Licht. Vorzugsweise behalten beide Wellenformen 60 und 62 ihren High Wert, Öffnung der jeweiligen Modulatoren, für eine Periode T bei, wobei das Öffnen des Modulators 34 durch eine Zeit τ bezüglich des Modulators 44 verzögert ist.
  • Obgleich die Wellenformen in 3 rechteckige Impulsformen aufweisen, können außerdem andere Wellenformen benutzt sein, von denen einige Beispiele nachfolgend beschrieben werden. Es versteht sich, dass die Impulsformen in 3 der Einfachheit halber in der folgenden Erläuterung idealisiert sind, wobei jedoch derartige ideale Wellenformen für die Wirkung der vorliegenden Erfindung nicht notwendig sind.
  • 4 ist eine schematische Darstellung eines Ortes 70, der durch die Kamera 20, wie in 1 gezeigt, abgebildet ist, wobei die Kamera gemäß der in 3 gezeigten Wellenformen gesteuert ist. Der Ort 70 enthält mehrere Objekte, einschließlich eines ersten Objekts 72, eines zweiten Objekts 74 und eines dritten Objekts 76, die jeweils in Entfernungen D1, D2 und D3 von der Kamera 20 angeordnet sind. Wenn die Objekte 72, 74 und 76 von der Lichtquelle 40 beleuchtet werden, die in der Kamera 20 enthalten ist, reflektieren sie im Allgemeinen Licht zur Kamera, wobei dieses Licht durch die optische Baugruppe 28 gesammelt und auf das Detektor Array 22 fokussiert wird. Wenn wir für den Moment annehmen, dass die Modulatoren 34 und 44 in einem Dauerstrichbetrieb (CW mode) betrieben sind, d.h. konstant geöffnet sind, erzeugt das von jedem der Objekte reflektierte Licht eine jeweilige konstante Bestrahlungsstärke an einen oder mehreren Elementen des Detektor Arrays, auf die das Bild des jeweiligen Objekts fokussiert ist. Die Höhe der Bestrahlungsstärke ist eine Funktion von unter anderem der Entfernung des jeweiligen Objekts von der Kamera und des spektralen Emissionsgrads des Objekts. Diesen im Wesentlichen konstanten Bestrahlungsstärken entsprechend erzeugen die Elemente des Detektor Array 22 jeweils Basissignalpegel S1, S2 und S3.
  • Wenn die Modulatoren 34 und 44 jeweils durch die Wellenformen 62 und 60 gesteuert sind, weichen die Signale, die durch das Array 22 entsprechend dem von den Objekten 72, 74 und 76 reflektierten Licht erzeugt sind, jedoch aufgrund der, von dem Licht, das von der Lichtquelle 40 ausgesendet wird, benötigen Laufszeit zum Erreichen jedes der Objekte und Zurückkehren zur Kamera 20, von den Basissignalen ab. Diese Laufszeit kann im Allgemeinen durch ti = 2Di/c ausgedrückt werden, wobei c die Lichtgeschwindigkeit ist und sich der Index i auf das i-te Objekt an dem Ort 70 bezieht. Die Wahl der Werte T und τ, wie in 3 gezeigt, definiert ein Entfernungsfenster 78, das durch Mindest- und Höchstentfernungen Dmin bzw. Dmax begrenzt ist, wobei Dmin = (τ – T)c/2 und Dmax = (τ + T)c/2, außer wenn τ < T ist, in welchem Falle Dmin = 0 ist. Wenn die Modulatoren 34 und 44 wie angegeben arbeiten, wird Licht von Objekten außerhalb des Fensters 78, wie etwa Objekt 76, für das D3 > Dmin ist, vom Modulator 34 zurückgewiesen, und daher erzeugt das Array 22 keine wirklichen Signale, die derartigen Objekten entsprechen.
  • Ferner ist, wie in 5 dargestellt, die Stärke des Signals Ii, das vom Array 22 entsprechend einem Objekt innerhalb des Fensters 78 erzeugt wird, wie etwa dem Objekt 72 oder 74, im Wesentlichen linear abhängig von der Entfernung des Objekts von der Kamera. Die Signale I 1 und I 2, die dem Objekt 72 bzw. 74 entsprechen, werden im Allgemeinen gemäß der Formel I i = Ii/Siτf (1)normiert, wobei Ii das nicht normierte Signal aufgrund des i-ten Objekts und f die entsprechende Rasterfrequenz oder Bildfrequenz ist, mit der das Array 22 gesampelt ist.
  • Die Basissignalpegel Si können von dem Detektor Array 22 erfaßt werden, während die Modulatoren 34 und 44 vorübergehend offen gehalten werden, wie oben beschrieben. Alternativ kann, wie in 2C gezeigt, das Detektor Array 65 in der Kamera 64 zum Zweck des Erfassens dieser Basissignale benutzt werden. Das Licht, das auf das Array 22 auftrifft, wird, wie oben beschrieben, zum Zweck des Erfassens von Entfernungsinformation moduliert, während das Licht, das auf das Array 65 auftrifft, im Wesentlichen unmoduliert ist (außer in dem Umfang, dass die Lichtquelle 40 moduliert wird). Daher werden das der Entfernung entsprechende Signal Ii und die Basissignale Si gleichzeitig erhalten.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung, bei denen T und τ so gewählt sind, dass sie im Wesentlichen kleiner als die Rasterfrequenz oder Bildfrequenz sind, können die Wellenformen, die in 3 gezeigt sind, jedoch mehrmals in Folge während eines einzelnen Rasters oder Bilds wiederholt werden. In diesem Falle wird das nicht normierte Signal Ii im Allgemeinen proportional zur Anzahl der Male, die die Wellenformen während jeden Rasters oder Bildes wiederholt werden, erhöht, wobei diese Erhöhung typischerweise das Signal-Rausch-Verhältnis in Bildern, die von der Kamera erfasst werden, verbessert. Wie in der Technik bekannt, ist die Verbesserung des Signal-Rausch-Verhältnisses typischerweise im Bereich zwischen der Quadratwurzel von N und N, wenn N die Anzahl ist, die die Wellenformen während eines einzelnen Rasters wiederholt werden, abhängig davon, ob das Rauschen quelldominiert oder schaltungsdominiert ist. Da T und τ beide typischerweise weniger als eine Mikrosekunde betragen, können die Wellenformen vorzugsweise tausend Mal (oder mehr) während eines einzelnen Viedeorasters von ungefähr 16 ms Dauer wiederholt werden, was eine Signal-Rausch-Verbesserung von einem Faktor von 30 oder mehr zur Folge hat.
  • Die lineare Funktionsabhängigkeit des normierten Signals von der Entfernung von der Kamera 20 ist das Ergebnis der variierenden Überlappung der Beleuchtungswellenform 60 mit der reflektierten Strahlungsmodulationswellenform 62, nachdem die Wellenform 60 wirksam durch die Zeit 2Di/c verzögert wurde, die erforderlich ist, damit das von der Beleuchtungsquelle 40 ausgesendete Licht das jeweilige Objekt erreicht und zur Kamera zurückkehrt. Diese Funktion weist einen Höchstwert auf, wenn das Objekt in einer Entfernung von Di = τc/2 und einer Breite (Dmax – Dmin) angeordnet ist, die proportional zu T ist. Die Entfernung von der Kamera 20 zu einem Objekt innerhalb des Fensters 78 kann daher aus dem normierten Signal bestimmt sein, das entsprechend dem Objekt erzeugt ist. Das normierte Signal I 1 aufgrund des Objekts 72, das in der Nähe der Mitte des Fensters angeordnet ist, ist beispielsweise größer als I 2 aufgrund des Objekts 74, das in einer größeren Entfernung zur Kamera angeordnet ist.
  • Obgleich die Wellenformen 60 und 62 oben so beschrieben wurden, dass sie eine gleiche Dauer T aufweisen, können diese Wellenformen alternativ eine unterschiedliche Dauer T60 bzw. T62 aufweisen. Beispielsweise können T60 und T62 erweitert werden, um stärkere Signale I1 und I2 zu liefern. Infolgedessen weist die Funktionsabhängigkeit der normierten Signale von der Objektentfernung jedoch nicht mehr die in 5 gezeigte Dreiecksform auf, sondern ist trapezförmig, so dass die Entfernungsunterschiede in einem mittleren Abschnitt des Fensters nicht aufgelöst sind. Daher ist in bevorzugten Ausführungsformen der vorliegenden Erfindung die Dauer der Wellenformen 60 und 62 gleich. Dieses Verfahren zum Bestimmen von Objektentfernungen ist ferner in den oben genannten PCT-Patentanmeldungen beschrieben, die hierin durch Bezugnahme aufgenommen sind. Wie in diesen PCT-Patentanmeldungen beschrieben, können andere Modulationswellenformen gleichermaßen zum Betreiben der Modulatoren 34 und 44 benutzt sein, aber die generelle Abhängigkeit der normierten Signale von Objektentfernung und die Anwendungen der Kamera 20 wie hierin beschrieben kann sehr leicht unter Bezugnahme auf die rechteckigen Impulswellenformen, die in 3 gezeigt sind, erläutert werden.
  • Ferner versteht es sich, dass, obgleich die Wellenformen 60 und 62 idealerweise rechteckig gezeigt sind, die Wellenformen, die durch die Modulatoren 34 bzw. 44 auf die Quelle und reflektierte Strahlung angewendet sind, in Wirklichkeit allgemein finite Anstiegs- und Abfallzeiten aufweisen, wie beispielsweise in 6A unten dargestellt. Infolgedessen sind die Ecken der Antwortfunktion gerundet statt scharf, wie in 5 gezeigt. Die Prinzipien der vorliegenden Erfindung sind jedoch gleichermaßen anwendbar, wenn andere, nicht ideale Wellenformen benutzt werden.
  • Es versteht sich außerdem aus der obigen Besprechung, dass die Mittellage des Fensters 78 durch Ändern von τ und die Breite des Fensters durch Ändern von T gesteuert sein kann. Vorzugsweise wird, wenn ein interessierendes Objekt an einem Ort identifiziert ist, τ derart adaptiv durch die Steuereinheit 46 gesteuert, entweder automatisch oder unter dem Befehl eines Kamerabetreibers, dass das interessierende Objekt in der Nähe der Mitte des Fensters gehalten ist, wo das normierte Signal aufgrund des Objekts am größten ist.
  • Vorzugsweise wird ferner T durch die Steuereinheit 46 derart gesteuert, dass die Breite des Fensters begrenzt ist, um nur einen Bereich von Objektentfernungen von der Kamera zu enthalten, in dem interessierende Objekte aufgefunden sind. Diese Begrenzung von T ist nützlich beim Verbessern der Genauigkeit der Objektentfernungsbestimmung, durch Steigern des Richtungskoeffizienten der Abhängigkeit des normierten Signals von der Entfernung, wie in 5 gezeigt, sodass die Unterschiede normierter Signale zwischen Objekten in unterschiedlichen Entfernungen größer sind. Das Begrenzen von T ist ferner nützlich beim Reduzieren von Bild-„Störzeichen", durch Beseitigen von Objekten aus dem vom Array 22 beschafften Bild, die nicht interessieren, beispielsweise Objekt 76 in 4.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung sind τ und T derart durch die Steuereinheit 46 gesteuert, dass der dynamische Objekt- und Ent fernungserfassungsbereich durch die Kamera 20 optimiert ist. Wenn beispielsweise ein Ort mehrere interessierende Objekte in unterschiedlichen Entfernungen von der Kamera enthält, können τ und T zum Verschieben der Mitte des Fensters ungefähr in die Entfernung des Objekts gesteuert werden, das am weitesten von der Kamera entfernt ist. Wie in der Technik bekannt, nimmt die Bestrahlungsstärke, die am Array 22 durch von einem Objekt reflektiertes Licht erzeugt ist, als dritte bis vierte Potenz des Abstandes von der Kamera ab. Daher ist das (nicht normierte) Signal, das entsprechend dem am weitesten entfernten Objekt erzeugt ist, im Allgemeinen das schwächste der Signale, und das Verschieben der Mitte des Fensters zur Entfernung des am weitesten entfernten Objekts hilft, den Dynamikbereich dieses Signals zu maximieren. Wenn eines der Objekte einen wesentlich niedrigeren Reflexionsgrad als ein anderes oder andere Objekte aufweist, kann das Fenster gleichermaßen auf das Objekt mit dem niedrigen Reflexionsgrad zentriert werden, um den Dynamikbereich von dessen Signal zu steigern.
  • 6A ist ein Timing-Diagramm, das eine alternative Ausführungsform der vorliegenden Erfindung darstellt, in dem die Wellenform 60, die zum Modulieren der Beleuchtung angewendet wird, und die Wellenform 62, die zum Modulieren der reflektierten Strahlung angewendet wird, im Allgemeinen trapezförmige Impulsformen aufweisen, die sich tatsächlichen Wellenformen stärker annähern als die idealisierten Rechteckimpulse von 3. Ferner ist die Dauer T60 der Wellenform 60 im Wesentlichen länger als die Dauer T62 der Wellenform 62.
  • 6B stellt schematisch die normierten Signalstärken I i dar, die von den Objekten 72, 74 und 76 empfangen werden, wie in 4 gezeigt, wenn die Kamera 20 gemäß den Wellenformen von 6A arbeitet. Das normierte Signal für Objekte in Entfernungen, die unter Dmin liegen, ist im Wesentlichen gleich null, wie oben beschrieben. Für Objekte in Entfernungen, die größer als Dmid und bis zu Dmax sind, wie etwa Objekt 76 in der Entfernung D3, ist das normierte Signal im Wesentlichen gleich eins. Dmid ist stark von T62 und der Anstiegszeit der Wellenformen 60 und 62 abhängig. Dmax ist stark von der Summe der Zeiten τ und T60 abhängig. Vorzugsweise wird Dmax größer gewählt als die Entfernung des am weitesten von der Kamera entfernten interessierenden Objekts in dem Bild. Alternativ oder zusätzlich kann Dmax so gewählt sein, dass Dmax > c/f ist, wobei c die Lichtgeschwindigkeit ist und f die Raster- oder Bildfrequenz der Kamera 20, wie bereits vorstehend angegeben, so dass alle Objekte in Entfernungen, die größer als Dmid sind, normierte Signale von im Wesentlichen gleich eins geben.
  • Daher ist das normierte Signal innerhalb eines interessierenden Entfernungsbereichs zwischen Dmin und Dmid eine monoton ansteigende Funktion, auf deren Grundlage die jeweiligen Entfernungen D1 und D2 der Objekte 72 und 74 gemäß den Prinzipien der vorliegenden Erfindung bestimmt werden. Objekte in Entfernungen, die außerhalb dieses Bereichs liegen, werden vorzugsweise ignoriert. Der Bereich kann durch Ändern von T62 vergrößert oder vermindert sein. Es versteht sich, dass für Objekte innerhalb des interessierenden Bereichs jeder Wert des normierten Signals einer eindeutigen Entfernung entspricht, ungleich der in 5 gezeigten Funktion, bei der ein gegebener Wert des normierten Signals zwischen 0 und 1 zwei verschiedenen Objektentfernungen entspricht. In dem Schema von 5 müssen diese Entfernungen dann im Allgemeinen durch andere Mittel voneinander unterschieden werden, beispielsweise durch Vergleichen von Ergebnissen, die unter Verwendung verschiedener Entfernungsfenster erhalten sind.
  • 7 zeigt eine bevorzugte Ausführungsform der vorliegenden Erfindung, in der die Kamera 20 dreidimensionale Bildinformation vom Entfernungsfenster 78 an dem Ort 70 beschafft, wobei die Mittenentfernung und die Breite des Fensters anpassungsfähig gesteuert sind. Vorzugsweise empfängt die Kamera 20 anfänglich zweidimensionale Bilddaten, während die Modulatoren 34 und 44 im Dauerstrichbetrieb arbeiten, wie oben beschrieben. Die Bilddaten werden von einem Bildanalysierer 80 empfangen, der Objekte an dem Ort 70 identifiziert und dem Bediener ein Videobild über eine Bedienerkonsole 82 und ein zugehöriges Videodisplay 84 präsentiert. Der Videoanalysierer 80 und die Bedienerkonsole 82 weisen vorzugsweise einen oder mehrere digitale Computer auf, die zur Bildverarbeitung geeignet sind, wie in der Technik bekannt. Der Bediener identifiziert wenigstens ein interessierendes Objekt, wie etwa Objekt 72, an dem Ort 70, vorzugsweise unter Benutzung eines Trackballs, einer Maus oder einem anderen, in der Technik bekannten Eingabezeigegerät, das der Bedienerkonsole 82 zugeordnet ist, um auf das Objekt zu zeigen und es dem Bildanalysierer 80 und/oder einer separaten Systemsteuerung 86 anzuzeigen.
  • Wenn das interessierende Objekt identifiziert ist, beschafft die Systemsteuerung eine anfängliche Entfernungsanzeige bezüglich des Objekts 72. Wie in 7 gezeigt, kann diese anfängliche Entfernungsanzeige durch Richten eines Entfernungsmessers 88, der in der Technik bekannt ist, wie beispielsweise ein Laserentfernungsmesser, auf das Objekt 72 und Empfangen einer Entfernungsanzeige davon gewonnen sein. Die anfängliche Entfernungsanzeige wird von der Systemsteuerung 86 zum Bestimmen angemessener Werte von τ und T zum Erzeugen des gewünschten Entfernungsfensters benutzt, welches vorzugsweise in der Entfernung des Objekts 72 zentriert ist.
  • In alternativen bevorzugten Ausführungsformen der vorliegenden Erfindung beschafft die Systemsteuerung 86 eine anfängliche Entfernungsanzeige ohne Benutzung des Entfernungsmessers 88. Vorzugsweise werden die Modulatoren 34 und 44 mit Hilfe der Steuereinheit 46 zum Bereitstellen eines breiten Fensters unter Benutzung eines verhältnismäßig großen T-Werts gesteuert, das in einer geschätzten Entfernung des Objekts 72 zentriert ist. Wenn die Entfernung des Objekts 72 nicht sachgemäß geschätzt werden kann, kann τ über einen Bereich von Werten zum Erzeugen mehrerer Entfernungsfenster in verschiedenen Entfernungen bewegt werden, bis der anfängliche Bereich gefunden ist. Danach wird T vorzugsweise vermindert, sodass das Fenster enger auf einen Entfernungsbereich begrenzt ist, der das Objekt 72 und jegliche andere interessierende Objekte enthält, so dass die Entfernungen zu diesen Objekten mit optimaler Genauigkeit und reduzierten Bildstörzeichen bestimmt werden können, wie oben beschrieben.
  • Obgleich in den oben beschriebenen bevorzugten Ausführungsformen die interessierenden Objekte anfänglich interaktiv von dem Bediener identifiziert werden, kann in anderen bevorzugten Ausführungsformen der vorliegenden Erfindung der Bildanalysierer 80 interessierende Objekte autonom auf Grundlage vorprogrammierter Bildattribute identifizieren. Der Bildanalysierer kann beispielsweise unter Nutzung von in der Technik bekannten Bildanalyseverfahren und/oder automatischer Zielerkennungsverfahren zum Identifizieren von Fahrzeugen, Personen oder Strukturen programmiert sein. Diese Identifizierungen werden zur Systemsteuerung 86 geleitet, die dann den Entfernungsmesser 88 und/oder die Kamera 20 zum Verfolgen und Bestimmen von Entfernungen zu den identifizierten Objekten steuert.
  • Nachdem das wenigstens eine interessierende Objekt wie auch immer identifiziert und sein anfänglicher Entfernungsbereich gefunden ist, verfolgt danach der Bildanalysierer 80 vorzugsweise das Objekt und seine Entfernung von der Kamera 20. Die Systemsteuerung 86 ändert anpassungsfähig τ und T, um das Entfernungsfenster 78 auf der gewünschten Breite zu halten, im Wesentlichen zentriert auf das Objekt.
  • 8A und 8B stellt schematisch eine bevorzugte Ausführungsform der vorliegenden Erfindung dar, in der die Kamera 20 in Verbindung mit einem in der Technik bekannten Bildprozessor zum Erzeugen eines gewünschten Mischbildes benutzt wird.
  • Mischbilder werden gewöhnlich in der Unterhaltung benutzt, beispielsweise in Nachrichtensendungen zum künstlichen Einfügen eines interessierenden Objekts, typischerweise einer Person, deren Bild von einer Videokamera erfaßt ist, vor einen separat erfaßten Hintergrund. Ein Bild der Person oder eines anderen interessierenden Objekts muss im Allgemeinen vor einen Hintergrund einer bekannten, vorgegebenen Farbe, typischerweise Blau, erfaßt sein. Nach der Erfassung des Bildes der Person oder eines anderen interessierenden Objekts wird es durch Chroma Key bearbeitet, d.h. alle Pixel mit der vorgegebenen Farbe in dem Bild werden identifiziert, und das separat erfaßte Hintergrundbild wird Pixel für Pixel an den farbidentifizierten Pixeln ersetzt. Dieses Chroma-Key-Verfahren erfordert, dass eine Kulisse der vorgegebenen Farbe hinter der Person oder anderen interessierenden Objekten festgelegt ist, und dass die Person oder anderen interessierenden Objekte im Wesentlichen nichts von der vorgegebenen Farbe aufweisen.
  • Wie in 8A gezeigt, ist die Kamera 20 jedoch imstande, Bilder von Personen 92 und 94 selektiv innerhalb eines Fensters 96 zu erfassen, während ein weiter entfernt gelegenes Gebäude aus dem erfaßten Bild ausgeschlossen ist. Vorzugsweise sind τ und T derart eingestellt, dass die normierten Signale, die durch das Array 22 entsprechend den Bildern der Personen 92 und 94 erzeugt sind, im Wesentlichen gleich sind, Trotz der Tatsache, dass die Person 94 von der Kamera 20 weiter weg ist als die Person 92. Eine derartige Angleichung der normierten Signale ist beim Ausführen einer genaueren Bestimmung der Entfernung zur Person 94 hilfreich und kann außerdem beim Erzeugen eines Bildes nützlich sein, das für das Auge angenehmer ist, aufgrund einer klareren Wiedergabe beider Personen 92 und 94.
  • Wie in 8B dargestellt, empfängt der Bildprozessor 90 das selektiv erfaßte Bild von der Kamera 20 und mischt es mit einem Hintergrund zum Erzeugen eines gewünschten, kombinierten Videobildes auf dem Monitor 102 oder gleichermaßen zum Aufnehmen und/oder Senden eines derartigen kombinierten Videobildes. Es ist keine festgelegte Kulisse oder Chroma-Key-Bearbeitung erforderlich. Der Hintergrund 100 kann ein echtes, selektiv erfaßtes Bild oder alternativ ein synthetisches, computererzeugtes Bild oder eine Kombination echter und synthetischer Bilder sein.
  • 9 stellt schematisch eine andere bevorzugte Ausführungsform der vorliegenden Erfindung dar, in der die Kamera 20 und der Bildprozessor 90 in Verbindung mit einer Reklamewand 104 zum Erzeugen eines Mischbildes benutzt sind, in dem ein gewünschtes Bild, beispielsweise eine Werbebotschaft, künstlich in das Bild der Reklamewand angeordnet ist. Derartige bevorzugte Ausführungsformen könnten vorzugsweise z.B. bei internationalen Sportsendungen zum Einführen publikumsspezifischer Reklame in verschiedenen Ländern benutzt werden.
  • Daher erfaßt die Kamera 20 wie in der Figur dargestellt ein Bild, das eine Person 106 und eine Reklamewand 104 enthält, und bestimmt die jeweilige Entfernung zu der Person und der Reklamewand, wie oben beschrieben. Der Bildprozessor 90 identifiziert zusätzlich die Begrenzung 108 der Reklamewand und bestimmt die Position und Ausrichtung der Reklamewand bezüglich der Kamera 20 unter Benutzung von in der Technik bekannten Bildanalyseverfahren. Die Begrenzung 108 enthält vorzugsweise ein leicht identifizierbares Merkmal, beispielsweise einen reflektierenden Streifen, einen Streifen aus Infrarot reflektierendem Material oder einer Reihe Infrarot-LEDs oder anderer Leuchten. Alternativ kann die Reklamewand 104 durch Chroma Key bearbeitet sein, um den Bildprozessor 90 beim genauen Bestimmen der Position und Ausrichtung zu unterstützen. Der Bildprozessor 90 setzt dann ein gewünschtes Bild oder eine gewünschte Botschaft in die Reklamewand 104 in dem von der Kamera 20 empfangenen Bild ein, nachdem geeigneten Einstellen der Größe und des virtuellen Blickwinkels des Bildes oder der Botschaft. Das Bild der Person 106 wird dem Bild oder der Botschaft auf der Reklamewand überlagert.
  • 10 ist eine schematische Darstellung einer linienabbildenden Entfernungsmessungskamera 110 gemäß einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung. Die Kamera 1l0 kann auf analoge Art und Weise zu in der Technik bekannten linearen Array-Abbildungsgeräten benutzt werden, wie etwa lineare Array-CCD-Kameras und -Scanner. Ein derartiges Gerät erzeugt im Allgemeinen ein Bild (ohne Tiefeninformation) eines schmalen, linearen Anteils eines Objekts oder Ortes. Das Gesichtsfeld des Geräts wird dann optisch oder mechanisch über das Objekt oder den Ort bewegt, und die dadurch erzeugten mehrfachen Bilder werden zu einem einzelnen, zweidimensionalen Bild kombiniert. Wie im Folgenden beschrieben, wird das Gesichtsfeld der linienabbildenden Entfernungsmessungskamera 110 vorzugsweise gleichermaßen zum Erzeugen eines Bildes mit dreidimensionaler Information über ein Objekt oder einen Ort bewegt.
  • Wie in 10 gezeigt, weist die Kamera 110 ein Detektor Matrix-Array 112 auf, das vorzugsweise ein CCD-Array ist, das dem Array 22 in Kamera 20 ähnelt. Das Array 112 weist mehrere parallele Reihen 114 von Detektorelementen auf. Ein Videoprozessor 116 betreibt das Array 112 mit Antriebssignalen und empfängt bildentsprechende Videosignale davon. Wie die Kamera 20 wird die linienabbildende Kamera 110 beim Erzeugen eines Bildes des Ortes 26 gezeigt, der von der Lichtquelle 40 beleuchtet ist, betrieben durch die Antriebsschaltungen 42 über den Modulator 44.
  • Die optische Baugruppe 118 in der Kamera 110 weist eine Sammellinse 120, ein lineares Blenden-Array 122 und eine Abbildungslinse 124 auf. Das Blenden-Array 122 weist mehrere lange, schmale Blendenelemente 130, 132, 134, ..., 136 auf und ist vorzugsweise in einer Ebene angeordnet, die im Wesentlichen parallel zur Ebene des Detektor Array 112 liegt, wobei die Elemente 130 bis 136 in einer im Wesentlichen parallel zu den Reihen 114 verlaufenden Richtung ausgerichtet sind. Eine Steuereinheit 126 steuert das lineare Blenden-Array 112 mit Hilfe eines integralen Schaltnetzwerks 128, das vorzugsweise durch die Steuereinheit 126 zum Öffnen jedes der Blendenelemente 130 bis 136 gemäß einer gewünschten Abfolge gesteuert ist. Die Steuereinheit 126 steuert zudem die Antriebsschaltungen 42 und den Modulator 44, wie oben bezüglich der Steuereinheit 46 in der Kamera 20 beschrieben, und steuert und empfängt Daten vom Videoprozessor 116.
  • Vorzugsweise ist das Blenden-Array 122 ein Flüssigkristallblenden-Array oder alternativ ein Array torgesteuerter Mikrokanalelemente oder elektrooptischer oder akustooptischer Modulatorelemente.
  • 11 beispielsweise stellt eine bevorzugte Ausführungsform der vorliegenden Erfindung dar, wobei das Blenden-Array 122 ein torgesteuertes Mikrokanal-Array aufweist, das in teilweise Explosions-Schnittansicht gezeigt ist. Das Array 122 weist eine Fotoanode 137, die auf eine erste Glasplatte 138 geschichtet ist, eine Mikrokanalplatte 139 und eine Fotokathode 143 auf, die auf eine zweite Glasplatte 145 geschichtet ist, wobei ein integrales Schaltnetzwerk 128 darüber gelagert ist. Die Fotoanode 137 und die Fotokathode 143 können jedes geeignete Material aufweisen, das in der Technik bekannt ist, beispielsweise Phosphor. Das Schaltnetzwerk 128 weist vorzugsweise mehrere leitfähige transparente Elektroden auf, beispielsweise ITO-Streifen (Indiumzinnoxid), die auf die Oberfläche der Fotokathode 143 geschichtet sind. Es versteht sich, dass die Glasplatten 138 und 145 und die Mikrokanalplatte 139, obgleich sie aus Gründen der Übersichtlichkeit in der Figur getrennt gezeigt sind, im praktischen Gebrauch im Allgemeinen in einem evakuierten Gehäuse eng zusammengehalten sind, wie in der Technik bekannt.
  • Die Mikrokanalplatte 139 gleicht vorzugsweise den herkömmlichen, in der Technik bekannten Mikrokanalplatten, unterscheidet sich jedoch darin, dass verschiedene Mikrokanalgruppen in der Platte, die die Blendenelemente 130, 132, 134, ..., 136 bilden, durch entsprechende Elektroden 141 individuell geschaltet oder torgesteuert sind. Die Elektroden sind individuell über das Netzwerk 128 schaltbar an eine negative Hochspannungsquelle angeschlossen, wie in der Technik bekannt, vorzugsweise im Bereich von –200 Volt Gleichspannung.
  • Der Betrieb des Blenden-Arrays 122, wie in 11 gezeigt, wird aus dem folgenden Beispiel verständlich. Photonen, die auf die Fotoanode 137 treffen, erzeugen der Fotoelektronen benachbart zur Mikroplatte 139. Wenn eine der Elektroden 147, die dem Element 130 entspricht, an die negative Hochspannung angeschlossen ist, werden Fotoelektronen, die in dem dem Element 130 benachbarten Bereich erzeugt sind, über die Mikrokanäle in der Platte 139 beschleunigt, die das Element 130 bilden, und erzeugen ferner sekundäre Elektronen in den Mikrokanälen, wie in der Technik bekannt. Diese Elektroden durchlaufen die Elektrode 147 und treffen auf die Fotokathode 143, wodurch Photonen in dem Bereich der Kathode erzeugt werden, der dem Element 130 benachbart ist. Unter der Annahme, dass die restlichen Elektroden 141 nicht an die negative Hochspannung angeschlossen sind, findet dieser Prozess im Wesentlichen an keinem der anderen Elemente 132, 134, ..., 136 statt. Daher ist das Blendenelement 130 effektiv offen, während die restlichen Blendenelemente effektiv geschlossen sind. Die Blendenelemente 132, 134, ..., 136 werden vorzugsweise nacheinander in gleicher Weise nach dem Element 130 geöffnet.
  • Die Sammellinse 120 bildet Licht, das von dem Ort 26 reflektiert wird, auf das Blenden-Array 122 ab, welches das Licht wie im Folgenden beschrieben moduliert. Das modulierte Licht von dem Blenden-Array wird dann durch die Abbildungslinse 124 auf das Detektor Array 112 abgebildet. Vorzugsweise ist die optische Baugruppe 118 derart gebaut und ausgerichtet, dass jedes Element 130 bis 136 im Blenden-Array 122 auf eine Reihe 114 des Detektor Array 112 abgebildet ist, oder alternativ auf eine Gruppe benachbarter Reihen 114, abhängig von der Anzahl und Größe der Elemente 130 bis 136 im Vergleich zur Anzahl und Größe der Reihen 114. Obwohl in 10 die Abbildungslinse 124 so dargestellt ist, dass die Abbilden des Blenden-Array 122 auf das Detektor Array 112 mit ungefähr einfacher Vergrößerung erfolgt, versteht es sich, dass jegliche geeignete Vergrößerung durch angemessene Auswahl und Ausrichtung der Abbildungslinse 124 gewählt sein kann, abhängig von den jeweiligen Dimensionen des Blenden-Arrays 122 und des Detektor Arrays 112 und von deren jeweiligen Elementen 130 bis 136 und Reihen 114. Zudem kann, wenn die Abmessungen des Blenden-Arrays 122 und der Blendenelemente 130 bis 136 so klein gemacht werden können, dass sie mit den Abmessungen des Detektor Arrays 112 und der Reihen 114 übereinstimmen, das Blenden-Array 122 dem Detektor Array 112 direkt benachbart angeordnet und durch direkten Kontakt daran gekoppelt sein, womit das Erfordernis des Eingreifens der Abbildungslinse 124 vermieden und die optische Baugruppe 118 vereinfacht ist.
  • 12A ist ein Zeit-Diagramm, das Schalt- und Modulationsimpulse 140 schematisch darstellt, die auf den Modulator 44 und das Blenden-Array 122 in der Kamera 110 angewendet werden, gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung. Der Modulator 44 und die Blendenelemente 130 werden anfänglich durch eine rechteckige Impulswellenform mit einer Dauer T geöffnet, wodurch ermöglicht wird, dass Licht hindurch tritt. Wenn sich der Modulator 44 und das Element 130 schließen, wird eine im Wesentlichen identische Modulationswellenform auf das Element 132 angewendet. Wenn sich das Element 132 schließt, öffnet sich das Element 134 und so weiter in Folge das Array 122 hinunter, bis das letzte Element 136 geöffnet wird. Wie oben angegeben, wird, wenn sich jedes der Blendenelemente 130 bis 136 öffnet, eine entsprechende Reihe 114 oder Reihengruppe des Detektor Array 122 dem von dem Ort 26 reflektierten Licht ausgesetzt.
  • Wie in 12B dargestellt, bewirken das in 12A gezeigte Modulationsmuster 140 eine Reihe aufeinander folgender überlappender Entfernungsfenster 142, die durch die Blendenelemente 130 bis 136 definiert sind. Jede Reihe 114 oder Reihengruppe des Detektor Arrays 112 empfängt Licht nur von Objekten an dem Ort 26, die innerhalb des Fensters angeordnet sind, welches durch sein entsprechendes Blendenelement 130 bis 136 definiert ist. Die Breite der Fenster 142 und ihre jeweilige Mittelentfernung sowie die normierte Signalstärke ist wie oben unter Bezugnahme auf 3, 4 und 5 oder alternativ 6A und 6B bestimmt. Die gegenseitige Überlappung der Entfernungsfenster 142 kann zum Lösen des Problems der Entfernungsmehrdeutigkeit benutzt werden, das anzutreffen ist, wenn ein interessierendes Objekt nur in einem einzigen Fenster enthalten ist, beispielsweise gemäß dem Schema von 5.
  • Es versteht sich, dass das Modulationsmuster 140 und die resultierenden Fenster 142 hier als Beispiel gezeigt sind und jegliches andere, geeignete Modulationsmuster gleichermaßen benutzt werden kann. Beispielsweise können die Modulationswellenformen, die auf den Modulator 44 angewandt werden, der Wellenform gleichen, die in 6A gezeigt und oben unter Bezugnahme auf die Figur beschrieben ist. Die auf die Blendenelemente 130 bis 136 angewandten Wellenformen können in der Form der Wellenform 62 in 6A gleichen und aufeinander folgend angewandt werden, wie im Allgemeinen in 12A gezeigt. In diesem Fall ist eine Reihe überlappender Entfernungsfenster definiert, die in der Form denen gleichen, die in 6B gezeigt sind.
  • Ferner versteht es sich, dass die Modulationsimpulse, die auf die aufeinander folgenden Blendenelemente 130 bis 136 angewendet werden, derart zum Überlappen getimt sein können, dass die entsprechenden Entfernungsfenster eine größere Überlap pung mit ihren jeweiligen Nachbarn aufweisen. Alternativ kann eine Verzögerung zwischen die Modulationsimpulse eingeführt sein, um die Entfernungsfenster auseinander zu spreizen. Zudem müssen die Wellenformen, die auf die aufeinander folgenden Blendenelemente 130 bis 136 angewendet werden, nicht alle gleiche Zeitdauern aufweisen, können aber beispielsweise Perioden aufweisen, die sich von Element zu Element erhöhen, bei einer Bewegung das Array abwärts, so dass in größerer Entfernung von der Kamera 110 die Entfernungsfenster breiter sind.
  • Es versteht sich, dass jeder Bildrahmen, der von der linienabbildenden Kamera 110 erfasst wird, ein Array von Bildscheiben aufweist. Jede Bildscheibe ist seitlich im Wesentlichen an ihre Nachbarn angrenzend, erfasst jedoch Objekte in einem anderen Entfernungsfenster. Daher weist ein Objekt, das sich an der Grenze zwischen zwei Bildscheiben befindet, im Allgemeinen andere Pegel normierter Intensität in den zwei Scheiben auf, oder es kann teilweise in einer der zwei Scheiben erscheinen, in der anderen jedoch nicht. Daher werden, wie bereits oben durch Analogie mit herkömmlichen, in der Technik bekannten Array-Abbildungsgeräten angegeben, in bevorzugten Ausführungsformen der vorliegenden Erfindung die Bildscheiben optisch oder mechanisch über einen Ort bewegt, sodass jedes interessierende Objekt an dem Ort in wenigstens einer Bildscheibe erfasst wird, die ein Entfernungsfenster aufweist, in dem das interessierende Objekt enthalten ist.
  • 13 stellt den Gebrauch der linienabbildenden Kamera 110 schematisch in einem Luftfahrtsystem 146 für dreidimensionale Aufklärungsabbildung dar. Das System 146 weist eine Kamera 110 auf, die an einem Flugzeug 148 nach unten gerichtet angebracht und so ausgerichtet ist, dass die Längendimension der Blendenelemente 130 bis 136 im Wesentlichen senkrecht zur Flugrichtung des Flugzeugs ist. Die Kamera 110 erfasst Bilder eines Ortes 150, die typischerweise Gebäude 152 und 154, Vegetation 156 und ein topographisches Merkmal 158 enthalten können.
  • Wie in 13 dargestellt definiert jedes Blendenelement 130, 132, 134, ..., 136 im Array 122 eine jeweilige Bildscheibe 160, 162, 164, ..., 166. Die Scheiben weisen vorzugsweise im Wesentlichen gleiche Winkelbeträge, oder Scheibendicken, die durch Höhen der Blendenelemente im Array 122 definiert sind, und Entfernungsfenster mit im Wesentlichen gleicher Tiefe auf, wie beispielsweise in 12B gezeigt. Aus Gründen der Übersichtlichkeit beinhaltet 13 nur eine kleine Anzahl Scheiben, obwohl in der Praxis jede Anzahl von Scheiben, bis zur Anzahl von Reihen 114 in dem Array 122, benutzt werden könnte.
  • Wenn das Flugzeug 148 den Ort 150 überfliegt, bewegen sich die Scheiben 160 bis 166 auf "Pushbroom"-Weise über den Ort, so dass jede Scheibe Linie für Linie ein vollständiges zweidimensionales Bild von Objekten an dem Ort erfaßt, die sich innerhalb ihres jeweiligen Entfernungsfenster befinden. Die Entfernung von der Kamera 110 zu jedem Objekt innerhalb des Fensters jeder der Scheiben, beispielsweise das Gebäude 152 in der Scheibe 166, wird präzise aus ihrer normierten Signalstärke bestimmt, wie oben beschrieben. Auf Wunsch können die Entfernungsfenster adaptiv eingestellt werden, um Erhebungsunterschiede an dem Ort aufzunehmen, wie etwa das Gefälle des topographischen Merkmals 158. Vorzugsweise sind die Höhe und die Geschwindigkeit über Grund des Flugzeug 148 bekannt und gesteuert, insbesondere konstant, so dass ein Bildprozessor 170, der die Linienbilder von der Kamera 110 empfängt, die Linienbilder und Entfernungsinformation zu einem vollständigen, dreidimensionalen Bild des Ortes 150 zusammenfügen kann.
  • Ferner wird der Detektor Array 112 vorzugsweise in einem Verhältnis bewegt, das mit der Geschwindigkeit über Grund synchronisiert ist, so dass beispielsweise ein Bereich des Ortes, der in der Scheibe 160 in einem von der Kamera 110 beschafften Raster oder Rahmen erfaßt ist, durch die Scheibe 162 im folgenden Raster oder Rahmen erfaßt wird. Daher kann der Videoprozessor 194 oder ein zugeordnetes Bildbeschaffungssystem bequem und genau die mehrfachen Scheiben und entsprechenden Tiefenfenster registrieren.
  • In einigen bevorzugten Ausführungsformen der vorliegenden Erfindung werden die Linienbilder und Entfernungsinformation, die durch die Kamera 110 erfaßt werden, in dreidimensionaler Bildmessung zum Bestimmen der Seitendimensionen und Erhöhungen der Bildmerkmale benutzt, wie etwa das Gebäude 152 und 154 und das topographische Merkmal 158. Diese Dimensionen und Erhöhungen können dann beispielsweise in genaue topographische Karten und Landvermessungen eingegliedert sein. Sie können gleichermaßen zum Berechnen des Volumens eines Merkmals, wie zum Beispiel des Gebäudes 152, benutzt werden, das normalerweise schwer von herkömmlichen Fotos oder Videobildern mit Genauigkeit abzuleiten ist.
  • Es versteht sich, dass, obgleich 13 die Kamera 110 an einem Flugzeug 148 angebracht zeigt, andere, gleichermaßen bevorzugte Ausführungsformen der vorliegenden Erfindung beschrieben werden können, in denen die Kamera an anderen Luftplattformarten oder alternativ Raum- oder Seeplattformen angebracht sein kann. Beispielsweise kann die Kamera an einem Überwasserseefahrzeug oder einem Unterseefahrzeug zum Kartieren von Unterwasser- oder Meeresgrundmerkmalen angebracht sein.
  • 14 zeigt schematisch eine alternative Ausführungsform der vorliegenden Erfindung, in der die Kamera 110 ortsfest angebracht ist und mehrfache Linienbildscheiben 160 bis 166 eines Ortes 172 einschließlich Entfernungsinformation bezüglich der Objekte 174, 176 und 178 erzeugt. Ein Spiegel 180, der auf einer Drehwelle 182 angebracht ist, bewegt die Linienbilder über den Ort 172, so dass der Bildprozessor 170 auf eine Art und Weise, die der oben bezüglich 13 beschriebenen gleicht, ein vollständiges, dreidimensionales Bild des Ortes erfassen kann. Die Welle 182 wird vorzugsweise durch einen Galvanometer, einen Polygonscanner oder andere, in der Technik bekannte Mittel gedreht.
  • 15 zeigt wiederum eine andere bevorzugte Ausführungsform der vorliegenden Erfindung, in der eine linienabbildende Kamera 190 rasch dreidimensionale Bilder des Ortes 26 erfaßt. Die Kamera 190 weist ein Detektor Array 192, vorzugsweise ein CCD-Array, das mehrere Reihen 193 aufweist, wie das Array 112 in der Kamera 110, und einen Videoprozessor 194 auf, der an das Array 192 gekoppelt ist, ähnlich wie der Bildprozessor 116.
  • Wie in oben beschriebenen bevorzugten Ausführungsformen ist die Lichtquelle 40 durch Antriebsschaltungen 42 zum Beleuchten des Ortes 26 gesteuert, während der Modulator 44 den Beleuchtungsstrahlenweg 196 gemäß einer gewünschten Wellenform öffnet und schließt. Die zylindrische Linse 198 fokussiert den Strahl 196, um eine schmale Beleuchtungslinie 200 an dem Ort 26 zu erzeugen, wobei die Längsachse der Beleuchtungslinie 200 senkrecht zur Ebene von 15 und im Wesentlichen parallel zu den Reihen 193 des Array 192 verläuft. Ein Scanspiegel wird durch einen Scanmotor 204, beispielsweise ein in der Technik bekanntes Galvanometergerät, zum Bewegen der Linie 200 vertikal über die Ausdehnung des Ortes 26 gedreht. Ein derartiges Scannen kann gleichermaßen unter Benutzung eines Polygonspiegels ausgeführt sein, welcher sachgemäß beispielsweise durch einen Stellmotor gedreht wird.
  • Von dem Ort 26 reflektiertes Licht wird durch eine optische Baugruppe 210 gesammelt, gescannt und auf das Array 192 fokussiert. Die Baugruppe 210 weist eine Eingangsblende 212, eine Sammellinse 214, einen optischen Modulator 216, eine Fokussierlinse 218 und eine Ausgangsblende 220 auf. Der Modulator 216 weist vorzugsweise ein akustooptisches Kristall auf, das durch eine Steuereinheit 222 zum Ablenken eines von dem Ort 26 empfangenen Bildstrahls 224 gesteuert ist, um den Strahl vertikal über das Array 192 zu bewegen. Es versteht sich, dass der Bildstrahl 224 eine schmale Linie reflektierten Lichtes aufweist, ähnlich wie die Beleuchtungslinie 200.
  • Die Steuereinheit 222 steuert und empfängt ferner Bilddaten von dem Videoprozessor 194, wie bezüglich der Steuereinheit 126 beschrieben, die in 10 gezeigt ist, und steuert den Antrieb 42, den Modulator 44 und das Galvanometer 204.
  • Vorzugsweise öffnet und schließt sich der Modulator 44 mehrmals, wenn der Beleuchtungsstrahl 196 vertikal über den Ort 26 bewegt wird, so dass die Beleuchtungslinie 200 eine Abfolge horizontaler Scheiben beleuchtet. Für jede dieser Scheiben bewegt der Modulator 216 den Bildstrahl 224 vorzugsweise über im Wesentlichen alle Reihen 193 des Arrays 192 nacheinander, beginnend mit der obersten Reihe und endend mit der untersten Reihe. Daher verweilt der Bildstrahl 224 auf jeder der Reihen 193 nacheinander für eine im Wesentlichen gleiche Verweildauer, die funktionell äquivalent zu der Dauer T der Modulationswellenformen ist, die in 3 und 12A gezeigt sind. Gleichermaßen wie in 12A, erreicht der Strahl 224 jede der Reihen 193 mit einer Verzögerung bezüglich des Beleuchtungsstrahls 196, d.h. im Wesentlichen entsprechend den kumulativen Verweilperioden der vorhergehenden Reihen des Arrays.
  • Es versteht sich daher, dass die Kamera 190 für jede Scheibe des Ortes 26, die durch eine Position der Beleuchtungslinie 200 definiert ist, an der sich der Modulator 44 öffnet, ein Linienbild des Ortes erzeugt, das Entfernungsinformation enthält. Die Entfernungsinformation innerhalb der Scheibe wird in einer Abfolge von Entfernungsfenstern erfasst, wobei jedes Fenster einer anderen Reihe 193 des Arrays 192 entspricht. Wenn der Motor 204 und der Spiegel 202 den Strahl 196 über den Ort 26 bewegen, erzeugt die Kamera 190 ein vollständiges, dreidimensionales Bild des gesamten Ortes.
  • In einer alternativen bevorzugten Ausführungsform der vorliegenden Erfindung wird die Kamera 190 in einem "Pushbroom"-Modus über den Ort bewegt, beispielsweise durch Befestigen der Kamera an dem Flugzeug 148 anstelle der Kamera 110, wie in 13 gezeigt, oder an einer beweglichen Plattform einer anderen, geeigneten Art. In diesem Falle ist der Motor 204 nicht erforderlich, da die Beleuchtungslinie 200 durch die Bewegung des Flugzeugs über den Ort bewegt wird. Da sich alle Entfernungsfenster, die in einem einzelnen Raster oder Rahmen der Kamera 190 erfaßt sind, innerhalb derselben Bildscheibe befinden (nicht wie bei der Kamera 110), ist zudem die Registrierung der individuellen Linienbilder, die von der Kamera 190 erzeugt werden, zu einem kombinierten dreidimensionalen Bild vereinfacht. Der Spiegel 202 kann vorzugsweise durch einen Strahlenkombinator ersetzt sein, wie etwa dem Strahlenkombinator 58, der in 2 gezeigt ist, so dass der Beleuchtungsstrahl 196 und der reflektierte Strahl 224 achsparallel sein können.
  • Die oben beschriebenen, bevorzugten Ausführungsformen der vorliegenden Erfindung können im Allgemeinen dazu geeignet sein, entweder einfarbige oder Farbbilder zu erzeugen. Einfarbige Bilder können unter Benutzung sichtbarer, Infrarot- oder ultravioletter Strahlung zum Beleuchten eines interessierenden Ortes und geeigneter Optik, Modulatoren und Detektoren zum Steuern und Empfangen der Strahlung erzeugt werden.
  • Ferner können die Prinzipien der vorliegenden Erfindung gleichermaßen zum Erzeugen dreidimensionaler Bilder unter Benutzung anderer Strahlungsarten angewendet werden. Beispielsweise können akustische Bilder, wie etwa Sonar- oder Ultraschallbilder, unter Benutzung eines Array akustischer Sensoren und/oder Strahler, wie etwa Mikrofone und piezoelektrische Kristalle, wie sie in der Technik bekannt sind, erzeugt werden, und Tiefeninformationen bezüglich der Objekte in den Bildern können gemäß der vorliegenden Erfindung bestimmt werden. Für akustische Unterwasserabbildung können akustische Linsen, wie in der Technik bekannt, anstelle der optischen Linsen 32 und 36, die in 1 und 2A bis 2C gezeigt sind, vorteilhaft benutzt werden.
  • 16 stellt eine Anpassung des Detektor Arrays 112 zum Gebrauch in der Kamera 110 zum Erzeugen von Farbbildern gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung dar. Das Array 112 ist mit einem Farbstreifenfilter 230 überzogen, der eine Vielzahl von Streifen 232 aufweist, welche jeweils im Wesentlichen eine einzelne, jeweilige Spalte des Array 112 senkrecht zu den Reihen 114 abdeckt. Die Streifen 232 lassen abwechselnd verschiedene entsprechende Lichtfarben durch, vorzugsweise in der Reihenfolge Rot, Grün, Blau, Grün, Rot, Grün usw., wie in der Technik bekannt. Daher sind benachbarte Pixel innerhalb einer Reihe 114 des Arrays 112 abwechselnd rotem, grünem und blauem Licht ausgesetzt. (Vorzugsweise ist das Licht, das von der Beleuchtungsquelle 40 ausgesendet ist, weißes Licht). Die Signale von benachbarten Pixeln werden vorzugsweise zum Ableiten lokaler Helligkeit- und Farbinformation kombiniert.
  • Daher enthält jedes der mehrfachen Linienbilder, die von der Kamera 110 erzeugt werden, im Allgemeinen Farbinformation, zusätzlich zu Intensitäts- und Tiefeninformation. Diese Linienfarbbilder werden dann vorzugsweise gescannt und kombiniert, beispielsweise wie unter Bezugnahme auf 13 oder 14 beschrieben, um dreidimensionale Farbbilder zu erzeugen.
  • Gleichermaßen kann das Detektor Array 22 in Kamera 20, in 1 gezeigt, oder in Kamera 50 in 2A oder Kamera 59 in 2B einen Farbstreifenfilter, wie in 16 gezeigt, oder Farbmosaikfilter, wie in der Technik bekannt, enthalten. Alternativ können drei Detektor Arrays mit geeigneten dichroitischen Filtern, beispielsweise eine dichroitische Prismabaugruppe, die in der Technik bekannt ist, das Array 22 in der Kamera 20, Kamera 50, Kamera 59 oder Kamera 240, die im Folgenden beschrieben ist, ersetzen, um RGBT-Bilder (Rot-Grün-Blau-Tiefe), d.h. Farbbilder, die Tiefeninformation enthalten, zu erzeugen.
  • Zudem werden in bevorzugten Ausführungsformen der vorliegenden Erfindung dreidimensionale Bildinformation, die durch jede der oben beschriebenen, optischen Entfernungsmessungskameras erzeugt werden, verschmolzen und zum Verbessern der zweidimensionalen Intensitätsbilder benutzt, die durch die Kamera erzeugt werden. Gleichermaßen können die zweidimensionalen Intensitätsbilder zum Verstärken oder anderweitigen Verstärken der dreidimensionalen Bilder benutzt werden. Es versteht sich, dass die zwei- und dreidimensionalen Bilder schon an sich miteinander registriert sind, da sie vom selben Detektor Array stammen. Daher kann unter Nutzung von in der Technik bekannten Bildfilterverfahren die Bildinformation in den zwei- und dreidimensionalen Bildern beispielsweise zum Verstärken und/oder Abmildern von Konturen aufgrund von Kanten in den Bildern und/oder zum Korrigieren von derartigen Kanten benachbarten Bildfarben kombiniert werden.
  • 17A stellt schematisch eine Pixel-Entfernungsmeßkamera gemäß wiederum einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung dar. Die Kamera 240 enthält ein Detektor Matrix-Array 241, das mehrere Detektorelemente 242 aufweist, ähnlich wie das in Kamera 110 gezeigte Array 112, wie in 10 dargestellt. Die Kamera 240 enthält außerdem eine optische Baugruppe 243, die ein Flüssigkristallblenden-Array 244 zusammen mit Linsen 120 und 124 enthält, wie in der Kamera 110. Andere Bauteile der Kamera 240, die in 17A gezeigt sind, ähneln im Wesentlichen in Struktur und Funktion jenen in Kamera 110.
  • Das Blenden-Array 244 weist mehrere Blendenelemente 246 auf. Die Baugruppe 243 ist auf geeignete Art und Weise bezüglich des Detektor Arrays 241 ausgerichtet und angeordnet, so dass jedes Blendenelement 246 das von dem Ort 26 reflektierte Licht, das jedes Detektorelement 242 oder jede Gruppe benachbarter Detektorelemente im Array 241 erreicht, individuell moduliert. Das Blenden-Array 244 ist durch die Steuereinheit 126 derart gesteuert, dass verschiedene Blendenelemente 246 zum Öffnen und Schließen zur selben oder verschiedenen Zeiten moduliert sein können. Daher weist jedes Detektorelement 242 oder jede Gruppe von Elementen sein eigenes, ihm zugehöri ges Entfernungsfenster auf, abhängig von der Modulation des entsprechenden Blendenelements.
  • Das Blenden-Array 244 kann vorzugsweise adaptiv betrieben sein, so dass jedes Entfernungsfenster die Entfernung zu einem Punkt an dem Ort 26 verfolgt, dessen Bild von einem jeweiligen Detektorelement 242 oder Gruppe von Elementen erfaßt ist. Jedes dieser Entfernungsfenster kann angepaßt werden, um genaue Ablesungen der Entfernung zu dem Punkt zu enthalten und zu gewinnen, sowie Bildstörzeichen zu reduzieren.
  • Wie schematisch in 17B dargestellt, sind in einigen Ausführungsformen der vorliegenden Erfindung, die die Kamera 240 benutzen, Gruppen von einander benachbarten Detektorelementen 242 in dem Array 241 zum zusammenwirkenden Betrieb als „Superpixel" 250 organisiert. Jedes dieser Superpixel 250 kann beispielsweise eine Drei-mal-Drei-Gruppe von neun Elementen 242 enthalten, auf die Licht, das von dem Ort 26 reflektiert wird, durch die optische Baugruppe 243 im Wesentlichen entlang einer gemeinsamen Achse abgebildet wird. Das Blenden-Array 244 ist derart betrieben, dass jedes der neun Elemente 242 im Superpixel 250 Licht von einem anderen Entfernungsfenster entlang der gemeinsamen Achse empfängt. Diese Fenster sind in 17B mit W1 bis W9 bezeichnet und können beispielsweise Blendenelementen 246 entsprechen, die den neun Detektorelementen zugehören, welche nacheinander öffnen und schließen, gemäß den in 12A dargestellten Modulationswellenformen.
  • Auf diese Art und Weise ist ein vollständiges Bild des Ortes in einem einzelnen Raster oder Rahmen der Kamera 240 erfaßt, unter Beinhaltung von Tiefeninformation mit einem gewünschten Entfernungsauflösungsgrad, wenn auch zu Lasten der seitlichen Auflösung. Es können Superpixel jeder gewünschten Größe, beispielsweise 1 × 2 Pixel, 2 × 2 Pixel oder 4 × 4 Pixel, zum Erzielen optimaler Abdeckung von Objektentfernungen an dem Ort benutzt werden.
  • In einigen Ausführungsformen der vorliegenden Erfindung ist eine wie oben beschriebene Entfernungsmessungskamera, beispielsweise Kamera 20, an einem Roboter angebracht oder diesem anderweitig zugeordnet, welcher die dreidimensionale Bildinformation, die von der Kamera bereitgestellt wird, zum Führen seiner Tätigkeiten bei einer gewünschten Aufgabe nutzt.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung wird die Kamera 20, 50 oder 110 zur Qualitätssicherung oder Qualitätskontrolle eines Herstellungsvorgangs benutzt, beispielsweise zum Bestimmen mehrfacher Dimensionen ei nes Herstellungsgegenstands und zum Bestätigen, dass er einen Standard erfüllt. Gleichermaßen kann durch Messen von Oberflächenkonturen von Schüttgut das Volumen des Guts bestimmt werden. Das Volumen von Waren, die in einem Behälter gelagert sind, dessen Größe gleichermaßen bekannt oder unter Benutzung der Kamera gemessen wird, kann in gleicher Weise bestimmt werden.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung ist die Kamera 20, 50 oder 110 in einem Modellscanner zum Beschaffen von dreidimensionalen Bildern eines interessierenden Objekts benutzt. Die Bilder sind vorzugsweise Farbbilder. In einer derartigen bevorzugten Ausführungsform werden diese dreidimensionalen Bilder in Verbindung mit einem System für rasche, dreidimensionale Prototypmodellierung, wie in der Technik bekannt, zum Reproduzieren einer oder mehrerer dreidimensionaler Kopien oder Modelle des interessierenden Objekts unter Beinhaltung von Oberflächenfarbreproduktion benutzt.
  • In wiederum anderen bevorzugten Ausführungsformen der vorliegenden Erfindung ist beispielsweise die Kamera 20 auf einem Fahrzeug zum Gebrauch in einem Kollisionsverhütungssystem angebracht. Vorzugsweise ist die Kamera 20 ein Teil eines Bildanalysesystems, das mögliche Gefährdungen identifiziert und den Kameraausgang zum Bestimmen der Entfernung vom Fahrzeug zu den Gefährdungen benutzt.
  • In anderen bevorzugten Ausführungsformen der vorliegenden Erfindung wird eine Entfernungsmessungskamera wie oben beschrieben, wie etwa die Kamera 20 oder 50, in Verbindung mit einem Endoskop zum Erzeugen dreidimensionaler Bilder eines interessierenden Bereichs innerhalb des Körpers eines Patienten benutzt.
  • In einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung ist die Kamera 20 oder 50 an eine Sensormatrix zur Benutzung durch eine blinde Person gekoppelt. Die Sensormatrix kann mehrere Stifte aufweisen, die zum Drücken gegen die Haut der blinden Person betätigt werden, beispielsweise auf ihrer Stirn, wobei der Druck, der von jedem Stift auf die Haut ausgeübt wird, proportional zur Entfernung der Person zu einem Objekt an einem entsprechenden Punkt an dem Ort ist, der von der Kamera eingefangen wird. Vorzugsweise steuert die blinde Person das Entfernungsfenster der Kamera derart, dass der Bereich des durch die Stifte ausgeübten Drucks einem gewünschten Entfernungsbereich von der Person entspricht.

Claims (21)

  1. Vorrichtung (50, 59, 64, 110, 190, 240) zum Erzeugen eines Bildes, das Entfernungen zu Punkten in Objekten an einem Ort anzeigt, aufweisend: eine Strahlungsquelle 40, die durch eine erste sich wiederholende pulsförmige Modulationsfunktion moduliert wird, wobei die Quelle die Strahlung derart auf einen Ort richtet, dass ein Anteil der modulierten Strahlung von den Punkten reflektiert wird und die Vorrichtung erreicht; ein Detektor Array (22, 112, 192, 230, 241), welches Strahlung vom Ort erfaßt, die durch eine zweite sich wiederholende pulsförmige Modulationsfunktion, die sich von der ersten Modulationsfunktion unterscheidet, moduliert ist, wobei jedes Element (114, 193, 242) des Arrays einem Flächenelement des Ortes zugeordnet ist und ein Signal mit einer Größe erzeugt, die einer Größe eines Teils des Anteils der Strahlung, welcher die Vorrichtung erreicht, entspricht, wobei die Größe des Teils von der Entfernung des Flächenelements von der Vorrichtung abhängt; und einen Prozessor (24, 90, 116, 170, 194), welcher ein Bild mit einer Intensitätswertverteilung erzeugt, die für die Entfernungen von Flächenelementen an dem Ort von der Vorrichtung kennzeichnend ist, wobei der Prozessor eine Entfernung zu einem Flächenelement bestimmt, entsprechend der Größe des Signals, das von seinem zugehörigen Feldelement geliefert wird, und Entfernungen im Wesentlichen nur für Flächenelemente an dem Ort bestimmt werden, die sich innerhalb eines Fensterbereichs befinden, das durch die erste und die zweite Modulationsfunktion definiert wird; und eine Steuereinheit (46, 126, 222), die wenigstens eine der Modulationsfunktionen einstellt, um die Breite und/oder Lage des Fensterbereichs einzustellen.
  2. Vorrichtung nach Anspruch 1, wobei die erste und die zweite Modulationsfunktion zeitlich versetzt zueinander sind.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei der Fensterbereich einen Mindestbereich aufweist, der größer als null ist.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, welche Mittel zum steuerbaren zeitlichen Versetzen der ersten und der zweiten Modulationsfunkti on zueinander aufweist, um die Lage des Fensterbereichs und dadurch den Entfernungsbereich, der durch die Intensitätswertverteilung dargestellt wird, zu ändern.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die erste und die zweite Modulationsfunktion verschiedene Formen aufweisen.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die erste und die zweite Modulationsfunktion während einer ersten Periode eine verhältnismäßig hohe Transmission und während einer zweiten, folgenden Periode eine verhältnismäßig niedrige Transmission bereitstellen.
  7. Vorrichtung nach Anspruch 6, wobei während der jeweiligen zweiten, folgenden Perioden im Wesentlichen die ganze Strahlung blockiert wird.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei das Bild ein nicht holographisches Bild ist.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, welche eine Steuereinheit (46, 126, 222) aufweist, welche wenigstens die erste oder die zweite Modulationsfunktion ändert.
  10. Vorrichtung nach Anspruch 9, wobei die Steuereinheit wenigstens die erste oder die zweite Modulationsfunktion ändert, die auf die Intensitätswertverteilung des Bildes anspricht, das durch den Prozessor erzeugt wird.
  11. Vorrichtung nach Anspruch 9 oder 10, wobei die Steuereinheit eine Zeitverzögerung zwischen der ersten und der zweiten Modulationsfunktion ändert.
  12. Vorrichtung nach einem der Ansprüche 9 bis 11, wobei die Steuereinheit die Dauer wenigstens eine der Blockier- und Freigabeperioden wenigstens einer der Modulationsfunktionen ändert.
  13. Vorrichtung nach einem der Ansprüche 9 bis 12, welche einen Bildanalysator (80) aufweist, welcher ein interessierendes Objekt an dem Ort identifiziert, wobei die Steuereinheit wenigstens eine Modulationsfunktion ändert, die auf die Entfernung des Objekts von der Vorrichtung anspricht.
  14. Vorrichtung nach einem der vorhergehenden Ansprüche, welche einen Bildprozessor (90, 170) aufweist, der das Bild von Flächenelementen, die sich im Fensterbereich befinden, mit einem zweiten Bild kombiniert, um ein Mischbild zu erzeugen.
  15. Vorrichtung nach Anspruch 14, wobei das Mischbild Anteile des zweiten Bildes aufweist, welche nicht durch die Flächenelemente belegt sind.
  16. Vorrichtung nach Anspruch 14 oder 15, wobei der Prozessor ein Array von Signalen empfängt, das charakteristisch für den Anteil der Strahlung ist, der die Vorrichtung von den Flächenelementen des Ortes erreicht, und wobei das Bild, das durch den Prozessor erzeugt wird, als Reaktion auf die zweite Gruppe von Signalen normiert wird.
  17. Vorrichtung zum Erzeugen eines Bildes nach einem der vorhergehenden Ansprüche, wobei die Elemente in dem Detektor Array in mehreren parallelen Reihen (114) von Elementen konfiguriert sind, wobei jede Reihe Strahlung von dem Ort erfaßt, die durch ihre eigene zweite Modulationsfunktion moduliert ist, welche einen Fensterbereich für die Reihe bestimmt, und wobei die Fensterbereiche von wenigstens zwei Reihen verschieden sind.
  18. Vorrichtung nach Anspruch 17, welche mehrere aufeinander folgende Bilder eines Ortes erzeugt, wobei wenigstens eines der mehreren Bilder eine oder mehr Bereiche des Ortes umfaßt, die in wenigstens einem anderen der Bilder nicht enthalten sind; und ein Bildprozessor (170), welcher die mehreren Bilder kombiniert, um ein erweitertes Bild zu erzeugen, welches Entfernungen zu Objekten an dem Ort anzeigt.
  19. Verfahren zum Bestimmen der Entfernung zu einem Abschnitt eines Ortes, aufweisend: Beleuchten des Ortes mit einer Impulskette von identischen Strahlungsimpulsen, die durch erste Zeitperioden getrennt sind und eine Dauer entsprechend einer zweiten Zeitperiode aufweisen; Verwenden eines Detektors, um Energie abzutasten, die während mehrerer identischer dritter Zeitperioden, die durch vierte Zeitperioden getrennt sind, vom Ort reflektierte werden, wobei sich wenigstens die dritte oder vierte Zeitperiode jeweils von der zweiten und ersten Zeitperiode unterscheidet; Einstellen wenigstens einer der Zeitperioden, um ein Fensterbereich zu bestimmen, in dem sich der Abschnitt des Ortes befindet, wobei der Fensterbereich eine Mindest- und eine Höchstentfernung vom Detektor aufweist; und Ermitteln der Entfernung zu dem Abschnitt des Ortes, der der Größe der Energie entspricht, die während der dritten Zeitperioden abgetastet wird.
  20. Verfahren nach Anspruch 19, wobei die Mindestentfernung größer als null ist.
  21. Verfahren zum Erzeugen eines Mischbildes, das einen ersten Bildabschnitt, der Elemente aufweist, welche innerhalb eines bestimmten Entfernungsbereichs sind, und ein Hintergrundbild in Abschnitten des Mischbildes, welche die Elemente nicht enthalten, aufweist, wobei das Verfahren aufweist: Bestimmen von Elementen innerhalb eines Entfernungsbereichs unter Verwendung des Verfahrens nach Anspruch 19 oder 20; Erzeugen eines Bildes der Elemente; und Kombinieren des Bildes der Elemente und des Hintergrundbildes, um das Mischbild zu erzeugen.
DE69635891T 1995-06-22 1996-06-20 Verbesserte optische kamera zur entfernungsmessung Expired - Lifetime DE69635891T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IL114278A IL114278A (en) 1995-06-22 1995-06-22 Camera and method
IL11427895 1995-06-22
IL116223A IL116223A (en) 1995-12-01 1995-12-01 Telecentric 3d camera and method
IL11622395 1995-12-01
PCT/IL1996/000020 WO1997001111A2 (en) 1995-06-22 1996-06-20 Improved optical ranging camera

Publications (2)

Publication Number Publication Date
DE69635891D1 DE69635891D1 (de) 2006-05-04
DE69635891T2 true DE69635891T2 (de) 2006-12-14

Family

ID=26323086

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69635858T Expired - Lifetime DE69635858T2 (de) 1995-06-22 1996-06-20 Telezentrische 3d kamera und zugehöriges verfahren
DE69635891T Expired - Lifetime DE69635891T2 (de) 1995-06-22 1996-06-20 Verbesserte optische kamera zur entfernungsmessung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69635858T Expired - Lifetime DE69635858T2 (de) 1995-06-22 1996-06-20 Telezentrische 3d kamera und zugehöriges verfahren

Country Status (7)

Country Link
US (2) US6057909A (de)
EP (2) EP0886790B1 (de)
JP (8) JP3869005B2 (de)
CN (3) CN1253636A (de)
AU (2) AU6136096A (de)
DE (2) DE69635858T2 (de)
WO (2) WO1997001111A2 (de)

Families Citing this family (369)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7655895B2 (en) * 1992-05-05 2010-02-02 Automotive Technologies International, Inc. Vehicle-mounted monitoring arrangement and method using light-regulation
US9102220B2 (en) 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
US9443358B2 (en) 1995-06-07 2016-09-13 Automotive Vehicular Sciences LLC Vehicle software upgrade techniques
US9008854B2 (en) 1995-06-07 2015-04-14 American Vehicular Sciences Llc Vehicle component control methods and systems
US10573093B2 (en) 1995-06-07 2020-02-25 Automotive Technologies International, Inc. Vehicle computer design and use techniques for receiving navigation software
US6445884B1 (en) * 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
US6057909A (en) * 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera
US7744122B2 (en) 1995-12-12 2010-06-29 Automotive Technologies International, Inc. Driver side aspirated airbags
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
US6327073B1 (en) 1997-03-07 2001-12-04 3Dv Systems, Ltd. Opto-electronic shutter
WO1998045885A1 (en) 1997-04-08 1998-10-15 3Dv Systems Ltd. Solid state optical shutter
EP1017973A1 (de) * 1997-09-24 2000-07-12 3DV Systems Ltd. Akustischer abbildungsanordnung
US8209120B2 (en) 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US8060308B2 (en) 1997-10-22 2011-11-15 Intelligent Technologies International, Inc. Weather monitoring techniques
US9691188B2 (en) 1997-10-22 2017-06-27 Intelligent Technologies International, Inc. Tolling system and method using telecommunications
US9177476B2 (en) 1997-10-22 2015-11-03 American Vehicular Sciences Llc Method and system for guiding a person to a location
US10358057B2 (en) 1997-10-22 2019-07-23 American Vehicular Sciences Llc In-vehicle signage techniques
US9053633B2 (en) 1997-10-22 2015-06-09 Intelligent Technologies International, Inc. Universal tolling system and method
US9595139B1 (en) 1997-10-22 2017-03-14 Intelligent Technologies International, Inc. Universal tolling system and method
US8983771B2 (en) 1997-10-22 2015-03-17 Intelligent Technologies International, Inc. Inter-vehicle information conveyance system and method
US8965677B2 (en) 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
AU4882797A (en) 1997-11-13 1999-06-07 3Dv Systems Ltd. Three dimension imaging by dual wavelength triangulation
DE69810968T2 (de) 1998-02-08 2003-11-27 3Dv Systems Ltd Optischer verschluss mit grosser blendenöffnung
JP3868621B2 (ja) * 1998-03-17 2007-01-17 株式会社東芝 画像取得装置、画像取得方法、及び記録媒体
EP2416197A1 (de) * 1998-05-25 2012-02-08 Panasonic Corporation Entfernungsmesser und Kamera
JP4105801B2 (ja) * 1998-07-02 2008-06-25 ペンタックス株式会社 3次元画像入力装置
DE69827529T2 (de) 1998-09-28 2005-11-10 3Dv Systems Ltd. Entfernungsmessung mittels kamera
JP3840341B2 (ja) * 1998-10-15 2006-11-01 浜松ホトニクス株式会社 立体情報検出方法及び装置
US10240935B2 (en) 1998-10-22 2019-03-26 American Vehicular Sciences Llc Vehicle software upgrade techniques
US6876392B1 (en) * 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
JP2000221037A (ja) * 1999-01-29 2000-08-11 Topcon Corp 自動測量機と3次元測定方法
JP4303354B2 (ja) * 1999-04-13 2009-07-29 Hoya株式会社 3次元画像入力装置
JP4157223B2 (ja) 1999-04-13 2008-10-01 Hoya株式会社 3次元画像入力装置
US6982761B1 (en) * 1999-06-09 2006-01-03 Pentax Corporation Device for capturing three-dimensional images with independently controllable groups of photoelectric conversion elements
US6822687B1 (en) * 1999-07-08 2004-11-23 Pentax Corporation Three-dimensional image capturing device and its laser emitting device
US6619406B1 (en) * 1999-07-14 2003-09-16 Cyra Technologies, Inc. Advanced applications for 3-D autoscanning LIDAR system
JP4070909B2 (ja) * 1999-07-15 2008-04-02 ペンタックス株式会社 電子カメラのホワイトバランス制御量算出装置
US6961092B1 (en) 1999-07-30 2005-11-01 Pentax Corporation Three-dimensional image capturing device
US6166811A (en) * 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
US7224384B1 (en) 1999-09-08 2007-05-29 3Dv Systems Ltd. 3D imaging system
US7196390B1 (en) 1999-09-26 2007-03-27 3Dv Systems Ltd. Solid state image wavelength converter
JP3875817B2 (ja) 1999-09-27 2007-01-31 ペンタックス株式会社 測距装置の地図座標検出システム
JP3714063B2 (ja) * 1999-10-19 2005-11-09 富士ゼロックス株式会社 3次元形状計測装置
JP2001153624A (ja) 1999-11-24 2001-06-08 Asahi Optical Co Ltd 3次元画像入力装置
US6856355B1 (en) * 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
US6515737B2 (en) * 2000-01-04 2003-02-04 The Regents Of The University Of California High-resolution imaging and target designation through clouds or smoke
US6349174B1 (en) * 2000-05-17 2002-02-19 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
JP2001337166A (ja) 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
US6834128B1 (en) * 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
EP1302066A1 (de) 2000-07-09 2003-04-16 3DV Systems Ltd. Kamera mit ttl bildelementbeleuchtungsvorrichtung
US6456793B1 (en) * 2000-08-03 2002-09-24 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
US6411871B1 (en) * 2000-08-05 2002-06-25 American Gnc Corporation Autonomous navigation, guidance and control using LDRI
US6535275B2 (en) * 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US6410930B1 (en) * 2000-08-24 2002-06-25 Eastman Kodak Company Method and apparatus for aligning a color scannerless range imaging system
US6856407B2 (en) * 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
US6639684B1 (en) * 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
EP1325624A2 (de) * 2000-09-13 2003-07-09 Nextengine, Inc. Überwachung oder steuerung eines abbildungssystems zur gewährleistung der genauigkeit der erfassten datei
US7358986B1 (en) * 2000-09-13 2008-04-15 Nextengine, Inc. Digital imaging system having distribution controlled over a distributed network
US6958777B1 (en) * 2000-09-29 2005-10-25 Ess Technology, Inc. Exposure control in electromechanical imaging devices
WO2002049339A2 (en) * 2000-12-11 2002-06-20 Canesta, Inc. Cmos-compatible three-dimensional image sensing using quantum efficiency modulation
JP2002191554A (ja) * 2000-12-26 2002-07-09 Asahi Optical Co Ltd 3次元画像検出装置を備えた電子内視鏡
US6999219B2 (en) 2001-01-30 2006-02-14 3Dv Systems, Ltd. Optical modulator
US7233351B1 (en) 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
US6480265B2 (en) * 2001-03-26 2002-11-12 Deep Optic Ltd. Active target distance measurement
JP4530571B2 (ja) 2001-04-16 2010-08-25 Hoya株式会社 3次元画像検出装置
JP3726699B2 (ja) * 2001-04-20 2005-12-14 日本ビクター株式会社 光学撮像装置、光学測距装置
CA2348212A1 (en) * 2001-05-24 2002-11-24 Will Bauer Automatic pan/tilt pointing device, luminaire follow-spot, and 6dof 3d position/orientation calculation information gathering system
JP4931288B2 (ja) 2001-06-08 2012-05-16 ペンタックスリコーイメージング株式会社 画像検出装置と絞り装置
US7160258B2 (en) 2001-06-26 2007-01-09 Entrack, Inc. Capsule and method for treating or diagnosing the intestinal tract
DE10133126A1 (de) * 2001-07-07 2003-01-16 Philips Corp Intellectual Pty Richtungssensitives Audioaufnahmesystem mit Anzeige von Aufnahmegebiet und/oder Störquelle
EP1423731B1 (de) * 2001-08-06 2006-10-04 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
JP2003149717A (ja) * 2001-11-19 2003-05-21 Mitsubishi Heavy Ind Ltd 撮像方法及び撮像装置
FR2832892B1 (fr) * 2001-11-27 2004-04-02 Thomson Licensing Sa Camera video d'effets speciaux
US20030147002A1 (en) * 2002-02-06 2003-08-07 Eastman Kodak Company Method and apparatus for a color sequential scannerless range imaging system
EP1335235A3 (de) * 2002-02-12 2003-09-17 MARICO s.a.s di Dallara Riccardo &amp; C. Ein Anblicksystem mit Projektion der Abbildungen des Lichtes
JP3832441B2 (ja) 2002-04-08 2006-10-11 松下電工株式会社 強度変調光を用いた空間情報の検出装置
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
US9007197B2 (en) * 2002-05-20 2015-04-14 Intelligent Technologies International, Inc. Vehicular anticipatory sensor system
DE10223136C1 (de) * 2002-05-24 2003-12-24 Fraunhofer Ges Forschung Verfahren zur Anpassung und Einstellung des Tiefenmessbereichs einer Studiokamera
US20030235338A1 (en) * 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
US7429996B2 (en) * 2002-07-16 2008-09-30 Intel Corporation Apparatus and method for sensing depth in every direction
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7854655B2 (en) * 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7186969B2 (en) * 2003-02-12 2007-03-06 Mitutoyo Corporation Optical configuration for imaging-type optical encoders
US7505862B2 (en) * 2003-03-07 2009-03-17 Salmon Technologies, Llc Apparatus and method for testing electronic systems
EP1418401A1 (de) * 2003-03-26 2004-05-12 Leica Geosystems AG Verfahren und Vorrichtung zur luft- oder raumgestützten Photogrammetrie
JP2004312249A (ja) * 2003-04-04 2004-11-04 Olympus Corp カメラ
US6791673B1 (en) * 2003-04-07 2004-09-14 Robert E. Malm Ground surveillance system
NZ525241A (en) * 2003-04-08 2006-02-24 Univ Waikato Range sensing system with shuttered receiver.
US7316930B1 (en) 2003-04-21 2008-01-08 National Semiconductor Corporation Use of vertically stacked photodiodes in a gene chip system
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP3196805A3 (de) * 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Zielausrichtungsschätzung mithilfe von tiefenmessung
US7044908B1 (en) 2003-07-08 2006-05-16 National Semiconductor Corporation Method and system for dynamically adjusting field of view in a capsule endoscope
ITRM20030360A1 (it) * 2003-07-23 2005-01-24 Marcello Marzoli Procedimento di ricostruzione tridimensionale di immagini
US7399274B1 (en) 2003-08-19 2008-07-15 National Semiconductor Corporation Sensor configuration for a capsule endoscope
US7191164B2 (en) * 2003-08-19 2007-03-13 Intel Corporation Searching for object images with reduced computation
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7095487B2 (en) * 2003-10-09 2006-08-22 Honda Motor Co., Ltd. Systems and methods for determining depth using shuttered light pulses
US7110100B2 (en) * 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US20050134608A1 (en) * 2003-12-19 2005-06-23 Texas Instruments Incorporated Method, and related system, for overlaying a graphics object on a digital picture
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
DE102004009541A1 (de) * 2004-02-23 2005-09-15 Iris-Gmbh Infrared & Intelligent Sensors Benutzersteuerbares Erfassungssystem
US7023536B2 (en) * 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
DE102004014048B4 (de) * 2004-03-19 2008-10-30 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
DE602005009432D1 (de) 2004-06-17 2008-10-16 Cadent Ltd Verfahren und Gerät zur Farbbildformung einer dreidimensionalen Struktur
KR100820261B1 (ko) * 2004-07-30 2008-04-08 마츠시다 덴코 가부시키가이샤 화상 처리 장치
JP4645177B2 (ja) * 2004-11-30 2011-03-09 パナソニック電工株式会社 計測装置
US7843488B2 (en) * 2004-08-09 2010-11-30 Stapleton John J Vision thermalization for sightless and visually impaired
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP4525253B2 (ja) * 2004-08-30 2010-08-18 オムロン株式会社 光センサおよび測距方法
US20060045174A1 (en) * 2004-08-31 2006-03-02 Ittiam Systems (P) Ltd. Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock
WO2006087710A2 (en) * 2005-02-17 2006-08-24 3Dv Systems Ltd. Method and apparatus for imaging tissues
US9247215B1 (en) * 2005-04-22 2016-01-26 Custom Manufacturing & Engineering, Inc. Laser sensor system
RU2298223C2 (ru) * 2005-04-25 2007-04-27 Самсунг Электроникс Ко., Лтд. Система и способ коррекции темных оттенков на цифровых фотографиях
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
EP1886257A1 (de) 2005-05-11 2008-02-13 Optosecurity Inc. Verfahren und system zum prüfen von gepäckstücken, frachtcontainern oder personen
JP2006337286A (ja) * 2005-06-03 2006-12-14 Ricoh Co Ltd 形状計測装置
JP2007214527A (ja) * 2006-01-13 2007-08-23 Ihi Corp レーザアニール方法およびレーザアニール装置
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
JP4395150B2 (ja) * 2006-06-28 2010-01-06 富士フイルム株式会社 距離画像センサ
US7835221B2 (en) * 2006-07-06 2010-11-16 Westerngeco L.L.C. Optical methods and systems in marine seismic surveying
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
JP4440239B2 (ja) * 2006-08-18 2010-03-24 富士フイルム株式会社 距離画像作成方法及び距離画像センサ、及び撮影装置
CN100592127C (zh) * 2006-09-06 2010-02-24 鸿富锦精密工业(深圳)有限公司 相机模组
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
WO2008073449A2 (en) * 2006-12-12 2008-06-19 Evans & Sutherland Computer Corporation System and method for aligning rgb light in a single modulator projector
US8208129B2 (en) * 2007-01-14 2012-06-26 Microsoft International Holdings B.V. Method, device and system for imaging
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
EP2235563A1 (de) * 2007-12-19 2010-10-06 Microsoft International Holdings B.V. 3d-kamera und verfahren zu ihrem gating
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
CN103258184B (zh) 2008-02-27 2017-04-12 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US8121351B2 (en) 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP2009276248A (ja) * 2008-05-15 2009-11-26 Mitsubishi Electric Corp レーザレーダ装置
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8187097B1 (en) 2008-06-04 2012-05-29 Zhang Evan Y W Measurement and segment of participant's motion in game play
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8227965B2 (en) * 2008-06-20 2012-07-24 Arradiance, Inc. Microchannel plate devices with tunable resistive films
JP5647118B2 (ja) * 2008-07-29 2014-12-24 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. 撮像システム
US8682522B2 (en) * 2008-08-18 2014-03-25 Raytheon Company Systems and methods for triaging a plurality of targets with a robotic vehicle
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
DE102008052064B4 (de) * 2008-10-17 2010-09-09 Diehl Bgt Defence Gmbh & Co. Kg Vorrichtung zur Aufnahme von Bildern einer Objektszene
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
EP2359593B1 (de) * 2008-11-25 2018-06-06 Tetravue, Inc. Systeme und verfahren für dreidimensionale bildgebung mit hoher auflösung
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
EP2200006B1 (de) * 2008-12-19 2013-03-13 Saab Ab Verfahren und Anordnung zur Schätzung von mindestens einem Parameter eines Eindringlings
US8681321B2 (en) * 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
JP5230456B2 (ja) * 2009-01-09 2013-07-10 キヤノン株式会社 画像処理装置および画像処理方法
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
EP2236980B1 (de) * 2009-03-31 2018-05-02 Alcatel Lucent Verfahren zur Bestimmung der relativen Position einer ersten und einer zweiten Bildgebungsvorrichtung und Vorrichtungen dafür
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US20100302376A1 (en) * 2009-05-27 2010-12-02 Pierre Benoit Boulanger System and method for high-quality real-time foreground/background separation in tele-conferencing using self-registered color/infrared input images and closed-form natural image matting techniques
US8968161B2 (en) 2009-05-28 2015-03-03 Ben Gurion University Of The Negev Research And Development Authority Balance perturbation system and trainer
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101675112B1 (ko) * 2010-01-21 2016-11-22 삼성전자주식회사 거리 정보 추출 방법 및 상기 방법을 채용한 광학 장치
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
JP5519381B2 (ja) * 2010-04-09 2014-06-11 トヨタ自動車株式会社 スペクトル測定装置
DE102010028949A1 (de) * 2010-05-12 2011-11-17 Osram Gesellschaft mit beschränkter Haftung Scheinwerfermodul
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US11640672B2 (en) 2010-06-08 2023-05-02 Styku Llc Method and system for wireless ultra-low footprint body scanning
US11244223B2 (en) 2010-06-08 2022-02-08 Iva Sareen Online garment design and collaboration system and method
US10628729B2 (en) 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US10628666B2 (en) 2010-06-08 2020-04-21 Styku, LLC Cloud server body scan data system
EP2395769B1 (de) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Bildanzeigeprogramm, Bildanzeigesystem und Bildanzeigeverfahren
TWI540312B (zh) * 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
CN102346020B (zh) * 2010-08-04 2013-10-23 原相科技股份有限公司 用于互动介面的三维信息产生装置与三维信息产生方法
KR101753312B1 (ko) * 2010-09-17 2017-07-03 삼성전자주식회사 뎁스 영상 생성 장치 및 방법
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9344736B2 (en) 2010-09-30 2016-05-17 Alcatel Lucent Systems and methods for compressive sense imaging
US9319578B2 (en) * 2012-10-24 2016-04-19 Alcatel Lucent Resolution and focus enhancement
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
JP5574927B2 (ja) * 2010-11-19 2014-08-20 キヤノン株式会社 測定装置
KR101691156B1 (ko) * 2010-12-14 2016-12-30 삼성전자주식회사 조명 광학계와 결상 광학계가 통합된 광학계 및 이를 포함하는 3차원 영상 획득 장치
KR101798063B1 (ko) 2010-12-14 2017-11-15 삼성전자주식회사 조명 광학계 및 이를 포함하는 3차원 영상 획득 장치
US20120154535A1 (en) * 2010-12-15 2012-06-21 Microsoft Corporation Capturing gated and ungated light in the same frame on the same photosurface
GB2486467A (en) 2010-12-16 2012-06-20 Thermo Electron Mfg Ltd Hybrid electrical/optical cable uses transparent insulating material as optical waveguide
KR101722641B1 (ko) 2010-12-23 2017-04-04 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
DE102011010334B4 (de) * 2011-02-04 2014-08-28 Eads Deutschland Gmbh Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
EP2676102B1 (de) * 2011-02-15 2016-04-20 Basf Se Detektor zur optischen erfassung mindestens eines objekts
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8921748B2 (en) * 2011-05-19 2014-12-30 Lockheed Martin Corporation Optical window and detection system employing the same
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
US8734328B2 (en) 2011-08-12 2014-05-27 Intuitive Surgical Operations, Inc. Increased resolution and dynamic range image capture unit in a surgical instrument and method
US8672838B2 (en) * 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
MX2014002728A (es) 2011-09-07 2014-08-22 Rapiscan Systems Inc Sistema de inspeccion de rayos x que integra datos de manifiesto con procesamiento de deteccion / generacion de imagenes.
CN103037173B (zh) * 2011-09-28 2015-07-08 原相科技股份有限公司 影像系统
TWI526706B (zh) 2011-10-05 2016-03-21 原相科技股份有限公司 影像系統
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
KR101854188B1 (ko) 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
JP5896702B2 (ja) * 2011-11-30 2016-03-30 オリンパス株式会社 光音響顕微鏡
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
JP5576851B2 (ja) * 2011-12-27 2014-08-20 本田技研工業株式会社 測距システム及び測距方法
IL217361A0 (en) * 2012-01-04 2012-03-29 Rafael Advanced Defense Sys Device & method providing combined video camera and range finder functionality
KR101955334B1 (ko) 2012-02-07 2019-03-07 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9723233B2 (en) 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
US9046363B2 (en) * 2012-04-27 2015-06-02 SATOP GmbH Using multispectral satellite data to determine littoral water depths despite varying water turbidity
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP6011040B2 (ja) * 2012-06-07 2016-10-19 オムロン株式会社 光電センサ
TWM446323U (zh) * 2012-08-03 2013-02-01 Ind Tech Res Inst 開口率量測感知裝置、開口距離感知裝置及光感測模組
US9071763B1 (en) * 2012-09-26 2015-06-30 Google Inc. Uniform illumination image capture
KR20140064478A (ko) 2012-11-20 2014-05-28 삼성디스플레이 주식회사 영상 감지 유닛, 3d 영상 처리 장치, 3d 카메라 시스템, 3d 영상 처리 방법
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
WO2014119241A1 (ja) * 2013-01-31 2014-08-07 パナソニック株式会社 測距方法および測距システム
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
KR102040152B1 (ko) 2013-04-08 2019-12-05 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서의 깊이 영상 생성 방법
KR102056904B1 (ko) * 2013-05-22 2019-12-18 삼성전자주식회사 3차원 영상 획득 장치 및 그 구동 방법
US9989623B2 (en) * 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
IL227265A0 (en) 2013-06-30 2013-12-31 Brightway Vision Ltd Smart flash for the camera
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9568280B1 (en) 2013-11-25 2017-02-14 Lockheed Martin Corporation Solid nose cone and related components
EP2894491B1 (de) * 2013-12-18 2020-05-27 LG Electronics Inc. Distanzmessvorrichtung und Verfahren dafür
KR102138522B1 (ko) * 2013-12-18 2020-07-28 엘지전자 주식회사 레이저 거리 측정 장치 및 제어방법
WO2015144973A1 (en) * 2014-03-28 2015-10-01 Nokia Technologies Oy Digital imaging with pulsed illumination to generate a depth map
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
WO2015164868A1 (en) 2014-04-26 2015-10-29 Tetravue, Inc. Method and system for robust and extended illumination waveforms for depth sensing in 3d imaging
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9256944B2 (en) 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
US20150334371A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Optical safety monitoring with selective pixel array analysis
US9534868B1 (en) 2014-06-03 2017-01-03 Lockheed Martin Corporation Aerodynamic conformal nose cone and scanning mechanism
US9291447B2 (en) 2014-07-09 2016-03-22 Mitutoyo Corporation Method for controlling motion of a coordinate measuring machine
KR102194237B1 (ko) 2014-08-29 2020-12-22 삼성전자주식회사 깊이 영상 촬영 장치 및 깊이 정보 획득 방법
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
US10578741B2 (en) * 2014-11-11 2020-03-03 Panasonic Intellectual Property Management Co., Ltd. Distance detection device and distance detection method
CN111337936A (zh) * 2015-01-20 2020-06-26 托里派因斯洛基股份有限责任公司 单孔激光测距仪
EP3059608B1 (de) * 2015-02-20 2016-11-30 Sick Ag Optoelektronischer sensor und verfahren zur erfassung von objekten
KR102546336B1 (ko) 2015-03-02 2023-06-21 노오쓰웨스턴 유니버시티 깊이 이미징 및 다른 응용을 위한 전자흡수 변조기
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10145942B2 (en) * 2015-03-27 2018-12-04 Intel Corporation Techniques for spatio-temporal compressed time of flight imaging
US9864048B2 (en) * 2015-05-17 2018-01-09 Microsoft Technology Licensing, Llc. Gated time of flight camera
US10866083B2 (en) 2015-07-30 2020-12-15 Trumpf Photonic Components Gmbh Laser sensor for particle density detection
WO2017020196A1 (zh) * 2015-07-31 2017-02-09 深圳市大疆创新科技有限公司 探测装置、探测系统、探测方法,以及可移动设备
US10412283B2 (en) * 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
EP3159711A1 (de) * 2015-10-23 2017-04-26 Xenomatix NV System und verfahren zur bestimmung einer distanz zu einem objekt
KR102610830B1 (ko) 2015-12-24 2023-12-06 삼성전자주식회사 거리 정보를 획득하는 방법 및 디바이스
US10349038B2 (en) * 2016-01-04 2019-07-09 Facebook Technologies, Llc Dynamic control over structured illumination intensity
EP3410147A4 (de) * 2016-01-29 2019-01-02 Panasonic Intellectual Property Management Co., Ltd. Abstandsmesser
CN116309260A (zh) 2016-02-22 2023-06-23 拉皮斯坎系统股份有限公司 用于评估货物的平均货盘尺寸和密度的方法
US10311590B1 (en) * 2016-03-01 2019-06-04 Al Incorporated Method for estimating distance using point measurement and color depth
US11037320B1 (en) 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR20180016120A (ko) * 2016-08-05 2018-02-14 삼성전자주식회사 3차원 깊이 센서 및 이를 이용한 거리 측정 방법
KR20180021509A (ko) 2016-08-22 2018-03-05 삼성전자주식회사 거리 정보를 획득하는 방법 및 디바이스
US10066986B2 (en) * 2016-08-31 2018-09-04 GM Global Technology Operations LLC Light emitting sensor having a plurality of secondary lenses of a moveable control structure for controlling the passage of light between a plurality of light emitters and a primary lens
JP6754706B2 (ja) * 2017-02-14 2020-09-16 京セラ株式会社 電磁波検出装置、プログラム、および情報取得システム
WO2018151226A1 (ja) * 2017-02-15 2018-08-23 パイオニア株式会社 光走査装置及び制御方法
DE102017103660B4 (de) 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
JP7037830B2 (ja) 2017-03-13 2022-03-17 オプシス テック リミテッド 眼安全性走査lidarシステム
US10366294B2 (en) * 2017-03-23 2019-07-30 Aptiv Technologies Limited Transparency-characteristic based object classification for automated vehicle
US10645367B2 (en) * 2017-04-20 2020-05-05 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
US10739447B2 (en) * 2017-04-20 2020-08-11 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
US11948057B2 (en) * 2017-06-22 2024-04-02 Iva Sareen Online garment design and collaboration system and method
US10754033B2 (en) 2017-06-30 2020-08-25 Waymo Llc Light detection and ranging (LIDAR) device range aliasing resilience by multiple hypotheses
KR102218679B1 (ko) 2017-07-28 2021-02-23 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
CN107678038A (zh) * 2017-09-27 2018-02-09 上海有个机器人有限公司 机器人防碰撞方法、机器人以及存储介质
JP7388720B2 (ja) 2017-11-15 2023-11-29 オプシス テック リミテッド ノイズ適応ソリッドステートlidarシステム
US11340339B2 (en) 2017-12-22 2022-05-24 Waymo Llc Systems and methods for adaptive range coverage using LIDAR
JP7025940B2 (ja) * 2018-01-26 2022-02-25 京セラ株式会社 電磁波検出装置および情報取得システム
US20210033730A1 (en) * 2018-03-20 2021-02-04 Panasonic Intellectual Property Management Co., Ltd. Distance measuring device, distance measuring system, distance measuring method, and program
EP3775979B1 (de) * 2018-04-01 2024-01-17 Opsys Tech Ltd. Rauschadaptives festkörper-lidar-system
JP7126123B2 (ja) * 2018-05-14 2022-08-26 パナソニックIpマネジメント株式会社 学習装置、学習方法及びプログラム
CN108563084B (zh) * 2018-05-25 2020-10-23 深圳新亮智能技术有限公司 多结构光图案三维传感系统
CN109269427A (zh) * 2018-10-31 2019-01-25 贵州电网有限责任公司 一种输电线路覆冰厚度精确测量系统及其测量方法
DE102018221083A1 (de) * 2018-12-06 2020-06-10 Robert Bosch Gmbh LiDAR-System sowie Kraftfahrzeug
CN109470143B (zh) * 2018-12-07 2020-07-28 哈尔滨工业大学 外部光源高分辨力立体视觉测量系统与方法
JP2020125983A (ja) * 2019-02-05 2020-08-20 Jnc株式会社 測距装置及び測距方法
KR102634887B1 (ko) 2019-04-09 2024-02-08 옵시스 테크 엘티디 레이저 제어를 갖는 솔리드-스테이트 lidar 송신기
JP2020173165A (ja) * 2019-04-10 2020-10-22 パイオニア株式会社 距離算出装置
EP3977159A4 (de) 2019-05-30 2023-03-01 Opsys Tech Ltd. Augensicheres fernbereichs-lidar-system mit aktuator
KR102538137B1 (ko) 2019-06-10 2023-05-31 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템
JP7401201B2 (ja) * 2019-06-17 2023-12-19 株式会社フジタ 水底形状測定装置
CN110275098B (zh) * 2019-06-28 2021-07-09 杭州赫太克科技有限公司 紫外成像仪
JP7314659B2 (ja) * 2019-07-04 2023-07-26 株式会社リコー 測距装置および撮影装置
WO2021015208A1 (ja) * 2019-07-22 2021-01-28 株式会社小糸製作所 アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
CN111856091B (zh) * 2020-08-04 2021-09-24 河南大学 一种精准推进探针的方法
JP7037609B2 (ja) * 2020-08-24 2022-03-16 京セラ株式会社 電磁波検出装置およびプログラム

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3634725A (en) * 1967-09-28 1972-01-11 Polaroid Corp Modulated electronic flash control
US3571493A (en) * 1967-10-20 1971-03-16 Texas Instruments Inc Intensity modulated laser imagery display
US3629796A (en) * 1968-12-11 1971-12-21 Atlantic Richfield Co Seismic holography
US3734625A (en) * 1969-09-12 1973-05-22 Honeywell Inc Readout system for a magneto-optic memory
US3834816A (en) * 1970-12-10 1974-09-10 Hughes Aircraft Co Colinear heterodyne frequency modulator
US3886303A (en) * 1972-12-21 1975-05-27 Gen Electric Automatic ranging in an active television system
US3895388A (en) * 1973-10-25 1975-07-15 Ibm Adaptive illuminator
DE2453077B2 (de) * 1974-11-08 1976-09-02 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg Empfangs-sendeeinrichtung fuer die informationsuebermittlung mittels gebuendelter, modulierter lichtstrahlen
JPS5443493A (en) * 1977-09-12 1979-04-06 Toshiba Corp Radar device
JPS5596475A (en) * 1979-01-19 1980-07-22 Nissan Motor Co Ltd Obstacle detector for vehicle
DE3021448A1 (de) * 1980-06-06 1981-12-24 Siemens AG, 1000 Berlin und 8000 München Verfahren und anordnung zur erfassung raeumlicher abweichungen von einer glatten ebene an oberflaechen von gegenstaenden
US4769700A (en) * 1981-11-20 1988-09-06 Diffracto Ltd. Robot tractors
JPS57193183A (en) * 1981-05-25 1982-11-27 Mitsubishi Electric Corp Image pickup device
US4408263A (en) * 1981-12-14 1983-10-04 Wonder Corporation Of America Disposable flashlight
JPS59198378A (ja) * 1983-04-27 1984-11-10 Nissan Motor Co Ltd 光レ−ダ装置
DE3404396A1 (de) * 1984-02-08 1985-08-14 Dornier Gmbh, 7990 Friedrichshafen Vorrichtung und verfahren zur aufnahme von entfernungsbildern
US4734735A (en) * 1985-08-23 1988-03-29 Konishiroku Photo Industry Co., Ltd. Image apparatus having a color separation function
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
US5255087A (en) * 1986-11-29 1993-10-19 Olympus Optical Co., Ltd. Imaging apparatus and endoscope apparatus using the same
US4971413A (en) * 1987-05-13 1990-11-20 Nikon Corporation Laser beam depicting apparatus
US5081530A (en) * 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US4734733A (en) * 1987-09-21 1988-03-29 Polaroid Corporation Camera with two position strobe
JPH01100492A (ja) * 1987-10-14 1989-04-18 Matsushita Electric Ind Co Ltd レーザ視覚センサ
CH674675A5 (de) * 1987-10-23 1990-06-29 Kern & Co Ag
US4959726A (en) * 1988-03-10 1990-09-25 Fuji Photo Film Co., Ltd. Automatic focusing adjusting device
US4780732A (en) * 1988-03-21 1988-10-25 Xerox Corporation Dual interaction TIR modulator
JPH03505123A (ja) * 1988-06-20 1991-11-07 アジエイ,キーマル 距離測定装置
US5013917A (en) * 1988-07-07 1991-05-07 Kaman Aerospace Corporation Imaging lidar system using non-visible light
US4991953A (en) * 1989-02-09 1991-02-12 Eye Research Institute Of Retina Foundation Scanning laser vitreous camera
US5009502A (en) * 1989-04-20 1991-04-23 Hughes Aircraft Company System of holographic optical elements for testing laser range finders
JPH032582A (ja) * 1989-05-30 1991-01-08 Hamamatsu Photonics Kk 物体検知装置
US4935616A (en) * 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
US5343391A (en) * 1990-04-10 1994-08-30 Mushabac David R Device for obtaining three dimensional contour data and for operating on a patient and related method
US5056914A (en) * 1990-07-12 1991-10-15 Ball Corporation Charge integration range detector
US5090803A (en) * 1990-09-21 1992-02-25 Lockheed Missiles & Space Company, Inc. Optical coordinate transfer assembly
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5200793A (en) * 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
JPH04169805A (ja) * 1990-11-01 1992-06-17 Matsushita Electric Ind Co Ltd 三次元画像測定装置
US5253033A (en) * 1990-12-03 1993-10-12 Raytheon Company Laser radar system with phased-array beam steerer
US5164823A (en) * 1990-12-21 1992-11-17 Kaman Aerospace Corporation Imaging lidar system employing multipulse single and multiple gating for single and stacked frames
US5157451A (en) * 1991-04-01 1992-10-20 John Taboada Laser imaging and ranging system using two cameras
US5225882A (en) * 1991-04-23 1993-07-06 Nec Corporation Moving body measuring apparatus
US5257085A (en) * 1991-04-24 1993-10-26 Kaman Aerospace Corporation Spectrally dispersive imaging lidar system
JP3217386B2 (ja) * 1991-04-24 2001-10-09 オリンパス光学工業株式会社 診断システム
US5216259A (en) * 1991-05-10 1993-06-01 Robotic Vision System, Inc. Apparatus and method for improved determination of the spatial location of object surface points
US5200931A (en) * 1991-06-18 1993-04-06 Alliant Techsystems Inc. Volumetric and terrain imaging sonar
US5243553A (en) * 1991-07-02 1993-09-07 Loral Vought Systems Corporation Gate array pulse capture device
US5110203A (en) * 1991-08-28 1992-05-05 The United States Of America As Represented By The Secretary Of The Navy Three dimensional range imaging system
DE4129912C1 (de) * 1991-09-09 1992-10-22 Dornier Luftfahrt Gmbh, 8031 Wessling, De
US5265327A (en) * 1991-09-13 1993-11-30 Faris Sadeg M Microchannel plate technology
US5220164A (en) * 1992-02-05 1993-06-15 General Atomics Integrated imaging and ranging lidar receiver with ranging information pickoff circuit
US5408263A (en) * 1992-06-16 1995-04-18 Olympus Optical Co., Ltd. Electronic endoscope apparatus
JPH0659038A (ja) * 1992-08-07 1994-03-04 Nissan Motor Co Ltd 車両用レーザレーダ
US5434612A (en) * 1992-09-25 1995-07-18 The United States Of America As Represented By The Secretary Of The Army Duo-frame normalization technique
US5334848A (en) * 1993-04-09 1994-08-02 Trw Inc. Spacecraft docking sensor system
JPH07110381A (ja) * 1993-10-07 1995-04-25 Wacom Co Ltd 距離カメラ装置
JPH07142761A (ja) * 1993-11-18 1995-06-02 Mitsubishi Electric Corp 受光素子ならびに受光素子アレイおよび画像検出装置ならびに画像検出方法
JPH0832855A (ja) * 1994-07-11 1996-02-02 Fuji Photo Film Co Ltd 電子スチル・カメラ,画像合成装置および画像抽出装置
US6057909A (en) * 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method

Also Published As

Publication number Publication date
DE69635858D1 (de) 2006-04-27
JP4808684B2 (ja) 2011-11-02
CN1101056C (zh) 2003-02-05
CN1194056A (zh) 1998-09-23
WO1997001112B1 (en) 2001-04-05
AU6136096A (en) 1997-01-22
WO1997001111A2 (en) 1997-01-09
WO1997001112A2 (en) 1997-01-09
JPH11508359A (ja) 1999-07-21
WO1997001111A3 (en) 1997-02-27
DE69635858T2 (de) 2006-11-30
JP5180535B2 (ja) 2013-04-10
JP2007333746A (ja) 2007-12-27
EP0835460A2 (de) 1998-04-15
CN1253636A (zh) 2000-05-17
JPH11508371A (ja) 1999-07-21
JP2011039076A (ja) 2011-02-24
JP2008047925A (ja) 2008-02-28
JP2008014955A (ja) 2008-01-24
CN1437063A (zh) 2003-08-20
JP5688722B2 (ja) 2015-03-25
EP0835460A4 (de) 1999-01-13
CN100524015C (zh) 2009-08-05
WO1997001112A3 (en) 1997-03-13
US6091905A (en) 2000-07-18
EP0886790A2 (de) 1998-12-30
JP2008003099A (ja) 2008-01-10
US6057909A (en) 2000-05-02
DE69635891D1 (de) 2006-05-04
JP5180534B2 (ja) 2013-04-10
EP0886790A4 (de) 1999-01-07
EP0886790B1 (de) 2006-03-01
AU6135996A (en) 1997-01-22
JP2009122119A (ja) 2009-06-04
JP3869005B2 (ja) 2007-01-17
EP0835460B1 (de) 2006-03-08

Similar Documents

Publication Publication Date Title
DE69635891T2 (de) Verbesserte optische kamera zur entfernungsmessung
AT412028B (de) Einrichtung zur aufnahme eines objektraumes
EP0396867B1 (de) Navigationsverfahren
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
CN1844852B (zh) 生成景物的混合图象的方法
DE69816876T2 (de) Verbesserungen in bezug auf mustererkennung
DE212018000164U1 (de) Systeme zur Kompression von dreidimensionaler Tiefenerfassung
EP1950583B1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
WO2018185083A2 (de) Lichtlaufzeitkamera
WO1997001111B1 (en) Improved optical ranging camera
DE3404396A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE2717749A1 (de) Lasergestuetztes ueberwachungssystem
EP1953568A1 (de) Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE4129912C1 (de)
WO2007090660A1 (de) Verfahren und anordnung zum einblenden ortsbezogener informationen in eine visuelle darstellung oder ansicht einer szene
DE102021209408A1 (de) Spiegelbewegung und Laserschussmusterkompensation für Frequenzmodulierten Dauerstrich(FMCW)-LIDAR
DE2440167B2 (de) Einrichtung zur Auswahlsuche eines Objekts nach dessen Bild
EP1728121B1 (de) Verfahren zur steuerung eines aus einem filmaufnahmestrahlengang einer laufbildkamera abgezweigten abbildungsstrahlenganges
DE112022001536T5 (de) Messungsvorrichtung, messungsverfahren und informationsverarbeitungsvorrichtung
DE102017117212A9 (de) System und Verfahren zur Stereotriangulation
WO2013079727A1 (de) Messverfahren und vorrichtung zur durchführung des messverfahrens
DE69832540T2 (de) Verbesserungen bei der Mustererkennung
WO2023041706A1 (de) Verfahren und vorrichtung zur messung von tiefeninformationen einer szene anhand von mittels zumindest einer parallelstrahlungsquelle generiertem strukturierten licht
WO2000047949A1 (de) Verfahren und anordnung zur flugzeuggestützten photogrammetrischen aufnahme
DE19524693A1 (de) Optische Detektiervorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: MICROSOFT INTERNATIONAL HOLDINGS B.V., AMSTERD, NL