DE112014001459T5 - Dreidimensionaler Koordinatenscanner und Betriebsverfahren - Google Patents

Dreidimensionaler Koordinatenscanner und Betriebsverfahren Download PDF

Info

Publication number
DE112014001459T5
DE112014001459T5 DE112014001459.1T DE112014001459T DE112014001459T5 DE 112014001459 T5 DE112014001459 T5 DE 112014001459T5 DE 112014001459 T DE112014001459 T DE 112014001459T DE 112014001459 T5 DE112014001459 T5 DE 112014001459T5
Authority
DE
Germany
Prior art keywords
camera
light
projector
pattern
scanner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112014001459.1T
Other languages
English (en)
Other versions
DE112014001459B4 (de
Inventor
Yazid Tohme
Charles Pfeffer
Robert E. Bridges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112014001459T5 publication Critical patent/DE112014001459T5/de
Application granted granted Critical
Publication of DE112014001459B4 publication Critical patent/DE112014001459B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/003Bistatic lidar systems; Multistatic lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

Die Erfindung betrifft ein kontaktloses optisches dreidimensionales Messgerät, das Folgendes umfasst: einen Projektor, eine erste Kamera und eine zweite Kamera; einen elektrisch an den Projektor, die erste Kamera und die zweite Kamera gekoppelten Prozessor; und ein computerlesbares Medium, das, wenn es durch den Prozessor ausgeführt wird, bewirkt, dass das erste digitale Signal an einem ersten Zeitpunkt erfasst wird und das zweite digitale Signal an einem vom ersten Zeitpunkt verschiedenen zweiten Zeitpunkt erfasst wird, und dreidimensionale Koordinaten eines ersten Punkts auf der Oberfläche basierend zumindest teilweise auf dem ersten digitalen Signal und dem ersten Abstand ermittelt und dreidimensionale Koordinaten eines zweiten Punkts auf der Oberfläche basierend zumindest teilweise auf dem zweiten digitalen Signal und dem zweiten Abstand ermittelt.

Description

  • Hintergrund der Erfindung
  • Der hierin offenbarte Gegenstand betrifft einen dreidimensionalen Koordinatenscanner und insbesondere einen Triangulationsscanner mit mehreren Modalitäten der Datenerfassung.
  • Die Erfassung dreidimensionaler Koordinaten eines Objekts oder einer Umgebung ist bekannt. Man kann verschiedene Methoden wie beispielsweise Laufzeit- oder Triangulationsverfahren einsetzen. Laufzeitsysteme wie beispielsweise ein Lasertracker, eine Totalstation oder ein Laufzeitscanner können einen Lichtstrahl wie zum Beispiel einen Laserstrahl auf ein Retroreflektorziel oder einen Punkt auf der Oberfläche des Objekts richten. Es wird ein Absolutdistanzmesser verwendet, um den Abstand zum Ziel oder Punkt auf Basis der Zeitdauer zu ermitteln, die das Licht für die Bewegung zum Ziel oder Punkt und zurück benötigt. Durch Bewegen des Laserstrahls oder des Ziels über die Oberfläche des Objekts können die Koordinaten des Objekts ermittelt werden. Laufzeitsysteme haben dahingehend Vorteile, dass sie eine relativ hohe Genauigkeit besitzen, doch in einigen Fällen sind sie eventuell langsamer als manche andere Systeme, weil sie normalerweise jeden Punkt auf der Oberfläche einzeln messen müssen.
  • Im Gegensatz dazu projiziert ein Scanner, der die Triangulation zur Messung dreidimensionaler Koordinaten benutzt, entweder ein Lichtmuster in einer Linie (z. B. einer Laserlinie aus einer Laserliniensonde) oder ein einen Bereich abdeckendes Lichtmuster (z. B. strukturiertes Licht) auf die Oberfläche. Eine Kamera wird in feststehender Beziehung an den Projektor gekoppelt, indem man beispielsweise eine Kamera und den Projektor an einem gemeinsamen Rahmen befestigt. Das vom Projektor emittierte Licht wird von der Oberfläche reflektiert und von der Kamera erfasst. Da die Kamera und der Projektor in feststehender Beziehung angeordnet sind, kann der Abstand zum Objekt nach den Prinzipien der Trigonometrie ermittelt werden. Verglichen mit Koordinatenmessgeräten, die Tastsonden benutzen, bieten Triangulationssysteme dahingehend Vorteile, dass sie Koordinatendaten über einen großen Bereich schnell erfassen. Die sich daraus ergebende Erfassung dreidimensionaler Koordinatenwerte, die durch das Triangulationssystem bereitgestellt werden, wird hierin als „Punktwolkendaten“ oder einfach als „Punktwolke“ bezeichnet.
  • Eine Anzahl von Problemen kann die Erfassung von hochgenauen Punktwolkendaten stören, wenn ein Laserscanner verwendet wird. Diese Probleme umfassen, aber ohne darauf beschränkt zu sein: Abweichungen beim über die Bildebene der Kamera aufgefangenen Lichtpegel infolge von Abweichungen beim Reflexionsgrad der Objektoberfläche oder Abweichungen beim Einfallswinkel der Oberfläche relativ zum projizierten Licht; niedrige Auflösung nahe einer Kante wie z. B. Kanten von Löchern; und beispielsweise eine Mehrwegestörung. Der Bediener bemerkt in einigen Fällen eventuell ein Problem nicht oder ist nicht in der Lage, das Problem zu eliminieren. In diesen Fällen sind fehlende oder fehlerhafte Punktwolkendaten die Folge.
  • Obwohl bereits existierende Scanner für ihren beabsichtigten Zweck geeignet sind, besteht demgemäß nach wie vor Bedarf an einer Verbesserung und insbesondere an einer Bereitstellung eines Scanners, der sich an unerwünschte Bedingungen anpassen und eine verbesserte Datenpunkterfassung zur Verfügung stellen kann.
  • Kurze Beschreibung der Erfindung
  • Gemäß einem Aspekt der Erfindung ist ein kontaktloses optisches dreidimensionales Messgerät vorgesehen. Das kontaktlose optische dreidimensionale Messgerät umfasst Folgendes: eine Baugruppe, die einen Projektor, eine erste Kamera und eine zweite Kamera umfasst, wobei der Projektor, die erste Kamera und die zweite Kamera zueinander feststehend sind, wobei ein erster Abstand zwischen dem Projektor und der ersten Kamera und ein zweiter Abstand zwischen dem Projektor und der zweiten Kamera bestehen, wobei der Projektor eine Lichtquelle aufweist, wobei der Projektor dafür konfiguriert ist, auf eine Oberfläche eines Objekts ein erstes Licht mit irgendeinem einer Vielzahl von räumlich variierenden Mustern zu emittieren, wobei die erste Kamera eine erste Linse und eine erste photosensitive Anordnung aufweist, wobei die erste Kamera dafür konfiguriert ist, einen ersten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen und als Reaktion ein erstes digitales Signal zu erzeugen, wobei die erste Kamera ein erstes Sichtfeld aufweist, wobei das erste Sichtfeld ein erster Sichtwinkelbereich der ersten Kamera ist, wobei die zweite Kamera eine zweite Linse und eine zweite photosensitive Anordnung aufweist, wobei die zweite Kamera dafür konfiguriert ist, einen zweiten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen und als Reaktion ein zweites digitales Signal zu erzeugen, wobei die zweite Kamera ein zweites Sichtfeld aufweist, wobei das zweite Sichtfeld ein zweiter Sichtwinkelbereich der zweiten Kamera ist, wobei das zweite Sichtfeld vom ersten Sichtfeld verschieden ist; einen elektrisch an den Projektor, die erste Kamera und die zweite Kamera gekoppelten Prozessor; und ein computerlesbares Medium, das, wenn es durch den Prozessor ausgeführt wird, bewirkt, dass das erste digitale Signal an einem ersten Zeitpunkt erfasst wird und das zweite digitale Signal an einem vom ersten Zeitpunkt verschiedenen zweiten Zeitpunkt erfasst wird, und dreidimensionale Koordinaten eines ersten Punkts auf der Oberfläche basierend zumindest teilweise auf dem ersten digitalen Signal und dem ersten Abstand ermittelt und dreidimensionale Koordinaten eines zweiten Punkts auf der Oberfläche basierend zumindest teilweise auf dem zweiten digitalen Signal und dem zweiten Abstand ermittelt.
  • Gemäß einem Aspekt der Erfindung ist ein Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts vorgesehen. Das Verfahren umfasst Folgendes: Bereitstellen einer Baugruppe, die einen Projektor, eine erste Kamera und eine zweite Kamera umfasst, wobei der Projektor, die erste Kamera und die zweite Kamera zueinander feststehend sind, wobei ein erster Abstand zwischen dem Projektor und der ersten Kamera und ein zweiter Abstand zwischen dem Projektor und der zweiten Kamera bestehen, wobei der Projektor eine Lichtquelle aufweist, wobei der Projektor dafür konfiguriert ist, auf die Oberfläche ein erstes Licht mit irgendeinem einer Vielzahl von räumlich variierenden Mustern zu emittieren, wobei die erste Kamera eine erste Linse und eine erste photosensitive Anordnung aufweist, wobei die erste Kamera dafür konfiguriert ist, einen ersten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen, wobei die erste Kamera ein erstes Sichtfeld aufweist, wobei das erste Sichtfeld ein erster Sichtwinkelbereich der ersten Kamera ist, wobei die zweite Kamera eine zweite Linse und eine zweite photosensitive Anordnung aufweist, wobei die zweite Kamera dafür konfiguriert ist, einen zweiten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen, wobei die zweite Kamera ein zweites Sichtfeld aufweist, wobei das zweite Sichtfeld ein zweiter Sichtwinkelbereich der zweiten Kamera ist, wobei das zweite Sichtfeld vom ersten Sichtfeld verschieden ist; Bereitstellen eines elektrisch an den Projektor, die erste Kamera und die zweite Kamera gekoppelten Prozessors; Emittieren des ersten Lichts mit einem aus der Vielzahl von räumlich variierenden Mustern ausgewählten ersten Muster in einem ersten Vorgang aus dem Projektor auf die Oberfläche; Aufnehmen eines ersten Bilds der Oberfläche mit der ersten Kamera im ersten Vorgang und als Reaktion Senden eines ersten digitalen Signals an den Prozessor; Ermitteln eines ersten Satzes dreidimensionaler Koordinaten erster Punkte auf der Oberfläche, wobei der erste Satz zumindest teilweise auf dem ersten Muster, dem ersten digitalen Signal und dem ersten Abstand basiert; Durchführen einer Diagnosemethode, um die Qualität des ersten Satzes auszuwerten; Ermitteln eines aus der Vielzahl von räumlich variierenden Mustern ausgewählten zweiten Musters des ersten Lichts, wobei das zweite Muster zumindest teilweise auf Ergebnissen der Diagnosemethode basiert; Emittieren des ersten Lichts mit dem zweiten Muster in einem zweiten Vorgang aus dem Projektor auf die Oberfläche; Aufnehmen eines zweiten Bilds der Oberfläche mit der zweiten Kamera im zweiten Vorgang und als Reaktion Senden eines zweiten digitalen Signals an den Prozessor; und Ermitteln eines zweiten Satzes dreidimensionaler Koordinaten zweiter Punkte auf der Oberfläche, wobei der zweite Satz zumindest teilweise auf dem zweiten Muster, dem zweiten digitalen Signal und dem zweiten Abstand basiert.
  • Diese und andere Vorteile und Merkmale gehen aus der folgenden Beschreibung in Verbindung mit den Zeichnungen deutlicher hervor.
  • Kurze Beschreibung der Zeichnung
  • Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Patentbeschreibung besonders hervorgehoben und eindeutig beansprucht. Die vorangehenden und anderen Merkmale und Vorteile der Erfindung gehen aus der folgenden detaillierten Beschreibung in Verbindung mit den begleitenden Zeichnungen hervor. Es zeigen:
  • 1: eine schematische Draufsicht eines Scanners gemäß einer Ausgestaltung der Erfindung;
  • 2: ein Ablaufdiagramm, das ein Verfahren zum Betrieb des Scanners von 1 zeigt;
  • 3: eine schematische Draufsicht eines Scanners gemäß einer anderen Ausgestaltung der Erfindung;
  • 4: ein Ablaufdiagramm, das ein Verfahren zum Betrieb des Scanners von 3 zeigt;
  • 5A: eine schematische Ansicht von Elementen in einem Laserscanner gemäß einer Ausgestaltung;
  • 5B: ein Ablaufdiagramm, das ein Verfahren zum Betrieb eines Scanners gemäß einer Ausgestaltung zeigt;
  • 6: eine schematische Draufsicht eines Scanners gemäß einer anderen Ausgestaltung der Erfindung;
  • 7: ein Ablaufdiagramm, das ein Verfahren zum Betrieb des Scanners gemäß einer Ausgestaltung zeigt;
  • 8A und 8B: perspektivische Ansichten eines Scanners, der in Verbindung mit einer entfernten Sondenvorrichtung verwendet wird, gemäß einer Ausgestaltung der Erfindung;
  • 9: ein Ablaufdiagramm, das ein Verfahren zum Betrieb des Scanners von 5 zeigt;
  • 10: eine schematische Draufsicht eines Scanners gemäß einer Ausgestaltung;
  • 11: ein Ablaufdiagramm, das ein Verfahren zum Betrieb des Scanners von 10 zeigt; und
  • 12: ein Ablaufdiagramm, das eine Diagnosemethode gemäß einer Ausgestaltung zeigt.
  • Die detaillierte Beschreibung erläutert Ausgestaltungen der Erfindung zusammen mit den Vorteilen und Merkmalen beispielhaft anhand der Zeichnungen.
  • Detaillierte Beschreibung der Erfindung
  • Ausgestaltungen der vorliegenden Erfindung stellen Vorteile zur Verfügung, indem sie die Zuverlässigkeit und Genauigkeit dreidimensionaler Koordinaten einer Datenpunktwolke erhöhen, die von einem Scanner erfasst wird. Ausgestaltungen der Erfindung bieten dahingehend Vorteile, dass sie Anomalien in erfassten Daten erkennen und automatisch den Betrieb des Scanners derart einstellen, dass er die gewünschten Ergebnisse erfasst. Ausgestaltungen der Erfindung bieten dahingehend Vorteile, dass sie Anomalien in den erfassten Daten erkennen und dem Bediener eine Anzeige von Bereichen bereitstellen, wo eine zusätzliche Datenerfassung erforderlich ist. Noch weitere Ausgestaltungen der Erfindung bieten dahingehend Vorteile, dass sie Anomalien in den erfassten Daten erkennen und dem Bediener eine Anzeige bereitstellen, wo eine zusätzliche Datenerfassung mit einer entfernten Sonde erfasst werden kann.
  • Scannervorrichtungen erfassen dreidimensionale Koordinatendaten von Objekten. Bei einer Ausgestaltung hat ein Scanner 20, der in 1 dargestellt ist, ein Gehäuse 22, das eine erste Kamera 24, eine zweite Kamera 26 und einen Projektor 28 umfasst. Der Projektor 28 emittiert Licht 30 auf eine Oberfläche 32 eines Objekts 34. Bei der beispielhaften Ausgestaltung nutzt der Projektor 28 eine sichtbares Licht ausstrahlende Lichtquelle, die einen Mustererzeuger beleuchtet. Die sichtbares Licht ausstrahlende Lichtquelle kann beispielsweise ein Laser, eine Superlumineszenzdiode, eine Glühlampe, eine Xenonlampe, eine Leuchtdiode (LED; light emitting diode) oder eine andere Leuchtvorrichtung sein. Der Mustererzeuger ist bei einer Ausgestaltung eine Chrommaske mit einem auf ihr aufgeätzten strukturierten Lichtmuster. Die Fotomaske kann ein einziges Muster oder mehrere Muster aufweisen, die sich je nach Bedarf in die und aus der Position bewegen. Die Fotomaske kann manuell oder automatisch in der Betriebsstellung eingebaut werden. Bei anderen Ausgestaltungen kann das Quellmuster ein Licht sein, das von einer digitalen Mikrospiegelvorrichtung (DMD; digital micro-mirror device) wie beispielsweise einem von der Firma Texas Instruments Corporation hergestellten digitalen Lichtprojektor (DLP), einer Flüssigkristallanzeige (LCD; liquid crystal display), einer Flüssigkristall-auf-Silizium-Vorrichtung (LCOS; liquid crystal on silicon) oder einer ähnlichen Vorrichtung, die im Durchlassmodus statt im Reflexionsmodus verwendet wird, reflektiert oder durchgelassen wird. Der Projektor 28 kann ferner ein Linsensystem 36 umfassen, das das austretende Licht derart verändert, dass es den gewünschten Bereich abdeckt.
  • Der Projektor 28 ist bei dieser Ausgestaltung derart konfigurierbar, dass er strukturiertes Licht über einen Bereich 37 emittiert. Der hierin gebrauchte Begriff „strukturiertes Licht“ bezieht sich auf ein auf einen Bereich eines Objekts projiziertes zweidimensionales Lichtmuster, das Informationen vermittelt, die zur Ermittlung der Koordinaten von Punkten auf einem Objekt verwendet werden können. Bei einer Ausgestaltung enthält ein strukturiertes Lichtmuster mindestens drei nicht-kollineare Musterelemente, die in einem Bereich angeordnet sind. Jedes der drei nicht-kollinearen Musterelemente vermittelt Informationen, die zur Ermittlung der Punktkoordinaten verwendet werden können. Bei einer anderen Ausgestaltung ist ein Projektor vorgesehen, der dafür konfigurierbar ist, sowohl ein Bereichsmuster als auch ein Linienmuster zu projizieren. Der Projektor ist bei einer Ausgestaltung eine digitale Mikrospiegelvorrichtung (DMD), die dafür konfiguriert ist, zwischen den beiden vor- und zurückzuschalten. Der DMD-Projektor kann bei einer Ausgestaltung auch eine Linie hin- und herbewegen oder einen Punkt in einem Rastermuster hin- und herbewegen.
  • Es gibt im Allgemeinen zwei Arten strukturierter Lichtmuster, nämlich ein kodiertes Lichtmuster und ein unkodiertes Lichtmuster. Ein wie hierin verwendetes kodiertes Lichtmuster ist eines, bei dem die dreidimensionalen Koordinaten einer beleuchteten Oberfläche des Objekts durch Aufnehmen eines Einzelbilds ermittelt werden. Es ist mit einem kodierten Lichtmuster möglich, Punktwolkendaten zu erhalten und zu registrieren, während sich die Projektionsvorrichtung relativ zum Objekt bewegt. Eine Art eines kodierten Lichtmusters enthält einen Satz von Elementen (z. B. geometrische Formen), die in Linien angeordnet sind, wobei mindestens drei der Elemente nicht-kollinear sind. Solche Musterelemente sind wegen ihrer Anordnung erkennbar.
  • Im Gegensatz dazu ist ein wie hierin verwendetes unkodiertes strukturiertes Lichtmuster ein Muster, das keine Messung durch ein einziges Muster ermöglicht. Eine Serie unkodierter Lichtmuster kann nacheinander projiziert und bildlich erfasst werden. Für diesen Fall muss der Projektor normalerweise feststehend relativ zum Objekt gehalten werden.
  • Es versteht sich, dass der Scanner 20 entweder ein kodiertes oder ein unkodiertes strukturiertes Lichtmuster nutzen kann. Das strukturierte Lichtmuster kann die Muster umfassen, die in dem in den SPIE-Sitzungsprotokollen, Bd. 7932, veröffentlichten Journalartikel „DLP-Based Structured Light 3D Imaging Technologies and Applications“ von Jason Geng offenbart werden. Ferner überträgt der Projektor 28 bei einigen nachfolgend beschriebenen Ausgestaltungen ein Muster, das aus einer hin- und herbewegten Lichtlinie oder einem hin- und herbewegten Lichtpunkt ausgebildet ist. Hin- und herbewegte Lichtlinien und -punkte bieten Vorteile gegenüber Lichtbereichen bei der Identifizierung einiger Arten von Anomalien wie beispielsweise einer Mehrwegestörung. Das automatische Hin- und Herbewegen der Linie, während der Scanner feststehend gehalten wird, bietet ebenfalls Vorteile bei der Bereitstellung einer gleichmäßigeren Abtastung von Oberflächenpunkten.
  • Die erste Kamera 24 umfasst einen photosensitiven Sensor 44, der ein digitales Bild bzw. eine digitale Darstellung des Bereichs 48 im Sichtfeld des Sensors erzeugt. Der Sensor kann ein Sensor vom Typ ladungsgekoppeltes Bauelement (CCD; charge-coupled device) oder ein Sensor vom Typ komplementärer Metall-Oxid-Halbleiter (CMOS; complementary metal-oxide semiconductor) sein, der beispielsweise eine Pixelanordnung aufweist. Die erste Kamera 24 kann ferner andere Komponenten wie beispielsweise eine Linse 46 und andere optische Vorrichtungen umfassen, aber ohne darauf beschränkt zu sein. Die Linse 46 hat eine ihr zugeordnete erste Brennweite. Der Sensor 44 und die Linse 46 wirken zusammen und definieren ein erstes Sichtfeld „X“. Bei der beispielhaften Ausgestaltung macht das erste Sichtfeld „X“ 16 Grad aus (0,28 cm pro cm).
  • In ähnlicher Weise umfasst die zweite Kamera 26 einen photosensitiven Sensor 38, der ein digitales Bild bzw. eine digitale Darstellung des Bereichs 40 im Sichtfeld des Sensors erzeugt. Der Sensor kann ein Sensor vom Typ ladungsgekoppeltes Bauelement (CCD) oder ein Sensor vom Typ komplementärer Metall-Oxid-Halbleiter (CMOS) sein, der beispielsweise eine Pixelanordnung aufweist. Die zweite Kamera 26 kann ferner andere Komponenten wie beispielsweise eine Linse 42 und andere optische Vorrichtungen umfassen, aber ohne darauf beschränkt zu sein. Die Linse 42 hat eine ihr zugeordnete zweite Brennweite, wobei die zweite Brennweite von der ersten Brennweite verschieden ist. Der Sensor 38 und die Linse 42 wirken zusammen und definieren ein zweites Sichtfeld „Y“. Bei der beispielhaften Ausgestaltung macht das zweite Sichtfeld „Y“ 50 Grad aus (0,85 cm pro cm). Das zweite Sichtfeld ist größer als das erste Sichtfeld X. Dementsprechend ist der Bereich 40 größer als der Bereich 48. Es versteht sich, dass ein größeres Sichtfeld eine schnellere Aufnahme und Messung eines bestimmten Bereichs der Objektoberfläche 32 ermöglicht; wenn die photosensitiven Anordnungen 44 und 38 die gleiche Anzahl an Pixeln aufweisen, ergibt ein kleineres Sichtfeld jedoch eine höhere Auflösung.
  • Der Projektor 28 und die erste Kamera 24 sind bei der beispielhaften Ausgestaltung derart in feststehender Beziehung in einem Winkel angeordnet, dass der Sensor 44 Licht auffangen kann, das von der Oberfläche des Objekts 34 reflektiert wird. Ebenso sind der Projektor 28 und die zweite Kamera 26 derart in feststehender Beziehung in einem Winkel angeordnet, dass der Sensor 38 Licht auffangen kann, das von der Oberfläche 32 des Objekts 34 reflektiert wird. Da der Projektor 28, die erste Kamera 24 und die zweite Kamera 26 feststehende geometrische Beziehungen haben, können der Abstand und die Koordinaten von Punkten auf der Oberfläche durch ihre trigonometrischen Beziehungen ermittelt werden. Obwohl die Sichtfelder (FOV; fields-of-view) der Kameras 24 und 26 in 1 nicht überlappend dargestellt sind, können sie sich teilweise oder ganz überlappen.
  • Der Projektor 28 und die Kameras 24, 26 sind elektrisch an eine Steuervorrichtung 50 gekoppelt, die im Gehäuse 22 angeordnet ist. Die Steuervorrichtung 50 kann einen oder mehrere Mikroprozessoren, digitale Signalprozessoren, Speicher- und Signalkonditionierschaltungen umfassen. Der Scanner 20 kann ferner Aktoren (nicht dargestellt) umfassen, die vom Bediener manuell eingeschaltet werden können, um den Betrieb und die Datenerfassung durch den Scanner 20 zu beginnen. Bei einer Ausgestaltung wird die Bildverarbeitung zur Ermittlung der x-, y-, z-Koordinatendaten der die Oberfläche 32 des Objekts 34 repräsentierenden Punktwolke durch die Steuervorrichtung 50 durchgeführt. Die Koordinatendaten können lokal wie beispielsweise in einem flüchtigen oder nichtflüchtigen Speicher 54 gespeichert werden. Der Speicher kann entfernbar sein, also beispielsweise ein Speicherstick oder eine Speicherkarte. Der Scanner 20 hat bei anderen Ausgestaltungen eine Kommunikationsschaltung 52, die es ihm ermöglicht, die Koordinatendaten an ein entferntes Verarbeitungssystem 56 zu übertragen. Das Kommunikationsmedium 58 zwischen dem Scanner 20 und dem entfernten Verarbeitungssystem 56 kann drahtgebunden (z. B. Ethernet) oder drahtlos (z. B. Bluetooth, IEEE 802.11) sein. Bei einer Ausgestaltung werden die Koordinatendaten durch das entfernte Verarbeitungssystem 56 auf Basis der aufgenommenen Bilder ermittelt, die vom Scanner 20 über das Kommunikationsmedium 58 übertragen werden.
  • Eine relative Bewegung zwischen der Objektoberfläche 32 und dem Scanner 20 ist möglich, wie es durch den Zweirichtungspfeil 47 angezeigt wird. Es gibt mehrere Wege, bei denen eine solche relative Bewegung bereitgestellt werden kann. Bei einer Ausgestaltung ist der Scanner ein in der Hand gehaltener Scanner und ist das Objekt 34 feststehend. Die relative Bewegung ergibt sich aus dem Bewegen des Scanners über die Objektoberfläche. Bei einer anderen Ausgestaltung ist der Scanner an einem Effektor an einem Roboterende befestigt. Die relative Bewegung wird durch den Roboter bereitgestellt, während er den Scanner über die Objektoberfläche bewegt. Bei einer weiteren Ausgestaltung ist entweder der Scanner 20 oder das Objekt 34 an einem sich bewegenden mechanischen Mechanismus wie beispielsweise einem Portal-Koordinatenmessgerät oder einem Gelenkarm-KMG befestigt. Die relative Bewegung wird durch den sich bewegenden mechanischen Mechanismus bereitgestellt, während er den Scanner 20 über die Objektoberfläche bewegt. Bei einigen Ausgestaltungen wird die Bewegung durch die Bedienungsmaßnahme eines Bedieners bereitgestellt und bei anderen Ausgestaltungen wird die Bewegung durch einen Mechanismus bereitgestellt, der von einem Computer gesteuert wird.
  • Nun Bezug nehmend auf 2, wird der Betrieb des Scanners 20 gemäß einem Verfahren 1260 beschrieben. Wie in Block 1262 dargestellt, emittiert der Projektor 28 zuerst ein strukturiertes Lichtmuster auf den Bereich 37 der Oberfläche 32 des Objekts 34. Das Licht 30 des Projektors 28 wird von der Oberfläche 32 als reflektiertes Licht 62 reflektiert, das von der zweiten Kamera 26 aufgefangen wird. Das dreidimensionale Profil der Oberfläche 32 beeinflusst das von der photosensitiven Anordnung 38 in der zweiten Kamera 26 aufgenommene Bild des Musters. Unter Verwendung der Informationen, die aus einem oder mehreren Bildern des Musters bzw. der Muster zusammengetragen wurden, ermittelt die Steuervorrichtung 50 oder das entfernte Verarbeitungssystem 56 eine Eins-zu-eins-Entsprechung zwischen den Pixeln der photosensitiven Anordnung 38 und dem vom Projektor 28 emittierten Lichtmuster. Beim Einsatz dieser Eins-zu-eins-Entsprechung werden Triangulationsprinzipien verwendet, um die dreidimensionalen Koordinaten von Punkten auf der Oberfläche 32 zu ermitteln. Diese Erfassung dreidimensionaler Koordinatendaten (Punktwolkendaten) ist in Block 1264 dargestellt. Durch Bewegen des Scanners 20 über die Oberfläche 32 kann eine Punktwolke des gesamten Objekts 34 erstellt werden.
  • Während des Abtastverfahrens kann die Steuervorrichtung 50 oder das entfernte Verarbeitungssystem 56 eine unerwünschte Bedingung oder ein unerwünschtes Problem bei den Punktwolkendaten erfassen, wie in Block 1266 dargestellt. Verfahren zur Erfassung eines solchen Problems werden nachfolgend anhand von 12 beschrieben. Das erfasste Problem kann zum Beispiel ein Fehler in oder das Fehlen von Punktwolkendaten in einem bestimmten Bereich sein. Dieser Fehler in oder das Fehlen von Daten kann durch zu wenig oder zu viel aus diesem Bereich reflektiertes Licht verursacht werden. Zu wenig oder zu viel reflektiertes Licht kann beispielsweise aus einem Unterschied beim Reflexionsgrad über die Objektoberfläche, aus hohen oder veränderlichen Einfallswinkeln des Lichts 30 auf der Objektoberfläche 32 oder aus reflexionsarmen (schwarzen oder lichtdurchlässigen) Materialien oder glänzenden Oberflächen resultieren. Bestimmte Punkte auf dem Objekt können derart gewinkelt sein, dass sie eine sehr helle gerichtete Reflexion erzeugen, die als Glitzern bekannt ist.
  • Eine andere mögliche Ursache für einen Fehler in oder das Fehlen von Punktwolkendaten ist eine mangelhafte Auflösung in Bereichen mit feinen Merkmalen, scharfen Kanten oder schnellen Änderungen der Tiefe. Eine solche mangelhafte Auflösung kann sich beispielsweise aus einem Loch ergeben.
  • Eine weitere mögliche Ursache für einen Fehler in oder das Fehlen von Punktwolkendaten ist eine Mehrwegestörung. Ein Lichtstrahl des Projektors 28 strahlt normalerweise einen Punkt auf der Oberfläche 32 an und wird über einen Winkelbereich gestreut. Das gestreute Licht wird von der Linse 42 der Kamera 26 auf einem kleinen Punkt auf der photosensitiven Anordnung 38 abgebildet. Dementsprechend kann das gestreute Licht von der Linse 46 der Kamera 24 auf einem kleinen Punkt auf der photosensitiven Anordnung 44 abgebildet werden. Eine Mehrwegestörung tritt auf, wenn das den Punkt auf der Oberfläche 32 erreichende Licht nicht nur vom Lichtstrahl des Projektors 28 stammt, sondern zusätzlich auch von Sekundärlicht, das von einem anderen Abschnitt der Oberfläche 32 reflektiert wird. Ein solches Sekundärlicht kann das von der photosensitiven Anordnung 38, 44 aufgefangene Lichtmuster beeinträchtigen und dadurch die genaue Ermittlung dreidimensionaler Koordinaten des Punkts verhindern. Verfahren, mit denen eine vorhandene Mehrwegestörung identifiziert wird, werden in der vorliegenden Anmeldung anhand von 12 beschrieben.
  • Wenn die Steuervorrichtung in Block 1266 feststellt, dass die Punktwolke in Ordnung ist, wird das Verfahren beendet. Andernfalls erfolgt in Block 1268 eine Ermittlung, ob der Scanner im manuellen oder automatischen Modus benutzt wird. Wenn der Modus manuell ist, wird der Bediener in Block 1270 angeleitet, den Scanner in die gewünschte Position zu bewegen.
  • Es gibt zahlreiche Wege zur Anzeige der vom Bediener gewünschten Bewegung. Bei einer Ausgestaltung zeigen Anzeigeleuchten auf dem Scannerkörper die gewünschte Bewegungsrichtung an. Bei einer anderen Ausgestaltung wird ein Licht auf die Oberfläche projiziert, das die Richtung anzeigt, in welcher der Bediener bewegen muss. Ferner kann eine Farbe des projizierten Lichts angeben, ob der Scanner zu nahe am Objekt ist oder zu weit vom Objekt entfernt ist. Bei einer weiteren Ausgestaltung erfolgt eine Anzeige des Bereichs, auf welchen der Bediener das Licht projizieren muss. Eine solche Anzeige kann eine grafische Darstellung von Punktwolkendaten, ein CAD-Modell oder eine Kombination der zwei sein. Die Anzeige kann auf einem Computermonitor oder auf einer in die Scannervorrichtung eingebauten Anzeigevorrichtung dargestellt werden.
  • Bei einer beliebigen dieser Ausgestaltungen ist ein Verfahren zur Ermittlung der ungefähren Position des Scanners beabsichtigt. Der Scanner kann in einem Fall an einem Gelenkarm-KMG befestigt sein, das Winkelkodierer in seinen Gelenken nutzt, um die Position und Orientierung des an seinem Ende befestigten Scanners zu ermitteln. In einem anderen Fall umfasst der Scanner Inertialsensoren, die im Gerät angeordnet sind. Inertialsensoren können zum Beispiel Gyroskope, Beschleunigungsmesser und Magnetometer sein. Ein anderes Verfahren zur Ermittlung der ungefähren Position des Scanners besteht darin, photogrammetrische Punkte zu beleuchten, die als Markierungspunkte auf dem oder rings um das Objekt angeordnet sind. Auf diese Weise kann die Weitsichtfeldkamera im Scanner dessen ungefähre Position bezogen auf das Objekt ermitteln.
  • Bei einer anderen Ausgestaltung zeigt ein CAD-Modell auf einem Computerbildschirm die Bereiche an, wo zusätzliche Messungen gewünscht werden, und bewegt der Bediener den Scanner gemäß der Anpassung der Merkmale auf dem Objekt an die Merkmale auf dem Scanner. Durch eine Aktualisierung des CAD-Modells auf dem Bildschirm während einer Abtastung kann dem Bediener eine schnelle Rückmeldung darüber gegeben werden, ob die gewünschten Bereiche des Teils gemessen wurden.
  • Nachdem der Bediener den Scanner in die Position bewegt hat, erfolgt in Block 1272 eine Messung mit der ein kleines Sichtfeld aufweisenden Kamera 24. Durch die Betrachtung eines relativ kleineren Bereichs in Block 1272 wird die Auflösung der resultierenden dreidimensionalen Koordinaten verbessert und eine bessere Leistung zur Verfügung gestellt, um Merkmale wie beispielsweise Löcher und Kanten zu charakterisieren.
  • Da die Nahsichtfeldkamera einen relativ kleineren Bereich als die Weitsichtfeldkamera sieht, kann der Projektor 28 einen relativ kleineren Bereich beleuchten. Dies bietet Vorteile bei der Eliminierung einer Mehrwegestörung, weil es relativ weniger beleuchtete Punkte auf dem Objekt gibt, die Licht zurück auf das Objekt reflektieren können. Ein kleinerer beleuchteter Bereich kann auch die Steuerung der Belichtungszeit zur Erzielung der optimalen Lichtmenge für einen bestimmten Reflexionsgrad und Einfallswinkel des Prüfobjekts erleichtern. Wenn in Block 1274 alle Punkte erfasst wurden, endet das Verfahren bei Block 1276; andernfalls wird es fortgesetzt.
  • Bei einer Ausgestaltung, bei der der Modus ab Block 1268 automatisch ist, bewegt der automatische Mechanismus den Scanner dann in Block 1278 in die gewünschte Position. Der automatische Mechanismus hat bei einigen Ausgestaltungen Sensoren zur Bereitstellung von Informationen über die relative Position des Scanners und des Prüfobjekts. Bei einer Ausgestaltung, bei der der automatische Mechanismus ein Roboter ist, liefern Winkelmessgeräte in den Robotergelenken Informationen über die Position und Orientierung des Effektors am Roboterende, der zum Halten des Scanners benutzt wird. Bei einer Ausgestaltung, bei der das Objekt durch einen anderen Typ eines automatischen Mechanismus bewegt wird, können Lineargeber oder verschiedene andere Sensoren Informationen über die relative Position des Objekts und des Scanners zur Verfügung stellen.
  • Nachdem der automatische Mechanismus den Scanner oder das Objekt in die Position bewegt hat, werden dann in Block 1280 dreidimensionale Messungen mit der ein kleines Sichtfeld aufweisenden Kamera durchgeführt. Solche Messungen werden mittels Block 1282 wiederholt, bis sämtliche Messungen beendet sind, und das Verfahren endet bei Block 1284.
  • Der Projektor 28 verändert bei einer Ausgestaltung das strukturierte Lichtmuster, wenn der Scanner von der Datenerfassung mit der zweiten Kamera 26 zur ersten Kamera 24 umschaltet. Bei einer anderen Ausgestaltung wird dasselbe strukturierte Lichtmuster mit beiden Kameras 24, 26 benutzt. Bei noch einer anderen Ausgestaltung emittiert der Projektor 28 ein durch eine hin- und herbewegte Linie oder einen hin- und herbewegten Punkt gebildetes Muster, wenn die Daten von der ersten Kamera 24 erfasst werden. Nach der Datenerfassung mit der ersten Kamera 24 wird das Verfahren mit der Abtastung mittels der zweiten Kamera 26 fortgesetzt. Dieses Verfahren geht weiter, bis der Bediener den gewünschten Bereich des Teils abgetastet hat.
  • Es versteht sich, dass, obwohl das Verfahren von 2 als lineares oder sequentielles Verfahren dargestellt ist, bei anderen Ausgestaltungen einer oder mehrere der dargestellten Schritte parallel ausgeführt werden können. Bei dem in 2 dargestellten Verfahren beinhaltete das Verfahren zuerst das Messen des gesamten Objekts und anschließend die Durchführung weiterer detaillierter Messungen gemäß einer Bewertung der erfassten Punktwolkendaten. Eine alternative Verwendung des Scanners 20 besteht darin, mit dem Messen detaillierter oder kritischer Bereiche mittels der Kamera 24 zu beginnen, die das kleine Sichtfeld aufweist.
  • Es versteht sich ebenfalls, dass es bei bereits existierenden Abtastsystemen allgemeine Praxis ist, eine Möglichkeit zum Austausch der Kameralinse oder Projektorlinse als einen Weg zur Veränderung des Sichtfelds der Kamera oder des Projektors im Abtastsystem zur Verfügung zu stellen. Solche Veränderungen sind allerdings zeitaufwändig und erfordern normalerweise einen zusätzlichen Kompensationsschritt, in dem ein Gegenstand wie beispielsweise eine Punktplatte vor der Kamera oder dem Projektor angeordnet wird, um die Abbildungsfehler-Korrekturparameter für das Kamera- oder Projektorsystem zu ermitteln. Somit bietet ein Abtastsystem, das zwei Kameras mit verschiedenen Sichtfeldern wie beispielsweise die Kameras 24, 26 von 1 bereitstellt, einen signifikanten Vorteil bei der Messgeschwindigkeit und dabei, dem Scanner einen vollautomatischen Modus zur Verfügung zu stellen.
  • In 3 ist eine andere Ausgestaltung eines Scanners 20 mit einem Gehäuse 22 dargestellt, das ein erstes Koordinatenerfassungssystem 76 und ein zweites Koordinatenerfassungssystem 78 umfasst. Das erste Koordinatenerfassungssystem 76 umfasst einen ersten Projektor 80 und eine erste Kamera 82. Ähnlich wie bei der Ausgestaltung von 1 emittiert der Projektor 80 ein Licht 84 auf eine Oberfläche 32 eines Objekts 34. Bei der beispielhaften Ausgestaltung nutzt der Projektor 80 eine sichtbares Licht ausstrahlende Lichtquelle, die einen Mustererzeuger beleuchtet. Die sichtbares Licht ausstrahlende Lichtquelle kann beispielsweise ein Laser, eine Superlumineszenzdiode, eine Glühlampe, eine Xenonlampe, eine Leuchtdiode (LED) oder eine andere Leuchtvorrichtung sein. Der Mustererzeuger ist bei einer Ausgestaltung eine Chrommaske mit einem auf ihr aufgeätzten strukturierten Lichtmuster. Die Fotomaske kann ein einziges Muster oder mehrere Muster aufweisen, die sich je nach Bedarf in die und aus der Position bewegen. Die Fotomaske kann manuell oder automatisch in der Betriebsstellung eingebaut werden. Bei anderen Ausgestaltungen kann das Quellmuster ein Licht sein, das von einer digitalen Mikrospiegelvorrichtung (DMD) wie beispielsweise einem von der Firma Texas Instruments Corporation hergestellten digitalen Lichtprojektor (DLP), einer Flüssigkristallanzeige (LCD), einer Flüssigkristall-auf-Silizium-Vorrichtung (LCOS) oder einer ähnlichen Vorrichtung, die im Durchlassmodus statt im Reflexionsmodus verwendet wird, reflektiert oder durchgelassen wird. Der Projektor 80 kann ferner ein Linsensystem 86 umfassen, das das austretende Licht derart verändert, dass es die gewünschten Fokaleigenschaften hat.
  • Die erste Kamera 82 umfasst einen Sensor 88 der photosensitiven Anordnung, der ein digitales Bild bzw. eine digitale Darstellung des Bereichs 90 im Sichtfeld des Sensors erzeugt. Der Sensor kann ein Sensor vom Typ ladungsgekoppeltes Bauelement (CCD) oder ein Sensor vom Typ komplementärer Metall-Oxid-Halbleiter (CMOS) sein, der beispielsweise eine Pixelanordnung aufweist. Die erste Kamera 82 kann ferner andere Komponenten wie beispielsweise eine Linse 92 und andere optische Vorrichtungen umfassen, aber ohne darauf beschränkt zu sein. Der erste Projektor 80 und die erste Kamera 82 sind derart in feststehender Beziehung in einem Winkel angeordnet, dass die erste Kamera 82 Licht 85 des ersten Projektors 80 erfassen kann, das von der Oberfläche 32 des Objekts 34 reflektiert wird. Es versteht sich, dass, weil die erste Kamera 82 und der erste Projektor 80 in feststehender Beziehung angeordnet sind, die oben besprochenen Prinzipien der Trigonometrie zur Ermittlung der Koordinaten von Punkten auf der Oberfläche 32 im Bereich 90 verwendet werden können. Obwohl 3 der Klarheit halber mit der ersten Kamera 82 nahe dem ersten Projektor 80 abgebildet ist, versteht es sich, dass die Kamera näher an der anderen Seite des Gehäuses 22 angeordnet werden könnte. Beabstandet man die erste Kamera 82 und den ersten Projektor 80 weiter auseinander, kann man davon ausgehen, dass die Genauigkeit der 3D-Messung verbessert wird.
  • Das zweite Koordinatenerfassungssystem 78 umfasst einen zweiten Projektor 94 und eine zweite Kamera 96. Der Projektor 94 hat eine Lichtquelle, die einen Laser, eine Leuchtdiode (LED), eine Superlumineszenzdiode (SLED; superluminescent diode), eine Xenonlampe oder einen anderen geeigneten Lichtquellentyp umfassen kann. Eine Linse 98 dient bei einer Ausgestaltung zur Fokussierung des von der Laserlichtquelle kommenden aufgefangenen Lichts zu einer Lichtlinie 100 und kann eine oder mehrere Zylinderlinsen oder Linsen mit verschiedenen anderen Formen umfassen. Die Linse wird hierin auch als „Linsensystem“ bezeichnet, weil sie eine oder mehrere einzelne Linsen oder eine Sammlung von Linsen umfassen kann. Die Lichtlinie ist im Wesentlichen gerade, d. h., dass die maximale Abweichung von einer Linie unter 1 % ihrer Länge liegt. Ein von einer Ausgestaltung benutzter Linsentyp ist eine Stablinse. Stablinsen haben typisch die Form eines aus Glas oder Kunststoff bestehenden Vollzylinders, der an seinem Umfang poliert ist und an beiden Enden geschliffen ist. Solche Linsen wandeln kollimiertes Licht, das durch den Durchmesser des Stabs durchgeht, in eine Linie um. Ein anderer Linsentyp, den man benutzen kann, ist eine Zylinderlinse. Eine Zylinderlinse ist eine Linse, die die Form eines Teilzylinders aufweist. Beispielsweise kann eine Oberfläche einer Zylinderlinse flach sein, während die gegenüberliegende Oberfläche zylinderförmig ist.
  • Bei einer anderen Ausgestaltung erzeugt der Projektor 94 ein zweidimensionales Lichtmuster, das einen Bereich der Oberfläche 32 abdeckt. Das sich daraus ergebende Koordinatenerfassungssystem 78 wird dann als „Scanner mit strukturiertem Licht“ bezeichnet.
  • Die zweite Kamera 96 umfasst einen Sensor 102 wie beispielsweise einen Sensor vom Typ ladungsgekoppeltes Bauelement (CCD) oder einen Sensor vom Typ komplementärer Metall-Oxid-Halbleiter (CMOS). Die zweite Kamera 96 kann ferner andere Komponenten wie beispielsweise eine Linse 104 und andere optische Vorrichtungen umfassen, aber ohne darauf beschränkt zu sein. Der zweite Projektor 94 und die zweite Kamera 96 sind derart in einem Winkel angeordnet, dass die zweite Kamera 96 Licht 106 des zweiten Projektors 94 erfassen kann, das vom Objekt 34 reflektiert wird. Es versteht sich, dass, weil der zweite Projektor 94 und die zweite Kamera 96 in feststehender Beziehung angeordnet sind, die oben besprochenen Prinzipien der Trigonometrie zur Ermittlung der Koordinaten von Punkten auf der Oberfläche 32 auf der durch das Licht 100 gebildeten Linie verwendet werden können. Es versteht sich auch, dass die Kamera 96 und der Projektor 94 auf einander gegenüberliegenden Seiten des Gehäuses 22 angeordnet werden können, um die 3D-Messgenauigkeit zu verbessern.
  • Das zweite Koordinatenerfassungssystem ist bei einer anderen Ausgestaltung dafür konfiguriert, verschiedene Muster zu projizieren, die nicht nur eine feste Lichtlinie, sondern auch eine hin- und herbewegte Lichtlinie, ein hin- und herbewegter Lichtpunkt, ein kodiertes Lichtmuster (das einen Bereich abdeckt) oder aufeinanderfolgende Muster (die einen Bereich abdecken) sein kann. Jeder Typ des Projektionsmusters hat unterschiedliche Vorteile wie zum Beispiel Geschwindigkeit, Genauigkeit und Unempfindlichkeit für eine Mehrwegestörung. Durch Auswerten der Leistungsanforderungen für jede bestimmte Messung und/oder durch Überprüfen der Kennwerte der zurückgesendeten Daten oder der voraussichtlichen Objektform (aus CAD-Modellen oder aus einer 3D-Rekonstruktion auf Basis der erfassten Abtastungsdaten) ist es möglich, den Typ des projizierten Musters auszuwählen, der die Leistung optimiert.
  • Bei einer weiteren Ausgestaltung ist der Abstand zwischen dem zweiten Koordinatenerfassungssystem 78 und der Objektoberfläche 32 anders als der Abstand zwischen dem ersten Koordinatenerfassungssystem 76 und der Objektoberfläche 32. Beispielsweise kann die Kamera 96 näher am Objekt 32 positioniert sein als die Kamera 88. Auf diese Weise können die Auflösung und die Genauigkeit des zweiten Koordinatenerfassungssystems 78 relativ zu der des ersten Koordinatenerfassungssystem 76 verbessert werden. Es ist in vielen Fällen hilfreich, schnell ein relativ großes und glattes Objekt mit einem niedriger auflösenden System 76 abzutasten und anschließend Details einschließlich Kanten und Löchern mit einem höher auflösenden System 78 abzutasten.
  • Ein Scanner 20 kann im manuellen oder automatischen Modus benutzt werden. Im manuellen Modus wird ein Bediener gemäß dem benutzten Erfassungssystem aufgefordert, den Scanner näher zur Objektoberfläche zu bewegen oder weiter von der Objektoberfläche fortzubewegen. Darüber hinaus kann der Scanner 20 einen Lichtstrahl oder ein Lichtmuster projizieren, der bzw. das dem Bediener die Richtung anzeigt, in welcher der Scanner zu bewegen ist. Alternativ dazu können Anzeigeleuchten auf dem Gerät die Richtung anzeigen, in welcher der Scanner bewegt werden sollte. Im automatischen Modus können der Scanner 20 oder das Objekt 34 gemäß den Anforderungen der Messung automatisch relativ zueinander bewegt werden.
  • Ähnlich wie bei der Ausgestaltung von 1 sind das erste Koordinatenerfassungssystem 76 und das zweite Koordinatenerfassungssystem 78 elektrisch an eine Steuervorrichtung 50 gekoppelt, die im Gehäuse 22 angeordnet ist. Die Steuervorrichtung 50 kann einen oder mehrere Mikroprozessoren, digitale Signalprozessoren, Speicher- und Signalkonditionierschaltungen umfassen. Der Scanner 20 kann ferner Aktoren (nicht dargestellt) umfassen, die vom Bediener manuell eingeschaltet werden können, um den Betrieb und die Datenerfassung durch den Scanner 20 zu beginnen. Bei einer Ausgestaltung wird die Bildverarbeitung zur Ermittlung der x-, y-, z-Koordinatendaten der die Oberfläche 32 des Objekts 34 repräsentierenden Punktwolke durch die Steuervorrichtung 50 durchgeführt. Die Koordinatendaten können lokal wie beispielsweise in einem flüchtigen oder nichtflüchtigen Speicher 54 gespeichert werden. Der Speicher kann entfernbar sein, also beispielsweise ein Speicherstick oder eine Speicherkarte. Der Scanner 20 hat bei anderen Ausgestaltungen eine Kommunikationsschaltung 52, die es ihm ermöglicht, die Koordinatendaten an ein entferntes Verarbeitungssystem 56 zu übertragen. Das Kommunikationsmedium 58 zwischen dem Scanner 20 und dem entfernten Verarbeitungssystem 56 kann drahtgebunden (z. B. Ethernet) oder drahtlos (z. B. Bluetooth, IEEE 802.11) sein. Bei einer Ausgestaltung werden die Koordinatendaten durch das entfernte Verarbeitungssystem 56 ermittelt und überträgt der Scanner 20 aufgenommene Bilder über das Kommunikationsmedium 58.
  • Nun Bezug nehmend auf 4, wird das Verfahren 1400 zum Betrieb des Scanners 20 von 3 beschrieben. In Block 1402 emittiert der erste Projektor 80 des ersten Koordinatenerfassungssystems 76 des Scanners 20 ein strukturiertes Lichtmuster auf den Bereich 90 der Oberfläche 32 des Objekts 34. Das Licht 84 des Projektors 80 wird von der Oberfläche 32 reflektiert und das reflektierte Licht 85 wird von der ersten Kamera 82 aufgefangen. Wie oben besprochen, erzeugen Veränderungen des Oberflächenprofils der Oberfläche 32 Verzerrungen im abgebildeten Lichtmuster, das von der ersten photosensitiven Anordnung 88 aufgefangen wird. Da das Muster durch strukturiertes Licht, eine Lichtlinie oder einen Lichtpunkt gebildet wird, ist es in einigen Fällen für die Steuervorrichtung 50 oder das entfernte Verarbeitungssystem 56 möglich, eine Eins-zu-eins-Entsprechung zwischen Punkten auf der Oberfläche 32 und den Pixeln in der photosensitiven Anordnung 88 zu ermitteln. Dies ermöglicht den Einsatz der oben besprochenen Triangulationsprinzipien in Block 1404, um Punktwolkendaten zu erhalten, d. h. die x-, y-, z-Koordinaten von Punkten auf der Oberfläche 32 zu ermitteln. Durch Bewegen des Scanners 20 relativ zur Oberfläche 32 kann eine Punktwolke des gesamten Objekts 34 erstellt werden.
  • In Block 1406 ermittelt die Steuervorrichtung 50 oder das entfernte Verarbeitungssystem 56, ob die Punktwolkendaten die gewünschten Datenqualitätsattribute besitzen oder ob bei ihnen ein potenzielles Problem besteht. Die Arten von Problemen, die auftreten können, wurden vorstehend anhand von 2 besprochen und diese Erörterung wird hier nicht wiederholt. Wenn die Steuervorrichtung in Block 1406 feststellt, dass die Punktwolke die gewünschten Datenqualitätsattribute aufweist, wird das Verfahren beendet. Andernfalls erfolgt in Block 1408 eine Ermittlung, ob der Scanner im manuellen oder automatischen Modus benutzt wird. Wenn der Modus manuell ist, wird der Bediener in Block 1410 angeleitet, den Scanner in die gewünschte Position zu bewegen.
  • Es gibt mehrere Wege zur Anzeige der gewünschten Bewegung durch den Bediener, wie es vorstehend anhand von 2 beschrieben wurde. Diese Erörterung wird hier nicht wiederholt.
  • Um den Bediener für die Erzielung der gewünschten Bewegung anzuweisen, ist ein Verfahren zur Ermittlung der ungefähren Position des Scanners erforderlich. Wie anhand von 2 erläutert wurde, können Verfahren die Befestigung des Scanners 20 an einem Gelenkarm-KMG, die Verwendung von Inertialsensoren im Scanner 20, die Beleuchtung von photogrammetrischen Punkten oder die Anpassung von Merkmalen an ein angezeigtes Bild umfassen.
  • Nachdem der Bediener den Scanner in die Position bewegt hat, erfolgt in Block 1412 eine Messung mit dem zweiten Koordinatenerfassungssystem 78. Durch den Einsatz des zweiten Koordinatenerfassungssystems können die Auflösung und die Genauigkeit verbessert oder Probleme eliminiert werden. Wenn in Block 1414 alle Punkte erfasst wurden, endet das Verfahren bei Block 1416; andernfalls wird es fortgesetzt.
  • Wenn der Betriebsmodus ab Block 1408 automatisch ist, bewegt dann der automatische Mechanismus in Block 1418 den Scanner in die gewünschte Position. Ein automatischer Mechanismus hat in den meisten Fällen Sensoren, die Informationen über die relative Position des Scanners und Prüfobjekts zur Verfügung stellen. Für den Fall, in dem der automatische Mechanismus ein Roboter ist, stellen Winkelmessgeräte in den Robotergelenken Informationen über die Position und Orientierung des zum Halten des Scanners benutzten Effektors am Roboterende zur Verfügung. Für andere Typen automatischer Mechanismen können Lineargeber oder verschiedene andere Sensoren Informationen über die relative Position des Objekts und des Scanners zur Verfügung stellen.
  • Nachdem der automatische Mechanismus den Scanner oder das Objekt in die Position bewegt hat, werden dann in Block 1420 dreidimensionale Messungen mit dem zweiten Koordinatenerfassungssystem 78 durchgeführt. Solche Messungen werden mittels Block 1422 wiederholt, bis sämtliche Messungen beendet sind. Das Verfahren endet bei Block 1424.
  • Es versteht sich, dass, obwohl das Verfahren von 4 als lineares oder sequentielles Verfahren dargestellt ist, bei anderen Ausgestaltungen einer oder mehrere der dargestellten Schritte parallel ausgeführt werden können. Bei dem in 4 dargestellten Verfahren beinhaltete das Verfahren zuerst das Messen des gesamten Objekts und anschließend die Durchführung weiterer detaillierter Messungen gemäß einer Bewertung der erfassten Punktwolkendaten. Eine alternative Verwendung des Scanners 20 besteht darin, mit dem Messen detaillierter oder kritischer Bereiche unter Einsatz des zweiten Koordinatenerfassungssystems 78 zu beginnen.
  • Es versteht sich auch, dass es bei bereits existierenden Abtastsystemen allgemeine Praxis ist, eine Möglichkeit zum Austausch der Kameralinse oder Projektorlinse als einen Weg zur Veränderung des Sichtfelds der Kamera oder des Projektors im Abtastsystem zur Verfügung zu stellen. Solche Veränderungen sind allerdings zeitaufwändig und erfordern normalerweise einen zusätzlichen Kompensationsschritt, in dem ein Gegenstand wie beispielsweise eine Punktplatte vor der Kamera oder dem Projektor angeordnet wird, um die Abbildungsfehler-Korrekturparameter für das Kamera- oder Projektorsystem zu ermitteln. Somit bietet ein System, das zwei verschiedene Koordinatenerfassungssysteme wie beispielsweise das Abtastsystem 20 von 3 bereitstellt, einen signifikanten Vorteil bei der Messgeschwindigkeit und dabei, dem Scanner einen vollautomatischen Modus zur Verfügung zu stellen.
  • Bei der Durchführung von Scannermessungen kann infolge einer Mehrwegestörung ein Fehler auftreten. Es wird nun der Ursprung einer Mehrwegestörung besprochen und ein erstes Verfahren zur Eliminierung oder Reduzierung einer Mehrwegestörung beschrieben.
  • Der Fall einer Mehrwegestörung ereignet sich, wenn ein Teil des Lichts, das die Objektoberfläche anstrahlt, zuerst von einer anderen Oberfläche des Objekts gestreut wird, bevor es zur Kamera zurückkehrt. Für den Punkt auf dem Objekt, der dieses gestreute Licht auffängt, entspricht dieses zur photosensitiven Anordnung gesendete Licht dann nicht nur dem direkt vom Projektor projizierten Licht, sondern auch dem zu einem anderen Punkt auf dem Projektor gesendeten und vom Objekt gestreuten Licht. Das Ergebnis der Mehrwegestörung kann insbesondere im Falle von Scannern, die ein zweidimensionales (strukturiertes) Licht projizieren, dazu führen, dass der berechnete Abstand zwischen Projektor und Objektoberfläche an diesem Punkt ungenau ist.
  • Ein Fall einer Mehrwegestörung wird anhand von 5A veranschaulicht, wobei bei dieser Ausgestaltung ein Scanner 4570 eine Lichtlinie 4525 auf die Oberfläche 4510A eines Objekts projiziert. Die Lichtlinie 4525 verläuft senkrecht zur Papierebene. Bei einer Ausgestaltung sind die Zeilen einer photosensitiven Anordnung parallel zur Papierebene und die Spalten senkrecht zur Papierebene. Jede Zeile repräsentiert einen Punkt auf der projizierten Linie 4525 in der senkrecht zur Papierebene verlaufenden Richtung. Der Abstand zwischen Projektor und Objekt wird für diesen Punkt auf der Linie ermittelt, indem zuerst der Flächenschwerpunkt für jede Zeile berechnet wird. Bei dem Oberflächenpunkt 4526 wird der Flächenschwerpunkt auf der photosensitiven Anordnung 4541 durch den Punkt 4546 repräsentiert.
  • Die Position 4546 des Flächenschwerpunkts auf der photosensitiven Anordnung kann zur Berechnung des Abstands zwischen dem perspektivischen Zentrum 4544 der Kamera und dem Objektpunkt 4526 verwendet werden. Diese Berechnung beruht auf trigonometrischen Beziehungen nach den Prinzipien der Triangulation. Zur Durchführung dieser Berechnungen wird der Basislinienabstand D zwischen dem perspektivischen Zentrum 4544 der Kamera und dem perspektivischen Zentrum 4523 des Projektors benötigt. Ferner muss die relative Orientierung des Projektorsystems 4520 zum Kamerasystem 4540 bekannt sein.
  • Zum Verständnis des durch eine Mehrwegestörung verursachten Fehlers betrachte man den Punkt 4527. Licht, das von diesem Punkt aus reflektiert bzw. gestreut wird, wird durch die Linse 4542 auf dem Punkt 4548 auf der photosensitiven Anordnung 4541 abgebildet. Zusätzlich zu dem Licht, das direkt aus dem Projektor kommend aufgefangen und vom Punkt 4527 gestreut wird, wird jedoch weiteres Licht vom Punkt 4526 auf den Punkt 4527 reflektiert, bevor es auf der photosensitiven Anordnung bildlich erfasst wird. Das Licht wird sehr wahrscheinlich zu einer unerwarteten Position reflektiert und führt zur Bildung von zwei Flächenschwerpunkten in einer bestimmten Zeile. Demzufolge ist die Beobachtung von zwei Flächenschwerpunkten in einer bestimmten Zeile ein guter Indikator für das Vorhandensein einer Mehrwegestörung.
  • Für den Fall des strukturierten Lichts, das auf einen Bereich der Objektoberfläche projiziert wird, ist eine Sekundärreflexion von einem Punkt wie zum Beispiel 4527 normalerweise nicht so offensichtlich wie bei Licht, das auf eine Linie projiziert wird und daher wahrscheinlicher einen Fehler bei den gemessenen 3D-Oberflächenkoordinaten verursacht.
  • Das Beleuchtungsmuster kann verändert werden, indem man einen Projektor mit einem einstellbaren Beleuchtungsmuster auf einem Anzeigeelement 4521 verwendet. Das Anzeigeelement 4521 könnte ein digitaler mikromechanischer Spiegel (DMM; digital micromechanical mirror) wie beispielsweise ein digitaler Lichtprojektor (DLP) sein. Solche Vorrichtungen enthalten mehrere kleine Spiegel, die mittels eines elektrischen Signals schnell einstellbar sind, um ein Beleuchtungsmuster schnell einzustellen. Zu den anderen Vorrichtungen, die ein elektrisch einstellbares Anzeigemuster bilden können, gehören eine LCD-Anzeigevorrichtung (Flüssigkristall-Anzeigevorrichtung) und eine LCOS-Anzeigevorrichtung (Flüssigkristall-auf-Silizium-Anzeigevorrichtung).
  • Ein Weg zur Überprüfung einer Mehrwegestörung in einem System, das strukturiertes Licht über einen Bereich projiziert, besteht darin, die Anzeigevorrichtung für das Projizieren einer Lichtlinie auszutauschen. Das Vorhandensein mehrerer Flächenschwerpunkte in einer Zeile zeigt an, dass eine Mehrwegestörung vorhanden ist. Durch Hin- und Herbewegen der Lichtlinie kann ein Bereich abgedeckt werden, ohne dass die Sonde von einem Bediener bewegt werden muss.
  • Die Lichtlinie kann durch eine elektrisch einstellbare Anzeigevorrichtung auf einen beliebigen gewünschten Winkel eingestellt werden. In vielen Fällen kann eine Mehrwegestörung durch Ändern der Richtung der projizierten Lichtlinie eliminiert werden.
  • Für Oberflächen, die viele Faltenwinkel und steile Winkel aufweisen, so dass Reflexionen kaum zu vermeiden sind, kann die elektrisch einstellbare Anzeigevorrichtung dazu benutzt werden, einen Lichtpunkt hin- und herzubewegen. In manchen Fällen entsteht eventuell eine Sekundärreflexion aus einem einzigen Lichtpunkt, doch es lässt sich gewöhnlich relativ leicht ermitteln, welcher der reflektierten Lichtpunkte gültig ist.
  • Eine elektrisch einstellbare Anzeigevorrichtung kann auch zum schnellen Umschalten zwischen einem kodierten und einem unkodierten Muster eingesetzt werden. In den meisten Fällen wird ein kodiertes Muster benutzt, um eine 3D-Messung auf Basis eines Einzelbilds der Kamerainformationen durchzuführen. Andererseits können mehrere Muster (aufeinanderfolgende oder unkodierte Muster) verwendet werden, um eine größere Genauigkeit bei den gemessenen 3D-Koordinatenwerten zu erzielen.
  • In der Vergangenheit wurden elektrisch einstellbare Anzeigevorrichtungen benutzt, um jedes einer Serie von Mustern in aufeinanderfolgenden Mustern – zum Beispiel eine Serie von Graulinienmustern und danach eine Sequenz von Sinusmustern mit jeweils unterschiedlicher Phase – zu projizieren.
  • Das vorliegende erfindungsgemäße Verfahren bietet gegenüber früheren Verfahren Vorteile bei der Auswahl derjenigen Verfahren, die Probleme wie beispielsweise eine Mehrwegestörung identifizieren oder eliminieren und die anzeigen, ob ein Einzelaufnahmemuster (zum Beispiel ein kodiertes Muster) oder ein Mehrfachaufnahmemuster bevorzugt wird, um die erforderliche Genauigkeit so schnell wie möglich zu erzielen.
  • Im Falle eines Linienscanners ergibt sich oft ein Weg, mit dem das Vorhandensein einer Mehrwegestörung ermittelt werden kann. Falls eine Mehrwegestörung fehlt, wird das von einem Punkt auf der Objektoberfläche reflektierte Licht in einer einzigen Zeile auf einem Bereich zusammenhängender Pixel abgebildet. Wenn es zwei oder mehr Bereiche einer Zeile gibt, die eine signifikante Lichtmenge auffangen, wird eine Mehrwegestörung angezeigt. In 5A ist ein Beispiel für eine solche Mehrwegestörungsbedingung und den daraus resultierenden Extra-Beleuchtungsbereich auf der photosensitiven Anordnung dargestellt. Die Oberfläche 4510A hat jetzt eine größere Krümmung nahe dem Schnittpunkt 4526. Die Flächennormale am Schnittpunkt ist die Linie 4528 und der Einfallswinkel ist 4531. Die Richtung der reflektierten Lichtlinie 4529 wird aus dem Reflexionswinkel 4532 ermittelt, der gleich dem Einfallswinkel ist. Wie vorstehend angegeben wurde, repräsentiert die Lichtlinie 4529 eigentlich eine Gesamtrichtung für das Licht, dass über einen Winkelbereich gestreut wird. Die Mitte des gestreuten Lichts trifft auf die Oberfläche 4510A am Punkt 4527 auf, der von der Linse 4544 am Punkt 4548 auf der photosensitiven Anordnung abgebildet wird. Die unerwartet hohe Lichtmenge, die in der Nähe des Punkts 4548 aufgefangen wird, zeigt an, dass wahrscheinlich eine Mehrwegestörung vorhanden ist. Bei einem Linienscanner liegt die vorrangige Bedeutung der Mehrwegestörung nicht in dem in 5A dargestellten Fall vor, wo die zwei Punkte 4546 und 4527 um einen beträchtlichen Abstand voneinander entfernt sind und getrennt analysiert werden können, sondern vielmehr in dem Fall, in dem die zwei Punkte einander überlappen oder miteinander verschmolzen sind. In diesem Fall ist es unter Umständen nicht möglich, den Flächenschwerpunkt zu ermitteln, der dem gewünschten Punkt entspricht, welcher in 15E dem Punkt 4546 entspricht. Das Problem wird im Falle eines Scanners, der Licht über einen zweidimensionalen Bereich projiziert, noch größer, wie bei erneuter Betrachtung von 5A zu erkennen ist. Würde alles Licht, das auf der photosensitiven Anordnung 4541 abgebildet wird, für die Ermittlung zweidimensionaler Koordinaten benötigt, ist klar, dass das Licht am Punkt 4527 dem gewünschten Lichtmuster, das direkt vom Projektor projiziert wird, und dem unerwünschten Licht, das von der Objektoberfläche zum Punkt 4527 reflektiert wird, entspräche. Infolgedessen würden in diesem Fall wahrscheinlich für den Punkt 4527 die falschen dreidimensionalen Koordinaten für das über einen Bereich projizierte Licht berechnet.
  • Bei einer projizierten Lichtlinie ist es in vielen Fällen möglich, eine Mehrwegestörung zu eliminieren, indem man die Richtung der Linie verändert. Eine Möglichkeit besteht darin, einen Linienscanner zu verwenden, der einen Projektor mit inhärenter zweidimensionaler Fähigkeit benutzt, wodurch die Linie hin- und herbewegt oder automatisch in verschiedene Richtungen gedreht werden kann. Ein Beispiel für einen solchen Projektor ist ein Projektor, der einen wie vorstehend besprochenen digitalen Mikrospiegel (DMD) nutzt. Wenn beispielsweise eine Mehrwegestörung bei einer mit strukturiertem Licht erhaltenen bestimmten Abtastung vermutet wird, könnte ein Messsystem automatisch dafür konfiguriert werden, zu einem Messverfahren umzuschalten, bei dem eine hin- und herbewegte Lichtlinie verwendet wird.
  • Ein anderes Verfahren zur Reduzierung, Minimierung oder Eliminierung einer Mehrwegestörung besteht darin, einen Lichtpunkt statt einer Lichtlinie oder eines Lichtbereichs über diejenigen Bereiche hin- und herzubewegen, bei denen eine Mehrwegestörung angezeigt wurde. Durch Beleuchten eines einzigen Lichtpunkts lässt sich gewöhnlich ohne Weiteres jedwedes Licht identifizieren, das von einer Sekundärreflexion gestreut wurde.
  • Die Ermittlung des gewünschten Musters, das durch eine elektrisch einstellbare Anzeigevorrichtung projiziert wird, profitiert von einer diagnostischen Analyse, die nachfolgend anhand von 12 beschrieben wird.
  • Die Veränderung des Musters des projizierten Lichts stellt neben ihrer Verwendung bei Diagnosen und Korrekturen einer Mehrwegestörung auch Vorteile bei der Erzielung einer erforderlichen Genauigkeit und Auflösung bei minimaler Zeitdauer zur Verfügung. Bei einer Ausgestaltung wird eine Messung zuerst durchgeführt, indem ein kodiertes Lichtmuster in einer Einzelaufnahme auf ein Objekt projiziert wird. Die dreidimensionalen Koordinaten der Oberfläche werden unter Einsatz der erfassten Daten ermittelt und die Ergebnisse werden analysiert, um festzustellen, ob einige Bereiche Löcher, Kanten oder Merkmale aufweisen, die eine detailliertere Analyse erforderlich machen. Eine solche detaillierte Analyse könnte beispielsweise erfolgen, indem man die Schmalsichtfeldkamera 24 von 1 oder das hochauflösende Scannersystem 78 von 3 benutzt.
  • Die Koordinaten werden auch zur Ermittlung des ungefähren Abstands zum Ziel analysiert, wodurch ein Anfangsabstand für ein genaueres Messverfahren wie z. B. ein Verfahren bereitgestellt wird, bei dem, wie vorstehend besprochen, nacheinander sinusförmige phasenverschobene Lichtmuster auf eine Oberfläche projiziert werden. Erhält man mit dem kodierten Lichtmuster einen Anfangsabstand für jeden Punkt auf der Oberfläche, wird dadurch die Anforderung, diese Informationen durch Variieren des Abstands bei mehrfachen sinusförmigen phasenverschobenen Abtastungen zu erhalten, eliminiert und dadurch beträchtliche Zeit gespart.
  • Nun Bezug nehmend auf 5B, ist dort eine Ausgestaltung dargestellt, mit der Anomalien überwunden oder die Genauigkeit bei vom Scanner 20 erfassten Koordinatendaten verbessert werden. Das Verfahren 211 beginnt in Block 212 durch Abtasten eines Objekts wie beispielsweise eines Objekts 34 mit einem Scanner 20. Der Scanner 20 kann ein Scanner wie zum Beispiel diejenigen sein, die bei den Ausgestaltungen von 1, 3, 5 und 7 beschrieben werden, die mindestens einen Projektor und eine Kamera aufweisen. Bei dieser Ausgestaltung projiziert der Scanner 20 in Block 212 ein erstes Lichtmuster auf das Objekt. Dieses erste Lichtmuster ist bei einer Ausgestaltung ein kodiertes strukturiertes Lichtmuster. Das Verfahren 211 erfasst und ermittelt in Block 214 die dreidimensionalen Koordinatendaten. Die Koordinatendaten werden im Abfrageblock 216 analysiert, um zu ermitteln, ob etwaige Anomalien wie beispielsweise die oben genannte Mehrwegestörung, eine niedrige Auflösung rings um ein Element oder das Fehlen von Daten wegen Änderungen von Oberflächenwinkeln oder des Oberflächenreflexionsgrads vorliegen. Wenn eine Anomalie erfasst wird, geht das Verfahren 211 mit Block 218 weiter, wo das vom Projektor emittierte Lichtmuster in ein zweites Lichtmuster umgeändert wird. Bei einer Ausgestaltung ist das zweite Lichtmuster eine hin- und herbewegte Lichtlinie.
  • Nach der Projektion des zweiten Lichtmusters geht das Verfahren 211 mit Block 220 weiter, wo die dreidimensionalen Koordinatendaten erfasst und für den Bereich, wo die Anomalie erfasst wurde, ermittelt werden. Das Verfahren 211 kehrt zum Abfrageblock 216 zurück, wo ermittelt wird, ob die Anomalie aufgelöst wurde. Wenn der Abfrageblock 216 immer noch eine Anomalie oder einen Mangel bei der Genauigkeit oder Auflösung erfasst, kehrt das Verfahren zu Block 218 zurück und schaltet zu einem dritten Lichtmuster um. Das dritte Lichtmuster ist bei einer Ausgestaltung ein sequentielles sinusförmiges Phasenverschiebungsmuster. Bei einer anderen Ausgestaltung ist das dritte Lichtmuster ein hin- und herbewegter Lichtpunkt. Diese iterative Methode geht weiter, bis die Anomalie aufgelöst wurde. Sobald die Koordinatendaten aus dem Bereich der Anomalie ermittelt wurden, geht das Verfahren 211 mit Block 222 weiter, wo das emittierte Muster zum ersten strukturierten Lichtmuster zurückgeschaltet und das Abtastverfahren fortgesetzt wird. Das Verfahren 211 geht weiter, bis der Bediener den gewünschten Bereich des Objekts abgetastet hat. In dem Fall, in dem die mit dem Verfahren von 11 erhaltenen Abtastinformationen nicht zufriedenstellend sind, kann man eine wie hierin besprochene Messaufgabe mit einer Tastsonde anwenden.
  • Nun Bezug nehmend auf 6, ist dort eine andere Ausgestaltung eines Scanners 20 dargestellt, die an einer beweglichen Vorrichtung 120 angebracht ist. Der Scanner 20 hat mindestens einen Projektor 122 und mindestens eine Kamera 124, die derart in einer feststehenden geometrischen Beziehung angeordnet sind, dass die Prinzipien der Trigonometrie für die Ermittlung der dreidimensionalen Koordinaten von Punkten auf der Oberfläche 32 verwendet werden können. Der Scanner 20 kann beispielsweise derselbe Scanner wie der anhand von 1 oder 3 beschriebene sein. Bei einer Ausgestaltung ist der Scanner derselbe wie der Scanner von 10 mit einer Tastsonde. Der bei der Ausgestaltung von 6 benutzte Scanner kann jedoch ein beliebiger Scanner wie beispielsweise ein Scanner mit strukturiertem Licht oder ein Linienscanner sein, also zum Beispiel ein Scanner, der in dem am 18. Januar 2006 angemeldeten US-Patent 7,246,030 des gleichen Inhabers mit dem Titel „Portable Coordinate Measurement Machine with Integrated Line Laser Scanner“ offenbart wird. Bei einer anderen Ausgestaltung ist der bei der Ausgestaltung von 6 verwendete Scanner ein Scanner mit strukturiertem Licht, der Licht über einen Bereich auf ein Objekt projiziert.
  • Die bewegliche Vorrichtung 120 ist bei der beispielhaften Ausgestaltung eine Robotervorrichtung, die automatische Bewegungen mit Armsegmenten 126, 128 bereitstellt, die durch Dreh- und Schwenkgelenke 130 miteinander verbunden sind, um die Bewegung der Armsegmente 126, 128 zu ermöglichen, woraus sich ergibt, dass sich der Scanner 20 von einer ersten Position zu einer zweiten Position bewegt (wie es durch die gestrichelte Linie in 6 angezeigt ist). Die bewegliche Vorrichtung 120 kann Aktoren wie beispielsweise Motoren (nicht dargestellt) umfassen, die an die Armsegmente 126, 128 gekoppelt sind, um die Armsegmente 126, 128 von der ersten zur zweiten Position zu bewegen. Es versteht sich, dass eine bewegliche Vorrichtung 120 mit Gelenkarmen dem Zweck der Veranschaulichung dient und die beanspruchte Erfindung so nicht eingeschränkt sein sollte. Bei anderen Ausgestaltungen kann der Scanner 20 an einer beweglichen Vorrichtung angebracht sein, die ihn zum Beispiel über Schienen, Räder, Bahnen, Riemen oder Seile oder eine Kombination der vorangehenden bewegt. Bei anderen Ausgestaltungen hat der Roboter eine andere Anzahl von Armsegmenten.
  • Die bewegliche Vorrichtung ist bei einer Ausgestaltung ein Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG) wie beispielsweise das in der am 20. Januar eingereichten US-Patentanmeldung, Aktenzeichen Nr. 13/491,176, des gleichen Inhabers beschriebene. Bei dieser Ausgestaltung kann die Bewegung des Scanners 20 von der ersten zur zweiten Position beinhalten, dass der Bediener die Armsegmente 126, 128 manuell bewegt.
  • Bei einer Ausgestaltung mit einer automatischen Vorrichtung umfasst die bewegliche Vorrichtung 120 des Weiteren eine Steuervorrichtung 132, die dafür konfiguriert ist, die Aktoren einzuschalten, um die Armsegmente 126, 128 zu bewegen. Die Steuervorrichtung 132 kommuniziert bei einer Ausgestaltung mit einer Steuervorrichtung 134. Wie nachfolgend ausführlicher besprochen wird, ermöglicht diese Anordnung der Steuervorrichtung 132 als Reaktion auf eine Anomalie bei den erfassten Daten das Bewegen des Scanners 20. Es versteht sich, dass die Steuervorrichtungen 132, 134 in eine einzige Verarbeitungseinheit eingebracht werden können oder die Funktionalität auf mehrere Verarbeitungseinheiten verteilt werden kann.
  • Mittels der Durchführung einer Analyse anhand von 12 ist es möglich, den Scanner 20 derart zu positionieren und zu orientieren, dass die gewünschten Messergebnisse erzielt werden. Bei einigen Ausgestaltungen kann ein gemessenes Merkmal von einer gewünschten Richtung des Scanners profitieren. Die Messung des Durchmessers eines Lochs lässt sich beispielsweise verbessern, indem die Scannerkamera 124 derart orientiert wird, dass sie ungefähr senkrecht zum Loch ist. Bei anderen Ausgestaltungen kann ein Scanner derart angeordnet werden, dass die Möglichkeit einer Mehrwegestörung reduziert oder minimiert wird. Eine solche Analyse kann auf einem CAD-Modell basieren, das als Teil der Diagnosemethode zur Verfügung steht, oder sie kann auf Daten basieren, die vom Scanner in einer Anfangsposition erfasst wurden, bevor eine zweite Bewegung des Scanners 20 durch die Vorrichtung 120 erfolgte.
  • Nun Bezug nehmend auf 7, wird der Betrieb des Scanners 20 und der beweglichen Vorrichtung 120 beschrieben. Das Verfahren beginnt bei Block 136 mit dem Abtasten des Objekts 34 mit dem Scanner 20 in der ersten Position. Der Scanner 20 erfasst und ermittelt in Block 138 Koordinatendaten von Punkten auf der Oberfläche 32 des Objekts 34. Es versteht sich, dass die bewegliche Vorrichtung 120 den Scanner 20 bewegen kann, um Daten über Oberflächenpunkte in einem gewünschten Bereich zu erfassen. Es wird im Abfrageblock 140 ermittelt, ob eine Anomalie in den Koordinatendaten bei Punkt 142 wie beispielsweise eine Mehrwegestörung vorliegt oder ob die Richtung verändert werden muss, um eine verbesserte Auflösung oder Messgenauigkeit zu erzielen. Es versteht sich, dass der Punkt 142 von 6 einen einzigen Punkt, eine Linie von Punkten oder einen Bereich der Oberfläche 32 repräsentieren kann. Wenn eine Anomalie oder ein Bedarf an einer verbesserten Genauigkeit erkannt wird, geht das Verfahren mit Block 144 weiter, wo die bewegliche Vorrichtung 120 die Position des Scanners beispielsweise von der ersten zur zweiten Position bewegt und den interessierenden Bereich in Block 146 erneut abtastet, um dreidimensionale Koordinatendaten zu erfassen. Das Verfahren kehrt zum Abfrageblock 140 zurück, wo ermittelt wird, ob immer noch eine Anomalie in den Koordinatendaten vorliegt oder ob eine Verbesserung der Messgenauigkeit gewünscht wird. Der Scanner 20 wird in diesen Fällen wieder bewegt und das Verfahren geht weiter, bis die Messergebnisse ein gewünschtes Niveau erreichen. Sobald die Koordinatendaten erhalten sind, geht das Verfahren vom Abfrageblock 140 zu Block 148 weiter, wo das Abtastverfahren fortgesetzt wird, bis der gewünschte Bereich abgetastet ist.
  • Bei Ausgestaltungen, bei denen der Scanner 20 eine Tastsonde (10) umfasst, kann die Bewegung des Scanners von der ersten zur zweiten Position derart angeordnet werden, dass sie die interessierenden Bereiche mit der Tastsonde berührt. Da die Position des Scanners und somit der Tastsonde aus der Position und Orientierung der Armsegmente 126, 128 ermittelt werden kann, lassen sich die dreidimensionalen Koordinaten des Punkts auf der Oberfläche 32 ermitteln.
  • Bei einigen Ausgestaltungen werden die mit dem Scanner 20 von 8A, 8B erhaltenen Messergebnisse möglicherweise durch eine Mehrwegestörung verfälscht. In anderen Fällen liefern die Messergebnisse unter Umständen nicht die gewünschte Auflösung oder Genauigkeit für die korrekte Messung von einigen Charakteristika der Oberfläche 32 wie beispielsweise Kanten, Löchern oder komplexen Merkmalen. In diesen Fällen ist es möglicherweise erstrebenswert, wenn ein Bediener eine entfernte Sonde 152 benutzt, um Punkte oder Bereiche auf der Oberfläche 32 abzufragen. Der Scanner 20 umfasst bei einer in 8A, 8B dargestellten Ausgestaltung einen Projektor 156 und Kameras 154, 155, die derart in einem Winkel relativ zum Projektor 156 angeordnet sind, dass das vom Projektor 156 emittierte Licht von der Oberfläche 32 reflektiert und von einer oder beiden der Kameras 154, 155 aufgefangen wird. Der Projektor 156 und die Kameras 154, 155 sind derart in feststehender geometrischer Beziehung angeordnet, dass die Prinzipien der Trigonometrie eingesetzt werden können, um die dreidimensionalen Koordinaten von Punkten auf der Oberfläche 32 zu ermitteln.
  • Der Projektor 156 ist bei einer Ausgestaltung dafür konfiguriert, ein sichtbares Licht 157 auf einen interessierenden Bereich 159 auf der Oberfläche 32 des Objekts 34 zu emittieren, wie es in 8A dargestellt ist. Die dreidimensionalen Koordinaten des beleuchteten interessierenden Bereichs 159 können bestätigt werden, indem das Bild des beleuchteten Bereichs 159 einer oder beider Kameras 154, 155 verwendet wird.
  • Der Scanner 20 ist dafür konfiguriert, mit der entfernten Sonde 152 derart zusammenzuwirken, dass ein Bediener eine Sondenspitze 166 mit der Objektoberfläche 132 am beleuchteten interessierenden Bereich 159 in Kontakt bringen kann. Bei einer Ausgestaltung umfasst die entfernte Sonde 152 mindestens drei nicht-kollineare Lichtpunkte 168. Die Lichtpunkte 168 können Lichtpunkte, die beispielsweise durch Leuchtdioden (LEDs) erzeugt werden, oder reflektierende Lichtpunkte, die durch eine Infrarotlichtquelle oder eine sichtbares Licht ausstrahlende Lichtquelle aus dem Projektor 156 oder einer anderen nicht in 8B abgebildeten Lichtquelle beleuchtet werden, sein. Die Infrarotlichtquelle oder die sichtbares Licht ausstrahlende Lichtquelle kann in diesem Fall am Scanner 20 befestigt oder außerhalb des Scanners 20 angeordnet sein. Durch die Ermittlung der dreidimensionalen Koordinaten der Lichtpunkte 168 mit dem Scanner und durch die Verwendung von Informationen über die Geometrie der Sonde 152 kann die Position der Sondenspitze 166 ermittelt werden, wodurch die Ermittlung der Koordinaten der Objektoberfläche 32 ermöglicht wird. Eine auf diese Weise benutzte Tastsonde eliminiert potentielle Probleme wegen einer Mehrwegestörung und ermöglicht auch eine relative genaue Messung von Löchern, Kanten und detaillierten Merkmalen. Die Sonde 166 ist bei einer Ausgestaltung eine Tastsonde, die durch Drücken eines Betätigungsknopfs (nicht dargestellt) auf der Sonde eingeschaltet werden kann, oder die Sonde 166 kann eine Berührungstriggersonde sein, die durch den Kontakt mit der Oberfläche 32 eingeschaltet wird. Als Reaktion auf ein von dem Betätigungsknopf oder der Berührungstriggersonde erzeugtes Signal überträgt eine Kommunikationsschaltung (nicht dargestellt) ein Signal an den Scanner 20. Die Lichtpunkte 168 sind bei einer Ausgestaltung durch geometrische Lichtmuster ersetzt, die Linien oder Kurven umfassen können.
  • Nun Bezug nehmend auf 9, ist dort ein Verfahren zur Erfassung von Koordinatendaten für Punkte auf der Oberfläche 32 des Objekts 34 unter Einsatz eines feststehenden Scanners 20 von 8A, 8B mit einer entfernten Sonde 152 dargestellt. Das Verfahren beginnt bei Block 170 mit dem Abtasten der Oberfläche 32 des Objekts 34. Das Verfahren erfasst und ermittelt in Block 172 die dreidimensionalen Koordinatendaten der Oberfläche 32. Das Verfahren ermittelt dann im Abfrageblock 174, ob eine Anomalie in den Koordinatendaten des Bereichs 159 vorliegt oder ob es ein Problem bei der Genauigkeit oder Auflösung des Bereichs 159 gibt. Eine Anomalie könnten ungültige Daten sein, die beispielsweise wegen einer Mehrwegestörung verworfen werden. Eine Anomalie könnten auch fehlende Daten wegen des Reflexionsgrads der Oberfläche oder einer mangelhaften Auflösung rings um ein Merkmal wie beispielsweise eine Öffnung oder ein Loch sein. Einzelheiten über eine Diagnosemethode zur Erfassung (Identifizierung) einer Mehrwegestörung und damit zusammenhängende Probleme werden anhand von 12 angegeben.
  • Sobald der Bereich 159 identifiziert wurde, zeigt der Scanner 20 in Block 176 dem Bediener an, dass die Koordinatendaten des Bereichs 159 über die entfernte Sonde 152 erfasst werden können. Dieser Bereich 159 kann durch Emittieren eines sichtbaren Lichts 157 zum Beleuchten des Bereichs 159 angezeigt werden. Bei einer Ausgestaltung wird das Licht 157 vom Projektor 156 emittiert. Die Farbe des Lichts 157 kann verändert werden, um den Bediener über die Art der Anomalie oder des Problems zu informieren. Wenn beispielsweise eine Mehrwegestörung auftritt, kann das Licht 157 rotfarbig sein, während es bei einer niedrigen Auflösung grünfarbig sein kann. Der Bereich kann des Weiteren auf einer Anzeigevorrichtung angezeigt werden, die eine grafische Darstellung (z. B. ein CAD-Modell) des Objekts aufweist.
  • Das Verfahren geht dann mit Block 178 weiter, um ein Bild der entfernten Sonde 152 aufzunehmen, wenn der Sensor 166 die Oberfläche 32 berührt. Die Lichtpunkte 168, die zum Beispiel LEDs oder reflektierende Ziele sein können, werden von einer der Kameras 154, 155 aufgefangen. Mittels Best-Fit-Verfahren, die dem Mathematiker weithin bekannt sind, ermittelt der Scanner 20 in Block 180 die dreidimensionalen Koordinaten der Sondenmitte, von welcher aus dreidimensionale Koordinaten der Objektoberfläche 32 in Block 180 ermittelt werden. Sobald die Punkte im Bereich 159, wo die Anomalie erkannt wurde, erfasst sind, kann das Verfahren in Block 182 mit der Abtastung des Objekts 34 fortfahren, bis die gewünschten Bereiche abgetastet sind.
  • Nun Bezug nehmend auf 10, ist dort eine andere Ausgestaltung des Scanners 20 dargestellt, der während des Betriebs vom Bediener in der Hand gehalten werden kann. Das Gehäuse 22 kann bei dieser Ausgestaltung einen Griff 186 umfassen, der dem Bediener das Halten des Scanners 20 während des Betriebs gestattet. Das Gehäuse 22 umfasst einen Projektor 188 und eine Kamera 190, die derart in einem Winkel relativ zueinander angeordnet sind, dass das vom Projektor emittierte Licht 192 von der Oberfläche 32 reflektiert und von der Kamera 190 aufgefangen wird. Der Scanner 20 von 10 wird in einer Weise betrieben, die im Wesentlichen den Ausgestaltungen von 1 und 3 ähnelt, und erfasst mittels der Prinzipien der Trigonometrie dreidimensionale Koordinatendaten von Punkten auf der Oberfläche 32.
  • Der Scanner 20 umfasst ferner ein integriertes Sondenelement 184. Das Sondenelement 184 umfasst einen Sensor 194 an einem Ende. Der Sensor 194 ist beispielsweise eine Tastsonde, die auf das Drücken eines Betätigungsknopfs (nicht dargestellt) durch einen Bediener ansprechen kann, oder er kann eine Berührungstriggersonde sein, die auf den Kontakt mit der Oberfläche 32 anspricht. Wie nachfolgend ausführlicher besprochen wird, ermöglicht das Sondenelement 184 dem Bediener die Erfassung der Koordinaten von Punkten auf der Oberfläche 32, indem der Sensor 194 die Oberfläche 32 berührt.
  • Der Projektor 188, die Kamera 190 und eine Betätigungsschaltung für den Sensor 194 sind elektrisch an eine Steuervorrichtung 50 gekoppelt, die im Gehäuse 22 angeordnet ist. Die Steuervorrichtung 50 kann einen oder mehrere Mikroprozessoren, digitale Signalprozessoren, Speicher- und Signalkonditionierschaltungen umfassen. Der Scanner 20 kann ferner Aktoren (nicht dargestellt) wie beispielsweise den Griff 186 umfassen, die vom Bediener manuell eingeschaltet werden können, um den Betrieb und die Datenerfassung durch den Scanner 20 zu beginnen. Bei einer Ausgestaltung wird die Bildverarbeitung zur Ermittlung der x-, y-, z-Koordinatendaten der die Oberfläche 32 des Objekts 34 repräsentierenden Punktwolke durch die Steuervorrichtung 50 durchgeführt. Die Koordinatendaten können lokal wie beispielsweise in einem flüchtigen oder nichtflüchtigen Speicher 54 gespeichert werden. Der Speicher kann entfernbar sein, also beispielsweise ein Speicherstick oder eine Speicherkarte. Der Scanner 20 hat bei anderen Ausgestaltungen eine Kommunikationsschaltung 52, die es ihm ermöglicht, die Koordinatendaten an ein entferntes Verarbeitungssystem 56 zu übertragen. Das Kommunikationsmedium 58 zwischen dem Scanner 20 und dem entfernten Verarbeitungssystem 56 kann drahtgebunden (z. B. Ethernet) oder drahtlos (z. B. Bluetooth, IEEE 802.11) sein. Bei einer Ausgestaltung werden die Koordinatendaten durch das entfernte Verarbeitungssystem 56 ermittelt und überträgt der Scanner 20 aufgenommene Bilder über das Kommunikationsmedium 58.
  • Nun Bezug nehmend auf 11, wird der Betrieb des Scanners 20 von 10 beschrieben. Das Verfahren beginnt bei Block 196 damit, dass der Bediener die Oberfläche 32 des Objekts 34 abtastet, indem er den Scanner 20 manuell bewegt. Die dreidimensionalen Koordinaten werden in Block 198 ermittelt und erfasst. Im Anfrageblock 200 wird ermittelt, ob eine Anomalie in den Koordinatendaten vorhanden ist oder ob eine verbesserte Genauigkeit benötigt wird. Wie oben besprochen, können Anomalien aus mehreren Gründen wie beispielsweise einer Mehrwegestörung oder einer niedrigen Auflösung eines Merkmals auftreten. Wenn eine Anomalie vorliegt, geht das Verfahren mit Block 202 weiter, wo dem Bediener der Bereich 204 angezeigt wird. Der Bereich 204 kann durch Projizieren eines sichtbaren Lichts 192 mit dem Projektor 188 auf die Oberfläche 32 angezeigt werden. Das Licht 192 ist bei einer Ausgestaltung farbig, um dem Bediener die Art der erkannten Anomalie zu melden.
  • Der Bediener fährt dann in Block 206 damit fort, den Scanner von einer ersten Position zu einer zweiten Position zu bewegen (durch die gestrichelten Linien angezeigt). In der zweiten Position berührt der Sensor 194 die Oberfläche 32. Die Position und die Orientierung (bis 6 Freiheitsgrade) des Scanners 20 in der zweiten Position können unter Einsatz von weithin bekannten Best-Fit-Verfahren auf Basis von Bildern ermittelt werden, die von der Kamera 190 aufgenommen wurden. Da die Abmessungen und die Anordnung des Sensors 194 bezogen auf die mechanische Struktur des Scanners 20 bekannt sind, können in Block 208 die dreidimensionalen Koordinatendaten der Punkte im Bereich 204 ermittelt werden. Das Verfahren geht dann mit Block 210 weiter, wo die Abtastung des Objekts fortgesetzt wird. Das Abtastverfahren geht weiter, bis der gewünschte Bereich abgetastet ist.
  • Ein allgemeiner Ansatz kann zur Auswertung nicht nur einer Mehrwegestörung, sondern auch der allgemeinen Qualität, die die Auflösung und die Wirkung der Materialart, die Oberflächengüte und die Geometrie umfasst, benutzt werden. Auch Bezug nehmend auf 12, kann ein Verfahren 4600 bei einer Ausgestaltung automatisch unter der Steuerung eines Computers durchgeführt werden. Ein Schritt 4602 besteht darin, zu ermitteln, ob Informationen über dreidimensionale Koordinaten eines Prüfobjekts zur Verfügung stehen. Ein erster Typ einer dreidimensionalen Information sind CAD-Daten. CAD-Daten zeigen normalerweise die Nennmaße eines Prüfobjekts an. Ein zweiter Typ einer dreidimensionalen Information sind gemessene dreidimensionale Daten – zum Beispiel Daten, die vorher mit einem Scanner oder einer anderen Vorrichtung gemessen wurden. Der Schritt 4602 kann in einigen Fällen einen weiteren Schritt der Ausrichtung des Bezugssystems des Koordinatenmessgeräts – beispielsweise eines Lasertrackers oder eines Scanner-Zusatzteils mit 6 Freiheitsgraden – auf das Bezugssystem des Objekts umfassen. Dies erfolgt bei einer Ausgestaltung durch Messen von mindestens drei Punkten auf der Oberfläche des Objekts mit dem Lasertracker.
  • Wenn die Antwort auf die in Schritt 4602 gestellte Frage lautet, dass die dreidimensionale Information zur Verfügung steht, wird dann in einem Schritt 4604 der Computer oder Prozessor benutzt, um die Anfälligkeit der Objektmessung für eine Mehrwegestörung zu berechnen. Bei einer Ausgestaltung wird dies durchgeführt, indem jeder vom Scannerprojektor emittierte Lichtstrahl projiziert und der Winkel oder die Reflexion für jeden Fall berechnet wird. Der Computer oder die Software identifiziert jeden Bereich der Objektoberfläche, der infolge einer Mehrwegestörung fehleranfällig ist. In Schritt 4604 kann man auch eine Analyse der Anfälligkeit für einen Mehrwegefehler bei verschiedenen Positionen der 6 Freiheitsgrade aufweisenden Sonde relativ zum Prüfobjekt durchführen. In einigen Fällen kann eine Mehrwegestörung vermieden oder minimiert werden, indem man eine geeignete Position und Orientierung der 6 Freiheitsgrade aufweisenden Sonde relativ zum Prüfobjekt wie oben beschrieben auswählt. Wenn die Antwort auf die in Schritt 4602 gestellte Frage lautet, dass die dreidimensionale Information nicht zur Verfügung steht, besteht dann ein Schritt 4606 darin, die dreidimensionalen Koordinaten der Objektoberfläche mit irgendeinem gewünschten oder bevorzugten Messverfahren zu messen. Im Anschluss an die Berechnung der Mehrwegestörung kann ein Schritt 4608 durchgeführt werden, um andere Aspekte der erwarteten Abtastungsqualität auszuwerten. Ein solcher Qualitätsfaktor liegt darin begründet, ob die Auflösung der Abtastung für die Merkmale des Prüfobjekts ausreicht. Wenn die Auflösung einer Vorrichtung beispielsweise 3 mm beträgt und es Merkmale im Submillimeterbereich gibt, für die gültige Abtastungsdaten gewünscht werden, sollten diese Problembereiche des Objekts dann für eine spätere Korrekturmaßnahme aufgezeichnet werden. Ein anderer Qualitätsfaktor, der teilweise mit der Auflösung verwandt ist, ist die Fähigkeit zur Messung von Kanten des Objekts und Kanten von Löchern. Ist die Scannerleistung bekannt, lässt sich ermitteln, ob die Scannerauflösung für bestimmte Kanten gut genug ist. Ein weiterer Qualitätsfaktor ist die erwartete Lichtmenge, die von einem bestimmten Merkmal zurückkehrt. Man kann beispielsweise erwarten, dass wenig Licht (wenn überhaupt) aus dem Innern eines kleinen Lochs oder von einem Glanzwinkel zum Scanner zurückkehrt. Wenig Licht kann man auch von bestimmten Arten und Farben von Materialien erwarten. Bestimmte Materialarten haben eine große Eindringtiefe für das Licht des Scanners, und in diesem Fall würden keine guten Messergebnisse erwartet. In manchen Fällen kann ein automatisches Programm ergänzende Informationen vom Benutzer anfordern. Wenn ein Computerprogramm beispielsweise die Schritte 4604 und 4608 auf Basis von CAD-Daten durchführt, kennt es möglicherweise nicht die benutzte Materialart oder die Oberflächenkennwerte des Prüfobjekts. In diesen Fällen kann der Schritt 4608 einen weiteren Schritt zum Erhalten von Materialkennwerten für das Prüfobjekt umfassen.
  • Im Anschluss an die Analyse der Schritte 4604 und 4608 besteht der Schritt 4610 darin, zu entscheiden, ob weitere Diagnosemethoden durchgeführt werden sollten. Ein erstes Beispiel für eine mögliche Diagnosemethode ist der Schritt 4612 zum Projizieren eines Streifens in einem bevorzugten Winkel, um festzustellen, ob eine Mehrwegestörung beobachtet wird. Die allgemeinen Anzeigen einer Mehrwegestörung für einen projizierten Linienstreifen wurden oben anhand von 5 besprochen. Ein anderes Beispiel für einen Diagnoseschritt ist der Schritt 4614, der darin besteht, eine Sammlung von in Richtung von Epipolarlinien ausgerichteten Linien auf das Quelllichtmuster zu projizieren, also beispielsweise das Quellmuster des Lichts 30 des Projektors 36 von 1. Für den Fall, in dem Lichtlinien im Quelllichtmuster auf die Epilolarlinien ausgerichtet sind, erscheinen diese Linien dann auch als gerade Linien in der Bildebene auf der photosensitiven Anordnung. Die Verwendung von Epipolarlinien wird detaillierter in der am 11. April 2012 eingereichten US-Patentanmeldung, Aktenzeichen Nr. 13/443,946, des gleichen Inhabers besprochen. Wenn diese Muster auf der photosensitiven Anordnung keine geraden Linien sind oder wenn die Linien unscharf oder verrauscht sind, wird dann ein Problem angezeigt, und zwar eventuell als Ergebnis einer Mehrwegestörung.
  • Der Schritt 4616 besteht darin, eine Kombination aus bevorzugten Maßnahmen auf Basis der durchgeführten Analysen und der durchgeführten Diagnosemethode auszuwählen. Wenn die Geschwindigkeit bei einer Messung besonders wichtig ist, kann man einen Schritt 4618 zum Messen mit einem (strukturierten) 2D-Muster kodierten Lichts bevorzugen. Wenn eine größere Genauigkeit wichtiger ist, kann man dann einen Schritt 4620 zum Messen mit einem (strukturierten) 2D-Muster kodierten Lichts mittels aufeinanderfolgender Muster, also beispielsweise einer Sequenz von Sinusmustern mit variierender Phase und variierendem Abstand, bevorzugen. Wenn das Verfahren 4618 oder 4620 ausgewählt wird, sollte dann möglicherweise auch ein Schritt 4628 ausgewählt werden, der darin besteht, den Scanner neu zu positionieren, d. h. die Position und Orientierung des Scanners auf die Position einzustellen, die Mehrwegestörungen und gerichtete Reflexionen (Glitzern) minimiert, die durch die Analyse in Schritt 4604 bereitgestellt wurden. Solche Anzeigen können einem Benutzer zur Verfügung gestellt werden, indem Problembereiche mit Licht des Scannerprojektors beleuchtet werden oder solche Bereiche auf einer Monitoranzeige angezeigt werden. Alternativ dazu können die nächsten Schritte im Messverfahren automatisch von einem Computer oder Prozessor ausgewählt werden. Es stehen mehrere Optionen zur Verfügung, wenn die bevorzugte Scannerposition eine Mehrwegestörung und Glitzern nicht eliminiert. Die Messung kann in einigen Fällen wiederholt werden, wobei der Scanner neu positioniert wird und die gültigen Messergebnisse kombiniert werden. In anderen Fällen können alternative Messschritte dem Verfahren hinzugefügt oder statt der Verwendung strukturierten Lichts durchgeführt werden. Wie vorher erörtert wurde, stellt ein Schritt 4622 zum Abtasten eines Lichtstreifens einen zweckmäßigen Weg zum Erhalten von Informationen über einen Bereich zur Verfügung, wobei die Möglichkeit geringer ist, dass ein Problem wegen einer Mehrwegestörung auftritt. Ein Schritt 4624 zum Hin- und Herbewegen eines kleinen Lichtpunkts über einen interessierenden Bereich reduziert außerdem die Möglichkeit von durch eine Mehrwegestörung bedingten Problemen. Ein Schritt zum Messen eines Bereichs einer Objektoberfläche mit einer Tastsonde eliminiert die Möglichkeit einer Mehrwegestörung. Eine Tastsonde stellt eine bekannte Auflösung auf Basis der Größe der Sondenspitze bereit und eliminiert Probleme mit niedrigem Lichtreflexionsgrad und großer optischer Eindringtiefe, die bei einigen Prüfobjekten vorkommen könnten.
  • In den meisten Fällen kann die Qualität der in einer Kombination der Schritte 46184628 erfassten Daten in einem Schritt 4630 auf Basis der aus den Messungen erhaltenen Daten in Kombination mit den Ergebnissen der vorher durchgeführten Analysen ausgewertet werden. Wenn sich in einem Schritt 4632 die Qualität als akzeptabel erweist, wird die Messung in einem Schritt 4634 beendet. Andernfalls wird die Analyse im Schritt 4604 fortgesetzt. Eventuell waren die 3D-Informationen in einigen Fällen nicht so genau wie gewünscht. In diesem Fall könnte eine Wiederholung einiger der früheren Schritte hilfreich sein.
  • Obwohl die Erfindung ausführlich in Verbindung mit nur einer begrenzten Anzahl von Ausgestaltungen beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf solche offenbarte Ausgestaltungen beschränkt ist. Statt dessen kann die Erfindung derart modifiziert werden, dass sie eine beliebige Anzahl von Abweichungen, Änderungen, Ersetzungen oder äquivalenten Anordnungen einbezieht, die bisher nicht beschrieben wurden, aber dem Gedanken und Schutzbereich der Erfindung entsprechen. Obwohl verschiedene Ausgestaltungen der Erfindung beschrieben wurden, versteht sich ferner, dass Aspekte der Erfindung nur einige der beschriebenen Ausgestaltungen einschließen können. Die Erfindung ist demgemäß nicht als durch die vorangehende Beschreibung eingeschränkt zu verstehen und ist lediglich durch den Schutzbereich der beigefügten Ansprüche eingeschränkt.

Claims (26)

  1. Kontaktloses optisches dreidimensionales Messgerät umfassend: eine Baugruppe, die einen Projektor, eine erste Kamera und eine zweite Kamera umfasst, wobei der Projektor, die erste Kamera und die zweite Kamera zueinander feststehend sind, wobei ein erster Abstand zwischen dem Projektor und der ersten Kamera und ein zweiter Abstand zwischen dem Projektor und der zweiten Kamera bestehen, wobei der Projektor eine Lichtquelle aufweist, wobei der Projektor dafür konfiguriert ist, auf eine Oberfläche eines Objekts ein erstes Licht mit irgendeinem einer Vielzahl von Mustern zu emittieren, wobei die erste Kamera eine erste Linse und eine erste photosensitive Anordnung aufweist, wobei die erste Kamera dafür konfiguriert ist, einen ersten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen und als Reaktion ein erstes digitales Signal zu erzeugen, wobei die erste Kamera ein erstes Sichtfeld aufweist, wobei das erste Sichtfeld ein erster Sichtwinkelbereich der ersten Kamera ist, wobei die zweite Kamera eine zweite Linse und eine zweite photosensitive Anordnung aufweist, wobei die zweite Kamera dafür konfiguriert ist, einen zweiten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen und als Reaktion ein zweites digitales Signal zu erzeugen, wobei die zweite Kamera ein zweites Sichtfeld aufweist, wobei das zweite Sichtfeld ein zweiter Sichtwinkelbereich der zweiten Kamera ist, wobei das zweite Sichtfeld vom ersten Sichtfeld verschieden ist; und einen elektrisch an den Projektor, die erste Kamera und die zweite Kamera gekoppelten Prozessor, der einen computerausführbaren Programmcode ausführt, der, wenn er durch den Prozessor ausgeführt wird, Rechenvorgänge durchführt, die das Bewirken der Erfassung des ersten digitalen Signals an einem ersten Zeitpunkt und der Erfassung des zweiten digitalen Signals an einem vom ersten Zeitpunkt verschiedenen zweiten Zeitpunkt, das Ermitteln dreidimensionaler Koordinaten eines ersten Punkts auf der Oberfläche basierend zumindest teilweise auf dem ersten digitalen Signal und dem ersten Abstand und das Ermitteln dreidimensionaler Koordinaten eines zweiten Punkts auf der Oberfläche basierend zumindest teilweise auf dem zweiten digitalen Signal und dem zweiten Abstand umfassen.
  2. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 1, wobei der computerausführbare Programmcode bewirkt, dass der Projektor das erste Licht mit einem ersten Muster aus der Vielzahl von Mustern erzeugt und die erste Kamera als Reaktion das erste digitale Signal erzeugt, und ferner bewirkt, dass der Projektor das erste Licht mit einem zweiten Muster aus der Vielzahl von Mustern erzeugt und die zweite Kamera als Reaktion das zweite digitale Signal erzeugt.
  3. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 2, wobei das erste Muster ein räumlich variierendes Muster ist.
  4. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 3, wobei das erste Muster mindestens drei nicht-kollineare Musterelemente umfasst.
  5. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 4, wobei das zweite Muster ein räumlich variierendes Muster ist, das mindestens drei nicht-kollineare Musterelemente umfasst.
  6. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 5, wobei das zweite Muster ein Linienmuster ist, wobei die Linie in einer im Wesentlichen senkrecht zur Ausbreitung des ersten Lichts verlaufenden Richtung vorliegt.
  7. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 6, wobei das zweite Muster ein Linienmuster ist, das im Zeitverlauf hin- und herbewegt wird.
  8. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 6, wobei das zweite Muster ein Lichtpunkt ist, der im Zeitverlauf hin- und herbewegt wird.
  9. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 1, wobei das erste Sichtfeld mindestens zweimal so groß wie das zweite Sichtfeld ist.
  10. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 1, wobei die erste photosensitive Anordnung ein erstes Pixel umfasst, wobei das erste Pixel dafür konfiguriert ist, ein von einem ersten Bereich der Oberfläche reflektiertes Licht zu erfassen, wobei die zweite photosensitive Anordnung ein zweites Pixel umfasst, wobei das zweite Pixel dafür konfiguriert ist, ein von einem zweiten Bereich der Oberfläche reflektiertes Licht zu erfassen, wobei der zweite Bereich kleiner als der erste Bereich ist.
  11. Kontaktloses optisches dreidimensionales Messgerät nach Anspruch 4, wobei das erste Muster ein zeitlich variierendes Muster ist.
  12. Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts, wobei das Verfahren Folgendes umfasst: Bereitstellen einer Baugruppe, die einen Projektor, eine erste Kamera und eine zweite Kamera umfasst, wobei der Projektor, die erste Kamera und die zweite Kamera zueinander feststehend sind, wobei ein erster Abstand zwischen dem Projektor und der ersten Kamera und ein zweiter Abstand zwischen dem Projektor und der zweiten Kamera bestehen, wobei der Projektor eine Lichtquelle aufweist, wobei der Projektor dafür konfiguriert ist, auf die Oberfläche ein erstes Licht mit irgendeinem einer Vielzahl von Mustern zu emittieren, wobei die erste Kamera eine erste Linse und eine erste photosensitive Anordnung aufweist, wobei die erste Kamera dafür konfiguriert ist, einen ersten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen, wobei die erste Kamera ein erstes Sichtfeld aufweist, wobei das erste Sichtfeld ein erster Sichtwinkelbereich der ersten Kamera ist, wobei die zweite Kamera eine zweite Linse und eine zweite photosensitive Anordnung aufweist, wobei die zweite Kamera dafür konfiguriert ist, einen zweiten Teil des von der Oberfläche reflektierten ersten Lichts aufzufangen, wobei die zweite Kamera ein zweites Sichtfeld aufweist, wobei das zweite Sichtfeld ein zweiter Sichtwinkelbereich der zweiten Kamera ist, wobei das zweite Sichtfeld vom ersten Sichtfeld verschieden ist; Bereitstellen eines elektrisch an den Projektor, die erste Kamera und die zweite Kamera gekoppelten Prozessors; Emittieren des ersten Lichts mit einem aus der Vielzahl von Mustern ausgewählten ersten Muster in einem ersten Vorgang aus dem Projektor auf die Oberfläche; Aufnehmen eines ersten Bilds der Oberfläche mit der ersten Kamera im ersten Vorgang und als Reaktion Senden eines ersten digitalen Signals an den Prozessor; Ermitteln eines ersten Satzes dreidimensionaler Koordinaten erster Punkte auf der Oberfläche, wobei der erste Satz zumindest teilweise auf dem ersten Muster, dem ersten digitalen Signal und dem ersten Abstand basiert; Durchführen einer Diagnosemethode, die einen Qualitätsfaktor für den ersten Satz ermittelt; Ermitteln eines aus der Vielzahl von Mustern ausgewählten zweiten Musters des ersten Lichts, wobei das zweite Muster zumindest teilweise auf Ergebnissen der Diagnosemethode basiert; Emittieren des ersten Lichts mit dem zweiten Muster in einem zweiten Vorgang aus dem Projektor auf die Oberfläche; Aufnehmen eines zweiten Bilds der Oberfläche mit der zweiten Kamera im zweiten Vorgang und als Reaktion Senden eines zweiten digitalen Signals an den Prozessor; und Ermitteln eines zweiten Satzes dreidimensionaler Koordinaten zweiter Punkte auf der Oberfläche, wobei der zweite Satz zumindest teilweise auf dem zweiten Muster, dem zweiten digitalen Signal und dem zweiten Abstand basiert.
  13. Verfahren nach Anspruch 12, wobei der Schritt zum Emittieren des ersten Lichts in einem zweiten Vorgang aus dem Projektor einen vorangehenden Schritt zum Bewegen der Baugruppe von einer ersten Position zu einer zweiten Position umfasst.
  14. Verfahren nach Anspruch 13, wobei der Schritt zum Bewegen der Baugruppe das Anleiten des Bedieners zum Bewegen der Baugruppe zur zweiten Position durch Einschalten von Anzeigeleuchten auf der Baugruppe umfasst.
  15. Verfahren nach Anspruch 13, wobei der Schritt zum Bewegen der Baugruppe das Projizieren eines Lichts auf das Objekt umfasst, um eine Richtung der Bewegung zur zweiten Position anzuzeigen.
  16. Verfahren nach Anspruch 13, wobei der Schritt zum Bewegen der Baugruppe das Anzeigen eines Teils des abzutastenden Objekts in einer grafischen Darstellung auf einer Anzeigevorrichtung umfasst.
  17. Verfahren nach Anspruch 12, wobei der Schritt zum Durchführen der Diagnosemethode, die den Qualitätsfaktor für den ersten Satz ermittelt, den Qualitätsfaktor basierend zumindest teilweise auf dem Ermitteln, ob eine Mehrwegestörung vorhanden ist, umfasst.
  18. Verfahren nach Anspruch 17, wobei der Schritt zum Durchführen der Diagnosemethode, die den Qualitätsfaktor für den ersten Satz ermittelt, Folgendes umfasst: Bereitstellen eines computergestützten Zeichenmodells (CAD-Modells) des Objekts; Überprüfen, auf Basis des CAD-Modells, des Vorhandenseins der Mehrwegestörung durch Feststellen, dass Lichtstrahlen des Projektors von einem ersten Oberflächenpunkt des Objekts auf einen zweiten Oberflächenpunkt des Objekts reflektiert werden, wobei der zweite Oberflächenpunkt ein von der ersten Kamera bildlich erfasster Punkt ist; und Ermitteln des Qualitätsfaktors basierend zumindest teilweise auf der Überprüfung des Vorhandenseins einer Mehrwegestörung.
  19. Verfahren nach Anspruch 18, wobei in dem Schritt zum Emittieren des ersten Lichts in einem zweiten Vorgang aus dem Projektor auf die Oberfläche das erste Licht mit dem zweiten Muster in Form einer Linie oder eines Punkts vorliegt.
  20. Verfahren nach Anspruch 19, wobei in dem Schritt zum Emittieren des ersten Lichts im zweiten Vorgang das Muster des ersten Lichts in Form einer Linie, die im Zeitverlauf hin- und herbewegt wird, oder eines Punkts, der im Zeitverlauf hin- und herbewegt wird, vorliegt, wobei die Lichtlinie entlang einer im Wesentlichen senkrecht zu einer Richtung der Ausbreitung des ersten Lichts verlaufenden Richtung vorliegt.
  21. Verfahren nach Anspruch 17: ferner umfassend einen Schritt zum Erhalten einer Vielzahl dreidimensionaler Koordinaten der Oberfläche des Objekts durch Abtasten zumindest eines Abschnitts der Oberfläche; in dem Schritt zum Ermitteln, ob zusätzliche Messungen erforderlich sind, ferner umfassend das Überprüfen, basierend auf der erhaltenen Vielzahl dreidimensionaler Koordinaten, der Wahrscheinlichkeit einer Mehrwegestörung durch Feststellen, dass Lichtstrahlen des Projektors von einem ersten Oberflächenpunkt des Objekts auf einen zweiten Oberflächenpunkt des Objekts reflektiert werden, wobei der zweite Oberflächenpunkt ein von der ersten Kamera bildlich erfasster Punkt ist, und das Ermitteln des Qualitätsfaktors basierend zumindest teilweise auf dem Vorhandensein einer Mehrwegestörung.
  22. Verfahren nach Anspruch 21, wobei in dem Schritt zum Emittieren des ersten Lichts in einem zweiten Vorgang das räumlich variierende Muster des ersten Lichts in Form einer Linie oder eines Punkts vorliegt, wobei die Linie entlang einer im Wesentlichen senkrecht zu einer Richtung der Ausbreitung des ersten Lichts verlaufenden Richtung vorliegt.
  23. Verfahren nach Anspruch 22, wobei in dem Schritt zum Emittieren des ersten Lichts mit dem zweiten Muster in einem zweiten Vorgang aus dem Projektor auf die Oberfläche das zweite Muster in Form der Linie, die im Zeitverlauf hin- und herbewegt wird, oder des Punkts, der im Zeitverlauf hin- und herbewegt wird, vorliegt.
  24. Verfahren nach Anspruch 12, wobei in dem Schritt zum Durchführen einer Diagnosemethode, die einen Qualitätsfaktor für den ersten Satz ermittelt, Folgendes umfasst ist: Ermitteln einer Auflösung des aus dem ersten Bild erhaltenen ersten Satzes dreidimensionaler Koordinaten; und Ermitteln des Qualitätsfaktors ferner basierend zumindest teilweise auf der Auflösung.
  25. Verfahren nach Anspruch 12, wobei das zweite Muster ein zeitlich variierendes Muster ist.
  26. Verfahren nach Anspruch 17, wobei der Schritt zum Ermitteln, ob eine Mehrwegestörung vorhanden ist, das Feststellen, dass diese Mehrwegestörung vorhanden ist, umfasst.
DE112014001459.1T 2013-03-15 2014-03-05 Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts Expired - Fee Related DE112014001459B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361791797P 2013-03-15 2013-03-15
US61/791,797 2013-03-15
US13/920,673 2013-06-18
US13/920,673 US9041914B2 (en) 2013-03-15 2013-06-18 Three-dimensional coordinate scanner and method of operation
PCT/US2014/020480 WO2014149701A1 (en) 2013-03-15 2014-03-05 Three-dimensional coordinate scanner and method of operation

Publications (2)

Publication Number Publication Date
DE112014001459T5 true DE112014001459T5 (de) 2015-12-24
DE112014001459B4 DE112014001459B4 (de) 2019-10-17

Family

ID=51525602

Family Applications (3)

Application Number Title Priority Date Filing Date
DE112014001470.2T Withdrawn DE112014001470T5 (de) 2013-03-15 2014-03-05 Diagnostizierung einer Mehrwegestörung und Entfernung einer Mehrwegestörung bei 3D-Scannern durch angeleitete Sondenuntersuchung
DE112014001459.1T Expired - Fee Related DE112014001459B4 (de) 2013-03-15 2014-03-05 Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
DE112014001391.9T Withdrawn DE112014001391T5 (de) 2013-03-15 2014-03-14 Dreidimensionaler Koordinatenscanner und Betriebsverfahren

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112014001470.2T Withdrawn DE112014001470T5 (de) 2013-03-15 2014-03-05 Diagnostizierung einer Mehrwegestörung und Entfernung einer Mehrwegestörung bei 3D-Scannern durch angeleitete Sondenuntersuchung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112014001391.9T Withdrawn DE112014001391T5 (de) 2013-03-15 2014-03-14 Dreidimensionaler Koordinatenscanner und Betriebsverfahren

Country Status (6)

Country Link
US (7) US9041914B2 (de)
JP (3) JP2016516993A (de)
CN (3) CN105051488A (de)
DE (3) DE112014001470T5 (de)
GB (3) GB2524931C (de)
WO (5) WO2014149705A1 (de)

Families Citing this family (194)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2208354A4 (de) 2007-10-10 2010-12-22 Gerard Dirk Smits Bildprojektor mit verfolgung von reflektiertem licht
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP2625845B1 (de) 2010-10-04 2021-03-03 Gerard Dirk Smits System und verfahren zur 3d-projektion und erweiterungen davon für interaktivität
IL208568B (en) * 2010-10-07 2018-06-28 Elbit Systems Ltd Mapping, discovering and tracking objects in an external arena by using active vision
GB2511236B (en) 2011-03-03 2015-01-28 Faro Tech Inc Target apparatus and method
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
GB2504890A (en) 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
CN104094081A (zh) 2012-01-27 2014-10-08 法罗技术股份有限公司 利用条形码识别的检查方法
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8971568B1 (en) 2012-10-08 2015-03-03 Gerard Dirk Smits Method, apparatus, and manufacture for document writing and annotation with virtual ink
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
DE102012112321B4 (de) 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9188430B2 (en) * 2013-03-14 2015-11-17 Faro Technologies, Inc. Compensation of a structured light scanner that is tracked in six degrees-of-freedom
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
JP6170385B2 (ja) * 2013-09-09 2017-07-26 キヤノン株式会社 測定装置、測定方法および物品の製造方法
US9594250B2 (en) 2013-12-18 2017-03-14 Hexagon Metrology, Inc. Ultra-portable coordinate measurement machine
DE102013114707A1 (de) * 2013-12-20 2015-06-25 EXTEND3D GmbH Verfahren zur Durchführung und Kontrolle eines Bearbeitungsschritts an einem Werkstück
WO2015102288A1 (ko) * 2013-12-31 2015-07-09 주식회사 루멘스 다중 위치 감지 장치
JP6468802B2 (ja) * 2014-01-20 2019-02-13 キヤノン株式会社 三次元計測装置、三次元計測方法及びプログラム
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP2015169624A (ja) * 2014-03-10 2015-09-28 キヤノン株式会社 計測装置、計測方法及び物品の製造方法
WO2015148604A1 (en) 2014-03-25 2015-10-01 Massachusetts Institute Of Technology Space-time modulated active 3d imager
US9810913B2 (en) 2014-03-28 2017-11-07 Gerard Dirk Smits Smart head-mounted projection system
GB201407270D0 (en) * 2014-04-24 2014-06-11 Cathx Res Ltd 3D data in underwater surveys
DE102014007908A1 (de) * 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Chirurgie-System
US10021379B2 (en) * 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
US9402070B2 (en) * 2014-06-12 2016-07-26 Faro Technologies, Inc. Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality
WO2015189985A1 (ja) * 2014-06-13 2015-12-17 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US9377533B2 (en) * 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US9903950B2 (en) * 2014-08-27 2018-02-27 Leica Geosystems Ag Multi-camera laser scanner
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US9602811B2 (en) * 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
CN107076551B (zh) 2014-09-19 2021-02-02 海克斯康测量技术有限公司 多模式便携式坐标测量机
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9557166B2 (en) * 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
KR102062840B1 (ko) * 2014-10-31 2020-02-11 삼성전자주식회사 양안 시차를 이용한 물체 위치 검출 장치 및 그 장치의 동작 방법
CN104392488A (zh) * 2014-12-11 2015-03-04 福州大学 针对激光扫描仪与三坐标测量臂的点云数据自动配准方法
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
JP6602867B2 (ja) * 2014-12-22 2019-11-06 サイバーオプティクス コーポレーション 三次元計測システムの校正を更新する方法
JP6507653B2 (ja) * 2015-01-13 2019-05-08 オムロン株式会社 検査装置及び検査装置の制御方法
JP6590489B2 (ja) * 2015-03-03 2019-10-16 キヤノン株式会社 情報処理装置および方法
US9354318B1 (en) 2015-03-05 2016-05-31 Horizon Hobby, LLC Optical spread spectrum detection and ranging
DE102015204474B4 (de) * 2015-03-12 2016-10-13 Hans-Günter Vosseler Vorrichtung und Verfahren zum berührungslosen dreidimensionalen Vermessen von Bauteilen
USD754130S1 (en) * 2015-03-19 2016-04-19 Faro Technologies, Inc. Optical scanner
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US9964402B2 (en) * 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US9989630B2 (en) 2015-05-13 2018-06-05 Infineon Technologies Ag Structured-light based multipath cancellation in ToF imaging
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
KR102311688B1 (ko) * 2015-06-17 2021-10-12 엘지전자 주식회사 이동단말기 및 그 제어방법
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
KR102398488B1 (ko) * 2015-06-26 2022-05-13 엘지전자 주식회사 복수의 디바이스에 대한 원격제어를 수행할 수 있는 이동 단말기
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
US11112238B2 (en) 2015-07-07 2021-09-07 Quality Vision International Inc. Method and apparatus for scanning object
EP3118576B1 (de) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensionierungsvorrichtung mit dynamischer nist-standardkonformer genauigkeit
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
KR102465643B1 (ko) * 2015-09-30 2022-11-09 엘지전자 주식회사 복수의 디바이스에 대한 원격제어를 수행할 수 있는 원격제어장치
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
DE102015118986A1 (de) * 2015-11-05 2017-05-11 Anix Gmbh Prüfgrubenmesssystem zur optischen Vermessung einer Prüfgrubenoberfläche, Verfahren zur optischen Vermessung einer Prüfgrubenoberfläche mit einem solchen Prüfgrubenmesssystem und Verwendung eines solchen Prüfgrubenmesssystems
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US9753126B2 (en) 2015-12-18 2017-09-05 Gerard Dirk Smits Real time position sensing of objects
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
DE102016002398B4 (de) * 2016-02-26 2019-04-25 Gerd Häusler Optischer 3D-Sensor zur schnellen und dichten Formerfassung
IL288771B2 (en) * 2016-03-01 2023-09-01 Magic Leap Inc Depth sensing system
US10721451B2 (en) * 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US9855661B2 (en) 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
US11369467B2 (en) * 2016-04-05 2022-06-28 Establishment Labs S.A. Medical imaging systems, devices, and methods
US10136120B2 (en) * 2016-04-15 2018-11-20 Microsoft Technology Licensing, Llc Depth sensing using structured illumination
US10234284B2 (en) * 2016-05-13 2019-03-19 Bae Systems Information And Electronic Systems Integration Inc. Multifunctional rangefinder with at least two modes of operation
CN106091976B (zh) * 2016-05-27 2017-07-25 武汉大学 矩形体的自动化检测与三维重构系统及方法
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10401145B2 (en) * 2016-06-13 2019-09-03 Carl Zeiss Industrielle Messtechnik Gmbh Method for calibrating an optical arrangement
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
JP7063825B2 (ja) * 2016-06-24 2022-05-09 3シェイプ アー/エス 構造化されたプローブ光のビームを用いる3dスキャナ
JP7061119B2 (ja) 2016-07-15 2022-04-27 ファストブリック・アイピー・プロプライエタリー・リミテッド 車両に組み込まれた煉瓦/ブロック敷設機
JP7108609B2 (ja) 2016-07-15 2022-07-28 ファストブリック・アイピー・プロプライエタリー・リミテッド 材料搬送用ブーム
US10884127B2 (en) * 2016-08-02 2021-01-05 Samsung Electronics Co., Ltd. System and method for stereo triangulation
US10417533B2 (en) * 2016-08-09 2019-09-17 Cognex Corporation Selection of balanced-probe sites for 3-D alignment algorithms
US10827163B2 (en) * 2016-08-09 2020-11-03 Facebook Technologies, Llc Multiple emitter illumination source for depth information determination
DE102016118468A1 (de) 2016-09-29 2018-03-29 Valeo Schalter Und Sensoren Gmbh Erfassungsvorrichtung für ein Kraftfahrzeug, Fahrerassistenzsystem, Kraftfahrzeug sowie Verfahren
CN106405532B (zh) * 2016-10-25 2019-05-07 莱赛激光科技股份有限公司 手持式激光测量仪及其工作方法
US10067230B2 (en) 2016-10-31 2018-09-04 Gerard Dirk Smits Fast scanning LIDAR with dynamic voxel probing
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
WO2018125850A1 (en) 2016-12-27 2018-07-05 Gerard Dirk Smits Systems and methods for machine perception
JP2018124167A (ja) * 2017-01-31 2018-08-09 オムロン株式会社 傾斜測定装置
EP3580522B1 (de) * 2017-02-09 2024-02-21 Laitram, LLC Vorrichtung und verfahren zur messung von riemen
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10928489B2 (en) * 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
WO2018209096A2 (en) 2017-05-10 2018-11-15 Gerard Dirk Smits Scan mirror systems and methods
JP7103354B2 (ja) * 2017-05-24 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018227527A1 (zh) * 2017-06-16 2018-12-20 深圳市迈测科技股份有限公司 一种测量方法和系统
AU2018295572B2 (en) 2017-07-05 2022-09-29 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CN107202554B (zh) * 2017-07-06 2018-07-06 杭州思看科技有限公司 同时具备摄影测量和三维扫描功能的手持式大尺度三维测量扫描仪系统
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
WO2019033170A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd LASER TRACKING DEVICE WITH ENHANCED ROLL ANGLE MEASUREMENT
EP3450913B1 (de) 2017-08-30 2021-06-09 Hexagon Technology Center GmbH Überwachungsinstrument zum abtasten eines objekts und zur projektion von informationen
CN107631700B (zh) * 2017-09-07 2019-06-21 西安电子科技大学 三维扫描仪与全站仪相结合的三维数据测量方法
JP6919458B2 (ja) 2017-09-26 2021-08-18 オムロン株式会社 変位計測装置、計測システム、および変位計測方法
JP6559201B2 (ja) * 2017-09-29 2019-08-14 株式会社トプコン 解析システム、解析方法、及び解析プログラム
AU2018348785A1 (en) 2017-10-11 2020-05-07 Fastbrick Ip Pty Ltd Machine for conveying objects and multi-bay carousel for use therewith
WO2019079746A1 (en) * 2017-10-19 2019-04-25 Miller Michael J DEVICE FOR DETERMINING AND PROJECTING A POINT
WO2019079750A1 (en) 2017-10-19 2019-04-25 Gerard Dirk Smits METHODS AND SYSTEMS FOR NAVIGATING A VEHICLE EQUIPPED WITH A NEW MILITARY MARKER SYSTEM
JP2019087008A (ja) 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法
CN107747915A (zh) * 2017-11-10 2018-03-02 华东师范大学 基于数字微镜器件的闭环式三维视觉装置
EP3710778A1 (de) 2017-11-13 2020-09-23 Hexagon Metrology, Inc Thermische verwaltung einer optischen abtastvorrichtung
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
US10901087B2 (en) 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
CN107957250A (zh) * 2018-01-17 2018-04-24 吉林大学 一种地下空间激光3d成像装置及成像方法
WO2019148214A1 (en) 2018-01-29 2019-08-01 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned lidar systems
US20200406466A1 (en) * 2018-02-23 2020-12-31 Kurashiki Boseki Kabushiki Kaisha Method for Moving Tip of Line-Like Object, Controller, and Three-Dimensional Camera
US11582399B2 (en) 2018-03-09 2023-02-14 Northwestern University Adaptive sampling for structured light scanning
JP2019159872A (ja) * 2018-03-14 2019-09-19 セイコーエプソン株式会社 演算装置、演算装置の制御方法、および、コンピュータープログラム
US20190285404A1 (en) * 2018-03-16 2019-09-19 Faro Technologies, Inc. Noncontact three-dimensional measurement system
JP2019184430A (ja) * 2018-04-10 2019-10-24 大豊精機株式会社 3次元位置計測システム
US10565718B2 (en) * 2018-04-18 2020-02-18 Faro Technologies, Inc. System and method of scanning an environment
CN108955641B (zh) * 2018-04-23 2020-11-17 维沃移动通信有限公司 一种深度摄像方法、深度摄像设备及移动终端
EP3788319A1 (de) * 2018-04-30 2021-03-10 Path Robotics, Inc. Reflektionsabweisender laserscanner
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
FR3081592B1 (fr) * 2018-05-25 2021-05-14 Vit Systeme de determination d'images tridimensionnelles
CN108765487B (zh) * 2018-06-04 2022-07-22 百度在线网络技术(北京)有限公司 重建三维场景的方法、装置、设备和计算机可读存储介质
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
JP7028086B2 (ja) * 2018-07-06 2022-03-02 日本製鉄株式会社 形状測定装置および形状測定方法
KR20200016675A (ko) * 2018-08-07 2020-02-17 삼성전자주식회사 광 스캐너 및 이를 포함하는 라이다 시스템
EP3608627B1 (de) * 2018-08-09 2023-11-08 Cognex Corporation Positionierungssystem für komponenten von optischen systemen
USD866364S1 (en) 2018-08-20 2019-11-12 Faro Technologies, Inc. Measurement device
US11592832B2 (en) * 2018-08-20 2023-02-28 Uatc, Llc Automatic robotically steered camera for targeted high performance perception and vehicle control
USD875573S1 (en) 2018-09-26 2020-02-18 Hexagon Metrology, Inc. Scanning device
US11722778B2 (en) 2018-10-08 2023-08-08 Florida Atlantic University Board Of Trustees Underwater imaging system
FR3087254B1 (fr) * 2018-10-16 2021-01-29 Commissariat Energie Atomique Configuration d'un dispositif de controle non destructif
US10883823B2 (en) 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
DE102018218475B4 (de) * 2018-10-29 2022-03-10 Carl Zeiss Optotechnik GmbH Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts
WO2020123114A1 (en) * 2018-12-11 2020-06-18 Lowe's Companies, Inc. Robot motion planning for photogrammetry
CN109373931B (zh) * 2018-12-14 2020-11-03 上海晶电新能源有限公司 一种太阳能热发电用光学设备反射面面形检测系统及方法
JP7252755B2 (ja) * 2018-12-27 2023-04-05 株式会社小糸製作所 アクティブセンサ、物体識別システム、車両、車両用灯具
CN109862209B (zh) * 2019-01-04 2021-02-26 中国矿业大学 一种基于光线逆追踪技术还原井下图像的方法
EP3931768A1 (de) * 2019-02-28 2022-01-05 Skidmore, Owings & Merrill LLP Maschinenlernwerkzeug für strukturen
JP7212559B2 (ja) * 2019-03-18 2023-01-25 住友重機械工業株式会社 形状測定装置及び形状測定方法
US10955236B2 (en) * 2019-04-05 2021-03-23 Faro Technologies, Inc. Three-dimensional measuring system
CN110163903B (zh) * 2019-05-27 2022-02-25 百度在线网络技术(北京)有限公司 三维图像的获取及图像定位方法、装置、设备和存储介质
CN110349192B (zh) * 2019-06-10 2021-07-13 西安交通大学 一种基于三维激光点云的在线目标跟踪系统的跟踪方法
EP3758351B1 (de) 2019-06-26 2023-10-11 Faro Technologies, Inc. System und verfahren zum abtasten einer umgebung unter verwendung mehrerer scanner gleichzeitig
JP2021022807A (ja) * 2019-07-26 2021-02-18 セイコーエプソン株式会社 プロジェクターの制御方法、及び、プロジェクター
JP7324097B2 (ja) * 2019-09-13 2023-08-09 株式会社トプコン 3次元測量装置、3次元測量方法および3次元測量プログラム
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11107271B2 (en) * 2019-11-05 2021-08-31 The Boeing Company Three-dimensional point data based on stereo reconstruction using structured light
EP3822578A1 (de) * 2019-11-15 2021-05-19 Hexagon Technology Center GmbH Adaptiver 3d-scanner mit variablem messbereich
US20220349708A1 (en) * 2019-11-19 2022-11-03 Hewlett-Packard Development Company, L.P. Generating error data
CN112824935B (zh) * 2019-11-20 2023-02-28 深圳市光鉴科技有限公司 基于调制光场的深度成像系统、方法、设备及介质
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
WO2021184163A1 (zh) * 2020-03-16 2021-09-23 上海芯歌智能科技有限公司 激光测量装置
WO2021184866A1 (zh) * 2020-03-16 2021-09-23 宁波飞芯电子科技有限公司 一种飞行时间距离测量装置及飞行时间距离测量方法
CN113985425A (zh) * 2020-07-10 2022-01-28 广州印芯半导体技术有限公司 测距装置以及测距方法
EP3988897B1 (de) * 2020-10-20 2023-09-27 Leica Geosystems AG Instrument zur elektronischen vermessung
JPWO2022102302A1 (de) * 2020-11-10 2022-05-19
CN112378474B (zh) * 2020-11-17 2022-11-04 哈尔滨工业大学 大长径比卧式罐容积多站三维激光扫描内测装置及方法
CN112378477B (zh) * 2020-11-17 2022-11-04 哈尔滨工业大学 大长径比卧式罐容积连续激光扫描内测装置及测量方法
CN112378473B (zh) * 2020-11-17 2022-10-04 哈尔滨工业大学 大长径比立式罐容积多站三维激光扫描内测装置及方法
US11162783B1 (en) * 2020-12-18 2021-11-02 Yoed Abraham Fiber-optic 3D imaging
US11908162B2 (en) 2020-12-23 2024-02-20 Faro Technologies, Inc. Line scanner having target-tracking and geometry-tracking modes
US11930155B2 (en) 2020-12-23 2024-03-12 Faro Technologies, Inc. Handheld scanner for measuring three-dimensional coordinates
EP4043914A1 (de) * 2021-02-15 2022-08-17 Leica Geosystems AG Six-dof-messhilfsmittel
CN114396904A (zh) * 2021-11-29 2022-04-26 北京银河方圆科技有限公司 定位装置及定位系统

Family Cites Families (544)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2484641A (en) 1945-10-12 1949-10-11 Western Electric Co Method of separating adhering sheets by an air blast
US2612994A (en) 1949-10-20 1952-10-07 Norman J Woodland Classifying apparatus and method
US2682804A (en) 1950-09-26 1954-07-06 Taylor Taylor & Hobson Ltd Optical micrometer for alignment telescopes
US2784641A (en) 1952-06-20 1957-03-12 Keuffel & Esser Co Alignment telescope
US3497695A (en) 1961-12-11 1970-02-24 Raytheon Co Radiant energy transmitting device
GB1104021A (en) 1963-11-11 1968-02-21 Nat Res Dev Distance measuring apparatus
LU46404A1 (de) 1964-06-26 1972-01-01
DE1210360B (de) 1964-11-07 1966-02-03 Leitz Ernst Gmbh Mit einem Laser-Entfernungsmesser gekoppelte Visiervorrichtung
US3365717A (en) 1965-09-03 1968-01-23 South African Inventions Method of and apparatus for providing a measure of the distance between two spaced points
US3627429A (en) 1968-08-14 1971-12-14 Spectra Physics Laser optical surveying instrument and method
US3658426A (en) 1968-09-11 1972-04-25 Itek Corp Alignment telescope
US3619058A (en) 1969-11-24 1971-11-09 Hewlett Packard Co Distance measuring apparatus
US3779645A (en) 1970-05-20 1973-12-18 Nippon Kogaku Kk Distance measuring device
US3728025A (en) 1971-03-08 1973-04-17 Cubic Corp Optical distance measuring equipment
US3813165A (en) 1971-09-20 1974-05-28 Laser Syst & Electronics Inc Digital distance measuring apparatus employing modulated light beam
US3740141A (en) 1971-09-20 1973-06-19 Laser Systems & Electronics Timing and measuring methods and means for laser distance measurements
US3832056A (en) 1972-03-13 1974-08-27 Aga Corp Distance measuring device using electro-optical techniques
DE2235318C3 (de) 1972-07-19 1980-02-14 Ito-Patent Ag, Zuerich (Schweiz) Verfahren zur opto-elektronischen Messung der Entfernung und der Höhendifferenz und Anordnung zur Durchführung des Verfahrens
DE2553691C2 (de) 1975-11-28 1986-10-30 MITEC Moderne Industrietechnik GmbH, 8012 Ottobrunn Verfahren zur opto-elektronischen Messung der Entfernung zwischen einem Meß- und einem Zielpunkt und Entfernungsmeßgerät zur Durchführung dieses Verfahrens
FR2206510A1 (de) 1972-11-15 1974-06-07 Aga Ab
CH589856A5 (de) 1975-12-29 1977-07-15 Kern & Co Ag
US4113381A (en) 1976-11-18 1978-09-12 Hewlett-Packard Company Surveying instrument and method
DE7704949U1 (de) 1977-02-18 1977-06-30 Robert Bosch Gmbh, 7000 Stuttgart Projektor mit versenkbarem tragegriff
US4178515A (en) 1978-05-12 1979-12-11 Lockheed Electronics Co., Inc. Optical signal communicating apparatus
GB2066015B (en) 1979-10-23 1984-02-15 South African Inventions Distance measurment
US4453825A (en) 1979-12-07 1984-06-12 Hewlett-Packard Company Distance transducer
US4413907A (en) 1980-11-07 1983-11-08 Robert F. Deike Remote control surveying
DE3103567A1 (de) 1981-02-03 1982-08-12 MITEC Moderne Industrietechnik GmbH, 8012 Ottobrunn Entfernungsmessverfahren nach dem prinzip der laufzeitmessung eines messlichtimpulses und vorrichtung zu seiner durchfuehrung
JPS6318960Y2 (de) 1981-03-12 1988-05-27
US4498764A (en) 1981-06-09 1985-02-12 Ludwig Bolkow Dynamic control arrangement for a distance measuring apparatus
ZA824061B (en) 1981-06-09 1983-04-27 L Bolkow Distance measurement method and apparatus for its performance
DE3219423C2 (de) 1981-06-09 1986-04-30 MTC, Meßtechnik und Optoelektronik AG, Neuenburg/Neuchâtel Entfernungsmeßverfahren und Vorrichtung zu seiner Durchführung
JPS584881A (ja) 1981-06-26 1983-01-12 三菱レイヨン株式会社 トリアセテ−ト繊維の染色法
SE450975B (sv) 1981-08-07 1987-09-07 Geotronics Ab Anordning for operatorskommunikation i ett system for elektronisk distansmetning
JPS5838880A (ja) 1981-08-31 1983-03-07 Tokyo Optical Co Ltd 光波距離計
EP0102102B1 (de) 1982-08-26 1987-05-13 Shell Internationale Researchmaatschappij B.V. Verfahren und Vorrichtung zum Eichen eines Tanks unter Verwendung von Diodenlaser und optischen Fasern
US4537475A (en) 1983-04-01 1985-08-27 The United States Of America As Represented By The United States Department Of Energy Scattering apodizer for laser beams
US4692023A (en) 1983-07-30 1987-09-08 Tokyo Kagaku Kikai Kabushiki Kaisha Optical adapter for a light-wave rangefinder
DE3328335A1 (de) 1983-08-05 1985-02-14 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Datenfernueberwachungssystem
JPS6097288A (ja) 1983-11-01 1985-05-31 Toshiba Corp 距離測定装置
DE3476583D1 (en) 1983-12-22 1989-03-09 Deutsche Forsch Luft Raumfahrt Interferometer
JPS60237307A (ja) 1984-05-11 1985-11-26 Yokogawa Hewlett Packard Ltd レ−ザ測長器
DE3530922A1 (de) 1984-08-29 1986-04-30 Optische Werke G. Rodenstock, 8000 München Projektionseinrichtung fuer einen leitstrahl
US4777660A (en) 1984-11-06 1988-10-11 Optelecom Incorporated Retroreflective optical communication system
US4699598A (en) 1985-04-10 1987-10-13 Outboard Marine Corporation Marine propulsion device water supply system
SE448199B (sv) 1985-05-09 1987-01-26 Ericsson Telefon Ab L M Anleggning med flera berbara, snorlosa telefonapparater
US4632547A (en) 1985-09-10 1986-12-30 Broomer Research Corporation Autocollimating alignment telescope
US4767257A (en) 1985-12-23 1988-08-30 Mitsubishi Denki Kabushiki Kaisha Industrial robot
US4714339B2 (en) 1986-02-28 2000-05-23 Us Commerce Three and five axis laser tracking systems
JPH0665818B2 (ja) 1987-05-30 1994-08-24 幸一郎 内藤 排水路用ブロック搬送機
US4790651A (en) 1987-09-30 1988-12-13 Chesapeake Laser Systems, Inc. Tracking laser interferometer
US4839507A (en) 1987-11-06 1989-06-13 Lance May Method and arrangement for validating coupons
SE464782B (sv) 1987-12-22 1991-06-10 Geotronics Ab Anordning vid ett avstaandsmaetningsinstrument saasom hjaelpmedel vid utsaettning
US5069524A (en) 1988-03-07 1991-12-03 Honda Giken Kogyo Kabushiki Kaisha Robot hand optical fiber connector coupling assembly
JP2717408B2 (ja) 1988-03-16 1998-02-18 株式会社トプコン 直線性誤差補正機能を有する光波測距装置
US4983021A (en) 1988-08-10 1991-01-08 Fergason James L Modulated retroreflector system
DE3827458C3 (de) 1988-08-12 1998-04-09 Michael H Dipl Ing Korte Verfahren und Vorrichtung zur Ermittlung der Raumkoordinaten eines beliebigen Meßpunktes
JP2731565B2 (ja) 1989-01-11 1998-03-25 松下電工株式会社 測距センサー
SE500856C2 (sv) 1989-04-06 1994-09-19 Geotronics Ab Arrangemang att användas vid inmätnings- och/eller utsättningsarbete
GB8909357D0 (en) 1989-04-25 1989-06-14 Renishaw Plc Position determining apparatus
JPH0331715A (ja) 1989-06-29 1991-02-12 Hazama Gumi Ltd 測点の変位自動計測方法及びその装置
US4963832A (en) 1989-08-08 1990-10-16 At&T Bell Laboratories Erbium-doped fiber amplifier coupling device
US5034012A (en) * 1989-11-21 1991-07-23 Synthes (U.S.A.) Intramedullary nail with loop tip
FR2656212A1 (fr) * 1989-12-27 1991-06-28 Hardy Jeanmarie Systeme d'enclouage centro-medullaire pour immobiliser une fracture d'un os.
GB9003221D0 (en) 1990-02-13 1990-04-11 Optical Measuring Systems Limi Electronic distance measurement
US5440326A (en) 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
US5138154A (en) 1990-04-04 1992-08-11 Gyration Inc. Shaft angle encoder with rotating off-axis interference pattern
JPH068733B2 (ja) 1990-07-05 1994-02-02 佐藤工業株式会社 レーザーポジショナー及びこれを用いた定点マーキング方法
EP0468677B1 (de) 1990-07-18 1996-05-15 Spectra Precision, Inc. System und Verfahren zur dreidimensionalen Positionserfassung
US5082364A (en) 1990-08-31 1992-01-21 Russell James T Rf modulated optical beam distance measuring system and method
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5198868A (en) 1990-11-16 1993-03-30 Sato Kogyo Co., Ltd. Laser surveying system having a function of marking reference points
US5121242A (en) 1991-02-04 1992-06-09 Martin Marietta Corporation Retro-reflective optical transceiver
US5175601A (en) * 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
JPH05257005A (ja) 1992-02-06 1993-10-08 Nec Corp 光反射器
DE9205427U1 (de) 1992-04-21 1992-06-25 Bodenseewerk Geraetetechnik Gmbh, 7770 Ueberlingen, De
JP3132894B2 (ja) 1992-04-24 2001-02-05 工業技術院長 距離測定装置
JP2584875Y2 (ja) 1992-05-26 1998-11-11 株式会社ニコン 光波測距装置
DE4227492A1 (de) 1992-08-20 1994-02-24 Fritz Stahlecker Faserbandführungsvorrichtung für Streckwerke von Spinnereimaschinen
US5433718A (en) * 1992-08-20 1995-07-18 Brinker; Mark Antibiotic eluding intramedullary nail apparatus
JPH0697288A (ja) 1992-09-09 1994-04-08 Kawasaki Steel Corp 半導体装置の製造方法
US5263103A (en) 1992-11-16 1993-11-16 At&T Bell Laboratories Apparatus comprising a low reflection optical fiber termination
US5331468A (en) 1992-11-27 1994-07-19 Eastman Kodak Company Intensity redistribution for exposure correction in an overfilled symmetrical laser printer
JP3300998B2 (ja) 1992-12-08 2002-07-08 株式会社ソキア 三次元座標測定装置
US5319434A (en) 1992-12-30 1994-06-07 Litton Systems, Inc. Laser rangefinder apparatus with fiber optic interface
US5301005A (en) 1993-02-10 1994-04-05 Spectra-Physics Laserplane, Inc. Method and apparatus for determining the position of a retroreflective element
JP3268608B2 (ja) 1993-02-12 2002-03-25 株式会社トプコン 測量装置
JPH06241779A (ja) 1993-02-23 1994-09-02 Toshiba Corp 微小位置決め装置
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
US5611147A (en) 1993-02-23 1997-03-18 Faro Technologies, Inc. Three dimensional coordinate measuring apparatus
JPH0785016B2 (ja) 1993-03-12 1995-09-13 株式会社愛工社 測量ターゲットおよび送電用鉄塔
US5416321A (en) 1993-04-08 1995-05-16 Coleman Research Corporation Integrated apparatus for mapping and characterizing the chemical composition of surfaces
US5455670A (en) 1993-05-27 1995-10-03 Associated Universities, Inc. Optical electronic distance measuring apparatus with movable mirror
US5392521A (en) 1993-06-10 1995-02-28 Allen; Michael P. Surveyor's prism target
JPH074967A (ja) 1993-06-15 1995-01-10 Nikon Corp 測量装置
US5724264A (en) 1993-07-16 1998-03-03 Immersion Human Interface Corp. Method and apparatus for tracking the position and orientation of a stylus and for digitizing a 3-D object
US5500737A (en) 1993-07-21 1996-03-19 General Electric Company Method for measuring the contour of a surface
JP3307730B2 (ja) 1993-08-30 2002-07-24 浜松ホトニクス株式会社 光学測定装置
US5402193A (en) 1993-08-30 1995-03-28 Optical Gaging Products, Inc. Method and means for projecting images in a contour projector
FR2711910B1 (fr) * 1993-11-05 1996-01-12 Lepine Jacques Système d'enclouage centro-médullaire composé d'éléments unitaires dont la fixation entre eux permet d'obtenir un assemblage "sur mesure" et immédiat.
US5448505A (en) 1993-11-24 1995-09-05 Tbe Boeing Company Feed through dimensional measurement system
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JPH07190772A (ja) * 1993-12-24 1995-07-28 Mitsui Constr Co Ltd 測量装置
US5532816A (en) 1994-03-15 1996-07-02 Stellar Industries, Inc. Laser tracking wheel alignment measurement apparatus and method
SE9402047L (sv) 1994-06-13 1995-12-14 Contractor Tools Ab Förfarande och anordning för fjärrstyrning av en eller flera arbetsmaskiner
US6015429A (en) 1994-09-08 2000-01-18 Gore Enterprise Holdings, Inc. Procedures for introducing stents and stent-grafts
DE4438955C2 (de) 1994-10-31 1996-09-26 Swarovski Optik Kg Zielfernrohr
US5594169A (en) 1994-11-04 1997-01-14 Gyration,Inc. Optically sensed wire gyroscope apparatus and system, and methods for manufacture and cursor control
JP2627871B2 (ja) 1994-11-25 1997-07-09 日本鉄道建設公団 三次元測量用ターゲット
JP3599805B2 (ja) 1994-12-09 2004-12-08 株式会社トプコン 測量機
US5926388A (en) 1994-12-09 1999-07-20 Kimbrough; Thomas C. System and method for producing a three dimensional relief
JP3109969B2 (ja) 1994-12-28 2000-11-20 松下電器産業株式会社 ファクシミリ蓄積交換装置
JPH08220232A (ja) 1995-02-08 1996-08-30 Asahi Optical Co Ltd 光波測距装置および光波測距装置における光路切り換え方法
JP3523368B2 (ja) 1995-05-12 2004-04-26 ペンタックス株式会社 光波距離計
US6262801B1 (en) 1995-05-25 2001-07-17 Kabushiki Kaisha Topcon Laser reference level setting device
US5671160A (en) 1995-06-05 1997-09-23 Gcs Properties Position sensing system
JPH0914965A (ja) 1995-06-27 1997-01-17 Nikon Corp 測量用ターゲット
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
SE504941C2 (sv) 1995-09-14 1997-06-02 Geotronics Ab Förfarande och anordning för inriktning
NO301999B1 (no) 1995-10-12 1998-01-05 Metronor As Kombinasjon av laser tracker og kamerabasert koordinatmåling
JPH09113223A (ja) 1995-10-18 1997-05-02 Fuji Xerox Co Ltd 非接触距離姿勢測定方法及び装置
USD378751S (en) 1995-10-19 1997-04-08 Gyration, Inc. Graphic display controller
DE19542490C1 (de) 1995-11-15 1997-06-05 Leica Ag Elektro-optisches Meßgerät für absolute Distanzen
US5742379A (en) 1995-11-29 1998-04-21 Reifer; Michael H. Device and method for electronically measuring distances
US5867305A (en) 1996-01-19 1999-02-02 Sdl, Inc. Optical amplifier with high energy levels systems providing high peak powers
US5698784A (en) 1996-01-24 1997-12-16 Gyration, Inc. Vibratory rate gyroscope and methods of assembly and operation
DE19602327C2 (de) 1996-01-24 1999-08-12 Leica Geosystems Ag Meßkugel-Reflektor
JPH09236662A (ja) 1996-02-29 1997-09-09 Ushikata Shokai:Kk 光波距離計
US5825350A (en) 1996-03-13 1998-10-20 Gyration, Inc. Electronic pointing apparatus and method
US5936721A (en) 1996-03-18 1999-08-10 Kabushiki Kaisha Topcon Guide beam direction setting apparatus
JP3741477B2 (ja) 1996-03-18 2006-02-01 株式会社トプコン 測量システム
JP3837609B2 (ja) 1996-03-19 2006-10-25 株式会社トプコン レーザー照射装置
DE19614108C1 (de) 1996-04-10 1997-10-23 Fraunhofer Ges Forschung Anordnung zur Vermessung der Koordinaten eines an einem Objekt angebrachten Retroreflektors
US5892575A (en) 1996-05-10 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for imaging a scene using a light detector operating in non-linear geiger-mode
US6681145B1 (en) 1996-06-06 2004-01-20 The Boeing Company Method for improving the accuracy of machines
JPH102722A (ja) 1996-06-18 1998-01-06 Nippon Telegr & Teleph Corp <Ntt> 三次元位置計測装置
US5732095A (en) 1996-09-20 1998-03-24 Hewlett-Packard Company Dual harmonic-wavelength split-frequency laser
US5754284A (en) 1996-10-09 1998-05-19 Exfo Electro-Optical Engineering Inc. Optical time domain reflectometer with internal reference reflector
DE19643287A1 (de) 1996-10-21 1998-04-23 Leica Ag Verfahren und Vorrichtung zur Kalibrierung von Entfernungsmeßgeräten
US5817243A (en) 1996-10-30 1998-10-06 Shaffer; Wayne K. Method for applying decorative contrast designs to automotive and motorcycle parts using lasers
DE19647152A1 (de) 1996-11-14 1998-05-28 Sick Ag Laserabstandsermittlungsvorrichtung
CA2279934A1 (en) 1997-02-11 1998-08-13 Scientific Generics Limited Signalling system
US5886775A (en) 1997-03-12 1999-03-23 M+Ind Noncontact digitizing imaging system
US5957559A (en) 1997-04-29 1999-09-28 Virtek Vision Corporation Laser scanned menu
JP2965938B2 (ja) 1997-05-23 1999-10-18 マック株式会社 自動削孔システム
US5861956A (en) 1997-05-27 1999-01-19 Spatialmetrix Corporation Retroreflector for use with tooling ball
JP2001512246A (ja) 1997-08-01 2001-08-21 アクゾ ノーベル ナムローゼ フェンノートシャップ 少なくとも一つのゲートを含む、縦続接続された光学スイッチ
DE19733491B4 (de) 1997-08-01 2009-04-16 Trimble Jena Gmbh Verfahren zur Zielsuche für geodätische Geräte
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
GB9718081D0 (en) 1997-08-28 1997-10-29 Ciba Geigy Ag Fluorescent whitening agent
US6052190A (en) 1997-09-09 2000-04-18 Utoptics, Inc. Highly accurate three-dimensional surface digitizing system and methods
US6017125A (en) 1997-09-12 2000-01-25 The Regents Of The University Of California Bar coded retroreflective target
US6344846B1 (en) 1997-10-27 2002-02-05 Stephen P. Hines Optical retroreflective remote control
US6111563A (en) 1997-10-27 2000-08-29 Hines; Stephen P. Cordless retroreflective optical computer mouse
US6034722A (en) 1997-11-03 2000-03-07 Trimble Navigation Limited Remote control and viewing for a total station
US6171018B1 (en) 1997-11-10 2001-01-09 Kabushiki Kaisha Topcon Automatic control system for construction machinery
JP3784154B2 (ja) 1997-11-14 2006-06-07 株式会社トプコン 測量機の通信システム
EP0919906B1 (de) 1997-11-27 2005-05-25 Matsushita Electric Industrial Co., Ltd. Steuerungsverfahren
JP3569426B2 (ja) 1997-12-05 2004-09-22 ペンタックス株式会社 測量用反射部材
TW367407B (en) 1997-12-22 1999-08-21 Asml Netherlands Bv Interferometer system with two wavelengths, and lithographic apparatus provided with such a system
JPH11218673A (ja) 1998-01-30 1999-08-10 Olympus Optical Co Ltd カメラシステム
JP3941215B2 (ja) 1998-04-16 2007-07-04 株式会社ニコン 測量機及びポイント設定方法
US6317954B1 (en) 1998-05-11 2001-11-20 Vought Aircraft Industries, Inc. System and method for aligning aircraft coordinate systems
US6433866B1 (en) 1998-05-22 2002-08-13 Trimble Navigation, Ltd High precision GPS/RTK and laser machine control
JPH11337642A (ja) 1998-05-26 1999-12-10 Nikon Corp 光波測距装置
US6347290B1 (en) 1998-06-24 2002-02-12 Compaq Information Technologies Group, L.P. Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6351483B1 (en) 1998-06-29 2002-02-26 Quarton, Inc. Laser optical axis correcting method
US7353954B1 (en) 1998-07-08 2008-04-08 Charles A. Lemaire Tray flipper and method for parts inspection
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6369794B1 (en) 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
JP2000111340A (ja) 1998-10-08 2000-04-18 Topcon Corp 測量機の光通信装置
JP2000147604A (ja) * 1998-11-13 2000-05-26 Matsushita Electric Ind Co Ltd レンジファインダ
DE19855296C1 (de) 1998-12-01 2000-08-31 Bosch Gmbh Robert Vorrichtung zur Entfernungsmessung mittels eines Halbleiterlasers im sichtbaren Wellenlängenbereich nach dem Laufzeitverfahren
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
JP4088906B2 (ja) 1998-12-16 2008-05-21 株式会社トプコン 測量機の受光装置
JP2000234930A (ja) 1999-02-16 2000-08-29 Topcon Corp 反射プリズム装置
US6100540A (en) 1999-02-22 2000-08-08 Visidyne, Inc. Laser displacement measurement system
JP2000266540A (ja) 1999-03-17 2000-09-29 Topcon Corp 電子レベル
USD427087S (en) 1999-03-19 2000-06-27 Asahi Seimitsu Kabushiki Kaisha Measurement surveying device
US6630993B1 (en) 1999-03-22 2003-10-07 Arc Second Inc. Method and optical receiver with easy setup means for use in position measurement systems
JP4320099B2 (ja) 1999-03-26 2009-08-26 株式会社トプコン 測量装置
JP4236326B2 (ja) 1999-03-26 2009-03-11 株式会社トプコン 自動測量機
JP2000284169A (ja) 1999-03-31 2000-10-13 Olympus Optical Co Ltd 測距装置
US7800758B1 (en) 1999-07-23 2010-09-21 Faro Laser Trackers, Llc Laser-based coordinate measuring device and laser-based method for measuring coordinates
AT407202B (de) 1999-06-10 2001-01-25 Perger Andreas Dr Kombinierte fernrohr- und entfernungsmessvorrichtung
JP4206568B2 (ja) 1999-07-01 2009-01-14 株式会社ニコン 自動測量システム
US6766036B1 (en) 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
JP2001021354A (ja) 1999-07-09 2001-01-26 Topcon Corp 光学位置検出装置
JP4223634B2 (ja) 1999-07-21 2009-02-12 株式会社 ソキア・トプコン 測量装置
US6490027B1 (en) 1999-07-27 2002-12-03 Suzanne K. Rajchel Reduced noise optical system and method for measuring distance
DE50001460C5 (de) 1999-07-28 2018-12-20 Leica Geosystems Ag Verfahren und anordnung zur bestimmung von räumlichen positionen und orientierungen
US6567101B1 (en) 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
JP2001165662A (ja) 1999-12-08 2001-06-22 Toshiyasu Kato 反射プリズム等の正対装置
DE10006493C2 (de) 2000-02-14 2002-02-07 Hilti Ag Verfahren und Vorrichtung zur optoelektronischen Entfernungsmessung
US6501543B2 (en) 2000-02-28 2002-12-31 Arc Second, Inc. Apparatus and method for determining position
CN1095417C (zh) 2000-03-09 2002-12-04 北京邮电大学 三轴近似正交的六自由度并联机构
SE0000850D0 (sv) 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
JP2001272468A (ja) 2000-03-27 2001-10-05 Nikon Corp 光導波路デバイス及びこれを用いた光波測距装置
US6193371B1 (en) 2000-03-27 2001-02-27 Richard Snook Keratometer/pachymeter
JP3658269B2 (ja) 2000-03-29 2005-06-08 株式会社ルネサステクノロジ 固体表面及び半導体製造装置の処理方法並びにそれを用いた半導体装置の製造方法
GB0008303D0 (en) 2000-04-06 2000-05-24 British Aerospace Measurement system and method
DE10022054B4 (de) 2000-05-06 2006-05-24 Leuze Electronic Gmbh & Co Kg Optischer Distanzsensor
JP3881498B2 (ja) 2000-05-25 2007-02-14 ペンタックス株式会社 光波測距儀
JP2001353112A (ja) 2000-06-15 2001-12-25 Sanyo Electric Co Ltd 電気掃除機
JP4416925B2 (ja) 2000-07-19 2010-02-17 株式会社トプコン 位置測定設定システム及びそれに使用する受光センサ装置
US6754370B1 (en) 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
WO2002016964A1 (de) 2000-08-25 2002-02-28 Kurt Giger Verfahren und vorrichtung zur entfernungsmessung
GB0022444D0 (en) 2000-09-13 2000-11-01 Bae Systems Plc Positioning system and method
JP3780836B2 (ja) 2000-09-21 2006-05-31 株式会社大林組 山岳トンネル用マーキング装置の制御方法
US6563569B2 (en) 2000-09-25 2003-05-13 Agency Of Industrial Science & Technology, Ministry Of International Trade & Industry Laser tracking interferometric length measuring instrument and method of measuring length and coordinates using the same
JP2002098762A (ja) 2000-09-26 2002-04-05 Nikon Corp 光波測距装置
DE50115208D1 (de) 2000-09-27 2009-12-17 Leica Geosystems Ag Vorrichtung und verfahren zur signalerfassung bei einem entfernungsmessgerät
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
JP4916899B2 (ja) 2000-10-18 2012-04-18 シャープ株式会社 発光型表示素子
US6668466B1 (en) 2000-10-19 2003-12-30 Sandia Corporation Highly accurate articulated coordinate measuring machine
CN1290850A (zh) 2000-10-31 2001-04-11 上海交通大学 非接触式六自由度运动测量与分析系统
EP1340218A1 (de) 2000-11-02 2003-09-03 Essential Reality, Inc. Vom benutzer getragene elektronische schnittstelleneinrichtung
JP4767403B2 (ja) 2000-11-06 2011-09-07 本田技研工業株式会社 三次元計測装置および三次元計測方法
EP1211481A3 (de) 2000-11-29 2004-05-19 microSystems GmbH Prüfvorrichtung zum Erkennen der Geometrie und/oder Lage von Bauteilen
ATE392632T1 (de) 2000-11-30 2008-05-15 Geosystems Ag Leica Verfahren und vorrichtung zur frequenzsynthese in einem entfernungsmessgerät
US6650222B2 (en) 2000-12-07 2003-11-18 Cooper Technologies Company Modular fuseholder
JP2002209361A (ja) 2001-01-10 2002-07-26 Canon Electronics Inc モーター
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
WO2002063235A2 (en) 2001-02-02 2002-08-15 Renishaw Plc Machine tool probe
KR20020097172A (ko) 2001-02-08 2002-12-31 닛폰 고칸 가부시키가이샤 3차원 좌표 계측방법, 3차원 좌표 계측장치 및 대형구조물의 건조방법
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6964113B2 (en) 2001-03-06 2005-11-15 Faro Laser Trackers, Llc Scale-bar artifact and methods of use
EP1241436B1 (de) 2001-03-14 2014-11-19 Tesa Sa Koordinatenmessmaschine und Verfahren zum Einbringen eines Kommandos zum Ändern des Messmodus
AUPR402501A0 (en) 2001-03-29 2001-04-26 Connolly, Michael Laser levelling apparatus
EP1407291B1 (de) 2001-04-10 2010-12-15 Faro Technologies Inc. Chopper-stabilisiertes messgerät für absolute distanzen
US7505119B2 (en) 2001-04-13 2009-03-17 Optical Air Data Systems, Llc Multi-function optical system and assembly
DE10118392A1 (de) 2001-04-13 2002-11-07 Zeiss Carl System und Verfahren zum Bestimmen einer Position oder/und Orientierung zweier Objekte relativ zueinander sowie Strahlführungsanordnung, Interferometeranordnung und Vorrichtung zum Ändern einer optischen Weglänge zum Einsatz in einem solchen System und Verfahren
US6598306B2 (en) 2001-04-17 2003-07-29 Homer L. Eaton Self-loading spatial reference point array
KR100421428B1 (ko) 2001-04-24 2004-03-09 한국과학기술원 반사체를 이용한 미소 6자유도 운동 측정 장치
US20030014212A1 (en) 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6922599B2 (en) 2001-08-13 2005-07-26 The Boeing Company System and method for producing an assembly by directly implementing three-dimensional computer-aided design component definitions
US6587253B2 (en) 2001-08-16 2003-07-01 Silicon Light Machines Enhance thermal stability through optical segmentation
EP1421409A1 (de) 2001-08-22 2004-05-26 Automated Precision, Inc. Sechs-dimensionales laser-trackingsystem und methode
JP5037765B2 (ja) 2001-09-07 2012-10-03 株式会社トプコン オペレータ誘導システム
CA2463570C (en) 2001-10-11 2012-06-19 Laser Projection Technologies, Inc. Method and system for visualizing surface errors
WO2003040673A2 (en) 2001-11-02 2003-05-15 Phipps Jack M Temperature sensor with enhanced ambient air temperature detection
AU2002357737A1 (en) 2001-11-16 2003-06-10 Faro Technologies, Inc. Method and system for assisting a user taking measurements using a coordinate measurement machine
US6868194B2 (en) 2001-12-19 2005-03-15 General Electric Company Method for the extraction of image features caused by structure light using image reconstruction
DE10200366A1 (de) 2002-01-08 2003-07-17 Zeiss Optronik Gmbh Mehrkanalempfängersystem für winkelaufgelöste Laserentfernungsmessung
EP2275775B1 (de) 2002-01-16 2015-09-23 Faro Technologies, Inc. Laserbasierte Koordinatenmessvorrichtung und laserbasiertes Verfahren zum Messen von Koordinaten
US7535496B2 (en) 2002-01-30 2009-05-19 Intel Corporation Audio-based attention grabber for imaging devices
CN1160654C (zh) 2002-02-07 2004-08-04 天津大学 六自由度测量功能的激光扫描跟踪仪
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
US6920697B2 (en) 2002-02-14 2005-07-26 Faro Technologies, Inc. Portable coordinate measurement machine with integrated touch probe and improved handle assembly
US7246030B2 (en) 2002-02-14 2007-07-17 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
US6957496B2 (en) 2002-02-14 2005-10-25 Faro Technologies, Inc. Method for improving measurement accuracy of a portable coordinate measurement machine
US7248374B2 (en) 2002-02-22 2007-07-24 Faro Laser Trackers Llc Spherically mounted light source with angle measuring device, tracking system, and method for determining coordinates
AU2003224982A1 (en) 2002-04-12 2003-10-27 Fritz H. Obermeyer Multi-axis joystick and transducer means therefore
EP1502224B1 (de) 2002-04-15 2012-11-21 Robert Bosch Company Limited Konstruktion einer wellenform aus mehrfach-schwellen-abtastwerten
US20030206285A1 (en) 2002-05-06 2003-11-06 Automated Precision, Inc. Nine dimensional laser tracking system and method
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
DE10235562A1 (de) 2002-08-03 2004-02-19 Robert Bosch Gmbh Verfahren und Vorrichtung zur optischen Distanzmessung
EP1388739A1 (de) 2002-08-09 2004-02-11 HILTI Aktiengesellschaft Laserdistanzmessgerät mit Phasenlaufzeitmessung
US20040035277A1 (en) 2002-08-20 2004-02-26 Hubbs William O. Track and punch SMR marking device
US7230689B2 (en) 2002-08-26 2007-06-12 Lau Kam C Multi-dimensional measuring system
DE10239448A1 (de) 2002-08-28 2005-06-16 Robert Bosch Gmbh Entfernungsmessgerät
US20040041996A1 (en) * 2002-08-28 2004-03-04 Fuji Xerox Co., Ltd. Range finder and method
JP2004108939A (ja) 2002-09-18 2004-04-08 Pentax Precision Co Ltd 測量機の遠隔操作システム
SE524329C8 (sv) 2002-09-20 2004-10-20 Trimble Ab Ett positionsstyrarrangemang, speciellt för ett geodektiskt instrument, samt ett geodetiskt instrument
US7765084B2 (en) 2002-09-20 2010-07-27 Trimble A.B. Position control arrangement, especially for a surveying instrument, and a surveying instrument
JP2004144629A (ja) 2002-10-25 2004-05-20 Pentax Precision Co Ltd 測量機
JP2004170355A (ja) 2002-11-22 2004-06-17 Topcon Corp 反射体自動追尾装置
JP4127503B2 (ja) 2002-11-22 2008-07-30 株式会社トプコン 反射体自動追尾装置
JP4255682B2 (ja) 2002-11-22 2009-04-15 株式会社トプコン 反射体自動追尾装置
US7110194B2 (en) 2002-11-27 2006-09-19 Hubbs Machine & Manufacturing Inc. Spherical retro-reflector mount negative
SE525290C2 (sv) 2002-12-20 2005-01-25 Trimble Ab Geodetiskt system för mätning/utsättning och metod för användning av detsamma
JP2006515676A (ja) 2003-01-09 2006-06-01 オーボテック リミテッド 2−dおよび表面凹凸形状の同時検査のための方法および装置
JP4104991B2 (ja) 2003-01-16 2008-06-18 株式会社トプコン 光波距離計
AU2003303787A1 (en) 2003-01-22 2004-08-13 Nokia Corporation Image control
ITTO20030139A1 (it) 2003-02-27 2004-08-28 Comau Spa Robot industriale
US7286246B2 (en) 2003-03-31 2007-10-23 Mitutoyo Corporation Method and apparatus for non-contact three-dimensional surface measurement
US7233316B2 (en) 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
DE10321749B4 (de) 2003-05-09 2018-05-30 Trimble Jena Gmbh Verfahren und Anordnung zur Bestimmung der räumlichen Lage und Position eines Reflektorstabes in Bezug zu einem Aufhaltepunkt
JP2004340880A (ja) 2003-05-19 2004-12-02 Soatec Inc レーザ測定装置
JP4301863B2 (ja) 2003-05-21 2009-07-22 株式会社トプコン 測距装置
JP2005010585A (ja) 2003-06-20 2005-01-13 Tdk Corp ホログラフィック光学素子、その製造方法、及びホログラフィック記録システム
CN1297796C (zh) 2003-07-02 2007-01-31 西安交通大学 线阵光电传感器层析扫描三维测量方法及其装置
JP2007504459A (ja) 2003-09-05 2007-03-01 ファロ テクノロジーズ インコーポレーテッド 自己補償レーザトラッカ
US7583375B2 (en) 2003-09-05 2009-09-01 Faro Technologies, Inc. Self-compensating laser tracker
EP1719580B1 (de) 2003-09-10 2012-06-27 Nikon Metrology NV Laserprojektionssystem
DE10344922B4 (de) 2003-09-25 2008-06-26 Siemens Audiologische Technik Gmbh Rundum-Scanner
DE10361870B4 (de) 2003-12-29 2006-05-04 Faro Technologies Inc., Lake Mary Laserscanner und Verfahren zum optischen Abtasten und Vermessen einer Umgebung des Laserscanners
US7384220B2 (en) 2004-01-06 2008-06-10 The Boeing Company Laser-guided coordination hole drilling
JP4832720B2 (ja) 2004-01-29 2011-12-07 株式会社トプコン パルス信号の処理装置、パルス信号の処理方法およびプログラム
JP4177765B2 (ja) 2004-01-30 2008-11-05 株式会社 ソキア・トプコン 測量システム
ATE504018T1 (de) 2004-02-24 2011-04-15 Faro Tech Inc Durch ein fenster abgedeckter retroreflektor
KR100631834B1 (ko) 2004-03-03 2006-10-09 삼성전기주식회사 버튼 조작없이 번호입력이 가능한 휴대폰 및 상기 휴대폰의 번호 입력 방법
DE102004024171A1 (de) 2004-03-09 2005-09-29 Thorsten Beckmann System zum Vermessen und Einrichten von Räumen
JP4438467B2 (ja) 2004-03-19 2010-03-24 アイシン精機株式会社 3次元測定機におけるワーク温度補正方法
DE202004004945U1 (de) 2004-03-26 2004-10-21 Aua-Map Gmbh Lotstab für Vermessungssysteme
US8320708B2 (en) 2004-04-02 2012-11-27 K-Nfb Reading Technology, Inc. Tilt adjustment for optical character recognition in portable reading machine
US7634374B2 (en) 2004-04-26 2009-12-15 Orthosoft Inc. Method for permanent calibration based on actual measurement
JP2005326317A (ja) 2004-05-14 2005-11-24 Sokkia Co Ltd 測量システム
JP4177784B2 (ja) 2004-05-14 2008-11-05 株式会社 ソキア・トプコン 測量システム
JP3935897B2 (ja) 2004-06-15 2007-06-27 北陽電機株式会社 光波測距装置
EP1610091A1 (de) 2004-06-23 2005-12-28 Leica Geosystems AG Scannersystem und Verfahren zur Erfassung von Oberflächen
US7111783B2 (en) 2004-06-25 2006-09-26 Board Of Trustees Operating Michigan State University Automated dimensional inspection
US20060009929A1 (en) 2004-07-06 2006-01-12 Boyette Roger L Jr In-service insulated tank certification
US20060017720A1 (en) 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
US6996914B1 (en) 2004-08-09 2006-02-14 Project Consulting Services, Inc. Method and apparatus for best fitting two or more items
US7325326B1 (en) 2004-08-09 2008-02-05 Project Consulting Services, Inc. Method and apparatus for best fitting two or more items
JP4501587B2 (ja) 2004-08-18 2010-07-14 富士ゼロックス株式会社 3次元画像測定装置および方法
JP2006084460A (ja) 2004-08-18 2006-03-30 Tomohisa Oumoto 指示装置、指示方法、設置情報算出装置、及び設置情報算出方法
WO2006029214A2 (en) 2004-09-08 2006-03-16 Tru Tech Systems, Inc. Automated inspection comparator/shadowgraph system
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US8130362B2 (en) 2004-09-14 2012-03-06 Nikon Corporation Correction method and exposure apparatus
US7785084B1 (en) 2004-09-16 2010-08-31 Fluid Metering, Inc. Method and apparatus for elimination of gases in pump feed/injection equipment
JP4446850B2 (ja) 2004-09-27 2010-04-07 株式会社トプコン 測量装置用ターゲット
CN101031817B (zh) 2004-09-30 2011-02-09 Faro科技有限公司 测量移动后向反射器的绝对测距仪
JP4830096B2 (ja) 2004-09-30 2011-12-07 国立大学法人名古屋大学 距離測定装置および距離測定方法
JP4707363B2 (ja) 2004-10-20 2011-06-22 株式会社 ソキア・トプコン 光波距離計
DE102004052199A1 (de) 2004-10-20 2006-04-27 Universität Stuttgart Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen
WO2006052259A1 (en) 2004-11-11 2006-05-18 Pierre Bierre 3d point location system
US7268893B2 (en) 2004-11-12 2007-09-11 The Boeing Company Optical projection system
WO2006055770A2 (en) 2004-11-19 2006-05-26 Dynalog, Inc. Robot cell calibration
EP1659417A1 (de) 2004-11-19 2006-05-24 Leica Geosystems AG Verfahren zur Bestimmung der Ausrichtung eines Ausrichtungsindikators
CN1290850C (zh) 2004-12-07 2006-12-20 王敬勉 银杏叶中银杏内酯b和白果内酯的提取方法
TWM269538U (en) 2004-12-15 2005-07-01 Enhance Prec Electronic Co Ltd Maneuverable multi-media audio/video karaoke device
US7701592B2 (en) 2004-12-17 2010-04-20 The Boeing Company Method and apparatus for combining a targetless optical measurement function and optical projection of information
DE102004061338B4 (de) 2004-12-20 2011-12-29 Steinbichler Optotechnik Gmbh Automatische Bauteilprüfung
US8396329B2 (en) 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
US7388658B2 (en) 2005-01-12 2008-06-17 Trimble Jena Gmbh Inclination detection methods and apparatus
EP1681533A1 (de) 2005-01-14 2006-07-19 Leica Geosystems AG Verfahren und geodätisches Gerät zur Vermessung wenigstens eines Zieles
AT501507B1 (de) 2005-01-27 2008-12-15 Joanneum Res Forschungsgesells Verfahren zur mobilen berührungslosen erfassung, sowie ermittlung und auswertung von körper-konturen
CN1815212B (zh) 2005-02-05 2010-06-16 香港中文大学 金属冲压过程中的诊断方法及其设备
JP4648025B2 (ja) 2005-02-09 2011-03-09 株式会社 ソキア・トプコン 測量システム
DE102005007916A1 (de) 2005-02-10 2006-08-17 Hensoldt Ag Zielfernrohr mit einem Entfernungsmesser
EP2386245B1 (de) 2005-02-14 2012-12-19 Digital Signal Corporation Laserradarsystem zur Bereitstellung von gechirpter elektromagnetischer Strahlung
JP2006242755A (ja) 2005-03-03 2006-09-14 Sokkia Co Ltd 測量システム
US7751654B2 (en) 2005-03-04 2010-07-06 Cornell Research Foundation, Inc. Electro-optic modulation
ATE518113T1 (de) 2005-03-11 2011-08-15 Creaform Inc Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen
US7168174B2 (en) 2005-03-14 2007-01-30 Trimble Navigation Limited Method and apparatus for machine element control
EP1703300A1 (de) 2005-03-17 2006-09-20 Leica Geosystems AG Verfahren und System zur Bestimmung von Position und Orientierung eines Objekts
JP5016245B2 (ja) 2005-03-29 2012-09-05 ライカ・ゲオジステームス・アクチェンゲゼルシャフト 物体の六つの自由度を求めるための測定システム
EP1875159A1 (de) * 2005-04-11 2008-01-09 Faro Technologies Inc. Einrichtung zur messung dreidimensionaler koordinaten
US7869944B2 (en) 2005-04-18 2011-01-11 Roof Express, Llc Systems and methods for recording and reporting data collected from a remote location
JP4427486B2 (ja) 2005-05-16 2010-03-10 株式会社東芝 機器操作装置
JP4737668B2 (ja) 2005-05-30 2011-08-03 コニカミノルタセンシング株式会社 3次元計測方法および3次元計測システム
JP4819403B2 (ja) 2005-06-06 2011-11-24 株式会社トプコン 距離測定装置
JP2006344136A (ja) 2005-06-10 2006-12-21 Fanuc Ltd ロボット制御装置
EP1734336A1 (de) 2005-06-13 2006-12-20 Leica Geosystems AG Geodätisches Zielobjekt und Vermessungssystem
GB0512261D0 (en) 2005-06-16 2005-07-27 Land Instr Int Ltd Retro-reflector assembly and opacity monitor incorporating same
JP4828167B2 (ja) 2005-06-16 2011-11-30 株式会社 ソキア・トプコン 距離測定装置及びその方法
US7613501B2 (en) 2005-06-16 2009-11-03 Best Medical International, Inc. System, tracker, and program product to facilitate and verify proper target alignment for radiation delivery, and related methods
DE602006013626D1 (de) 2005-06-23 2010-05-27 Faro Tech Inc Gerät und verfahren zur zurücksetzung einer gelenkarmkoordinatenmessmaschine
US7285793B2 (en) 2005-07-15 2007-10-23 Verisurf Software, Inc. Coordinate tracking system, apparatus and method of use
GB0516276D0 (en) 2005-08-08 2005-09-14 Crampton Stephen Robust cmm arm with exoskeleton
US7331796B2 (en) 2005-09-08 2008-02-19 International Business Machines Corporation Land grid array (LGA) interposer utilizing metal-on-elastomer hemi-torus and other multiple points of contact geometries
US7392592B2 (en) 2005-10-07 2008-07-01 Milwaukee Electric Tool Corporation Ruggedized laser level
US7301165B2 (en) 2005-10-24 2007-11-27 General Electric Company Methods and apparatus for inspecting an object
CN101297176B (zh) 2005-10-26 2010-06-09 特里伯耶拿有限公司 测量方法和测量仪器
US8190030B2 (en) 2005-11-10 2012-05-29 Optical Air Data Systems, Llc Single aperture multiple optical waveguide transceiver
US7511800B2 (en) 2005-11-28 2009-03-31 Robert Bosch Company Limited Distance measurement device with short range optics
US7480037B2 (en) 2005-12-02 2009-01-20 The Boeing Company System for projecting flaws and inspection locations and associated method
WO2007062846A1 (en) 2005-12-02 2007-06-07 Trimble Ab Surveying instrument and surveying method
US20080297808A1 (en) 2005-12-06 2008-12-04 Nabeel Agha Riza Optical Sensor For Extreme Environments
WO2007067181A1 (en) 2005-12-09 2007-06-14 Thomson Licensing Inertial sensor-based pointing device with removable transceiver
EP1806643B1 (de) 2006-01-06 2014-10-08 Drnc Holdings, Inc. Verfahren zur Eingabe von Befehlen und/oder Schriftzeichen für ein tragbares Kommunikationsgerät mit Neigungssensor
CA2636383C (en) 2006-01-13 2015-08-11 Leica Geosystems Ag A tracking method and a measurement system with laser tracker
EP1984710A1 (de) 2006-02-07 2008-10-29 AstraZeneca AB Einrichtung und verfahren für ein spektrometrisches system
JP5196725B2 (ja) 2006-02-09 2013-05-15 株式会社 ソキア・トプコン 測量機の自動視準装置
TWI287622B (en) 2006-03-02 2007-10-01 Asia Optical Co Inc Phase measurement method and application
JP4904861B2 (ja) 2006-03-14 2012-03-28 ソニー株式会社 体動検出装置、体動検出方法および体動検出プログラム
DE102006013185A1 (de) 2006-03-22 2007-09-27 Refractory Intellectual Property Gmbh & Co. Kg Verfahren zur Ermittlung der Position und Orientierung einer Meß- oder Reparatureinrichtung und eine nach dem Verfahren arbeitende Vorrichtung
DE102006013290A1 (de) 2006-03-23 2007-09-27 Robert Bosch Gmbh Vorrichtung zur optischen Distanzmessung sowie Verfahren zum Betrieb einer solchen Vorrichtung
JP2007256872A (ja) 2006-03-27 2007-10-04 Hitachi Ltd プラズマディスプレイ装置
US7556389B2 (en) 2006-03-30 2009-07-07 Raytheon Company Pointable optical system with coude optics having a short on-gimbal path length
US7976387B2 (en) 2006-04-11 2011-07-12 Avago Technologies General Ip (Singapore) Pte. Ltd. Free-standing input device
JP5127820B2 (ja) 2006-04-20 2013-01-23 ファロ テクノロジーズ インコーポレーテッド カメラ利用標的座標計測方法
US7576847B2 (en) 2006-04-21 2009-08-18 Faro Technologies, Inc. Camera based six degree-of-freedom target measuring and target tracking device with rotatable mirror
US8117668B2 (en) 2006-04-27 2012-02-14 Stephen James Crampton Optical scanning probe
DE202006020299U1 (de) 2006-05-16 2008-04-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. 3D-Vermessungsanordnung
JP4380663B2 (ja) 2006-06-08 2009-12-09 コニカミノルタセンシング株式会社 三次元形状測定方法、装置、及びフォーカス調整方法
JP2008002995A (ja) 2006-06-23 2008-01-10 Konica Minolta Sensing Inc 三次元形状測定装置
JP4910507B2 (ja) 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
JP2008014653A (ja) 2006-07-03 2008-01-24 Pentax Industrial Instruments Co Ltd 測量機
JP2008027308A (ja) 2006-07-24 2008-02-07 Sharp Corp モード切り替え用摘みユニット
JP4238891B2 (ja) 2006-07-25 2009-03-18 コニカミノルタセンシング株式会社 三次元形状測定システム、三次元形状測定方法
TWI288230B (en) 2006-08-10 2007-10-11 Asia Optical Co Inc Laser ranging system with a shutter mechanism
DE202006014576U1 (de) 2006-08-21 2008-01-03 STABILA Messgeräte Gustav Ullrich GmbH Schutzeinrichtung
CN101506694B (zh) 2006-08-22 2012-10-03 日本电石工业株式会社 三棱锥型立方角回射部件及其制造方法
US7735234B2 (en) 2006-08-31 2010-06-15 Faro Technologies, Inc. Smart probe
DE102006042311B4 (de) 2006-09-06 2013-12-05 3D-Shape Gmbh Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
US7565216B2 (en) 2006-09-11 2009-07-21 Innovmetric Logiciels Inc. Clearance measurement of manufactured parts
JP5020585B2 (ja) 2006-09-27 2012-09-05 株式会社トプコン 測定システム
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
DE502007003541D1 (de) 2006-10-06 2010-06-02 Leica Geosystems Ag Zielobjekt zur retroreflexion einer optischen strahlung
US8087315B2 (en) 2006-10-10 2012-01-03 Honeywell International Inc. Methods and systems for attaching and detaching a payload device to and from, respectively, a gimbal system without requiring use of a mechanical tool
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
WO2008052348A1 (en) 2006-11-02 2008-05-08 Northern Digital Inc. Integrated mapping system
GB0622451D0 (en) 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
EP2084491A2 (de) 2006-11-21 2009-08-05 Mantisvision Ltd. Geometrische modellierung in 3d und videoinhaltserzeugung in 3d
US7586586B2 (en) 2007-01-19 2009-09-08 Associates Universities, Inc. Fiber optically coupled, multiplexed, and chopped laser rangefinder
JP2008210732A (ja) 2007-02-28 2008-09-11 Hitachi High-Technologies Corp 荷電粒子ビーム装置
EP2132521A2 (de) 2007-03-05 2009-12-16 Absolute Robotics Limited Bestimmung von positionen
WO2008106999A1 (en) 2007-03-08 2008-09-12 Trimble Ab Methods and instruments for estimating target motion
JP5137104B2 (ja) 2007-03-22 2013-02-06 株式会社 ソキア・トプコン 光波距離計
EP2134274A2 (de) * 2007-03-22 2009-12-23 Novalign Orthopaedics, Inc. Frakturfixiervorrichtung mit stützstangen und hülse
WO2008119073A2 (en) 2007-03-28 2008-10-02 Latham Plastics, Inc. Portable optical measurement assembly and methods
WO2008121919A1 (en) 2007-03-30 2008-10-09 Faro Technologies, Inc. Absolute distance meter
KR20100015475A (ko) 2007-04-05 2010-02-12 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
US8578581B2 (en) 2007-04-16 2013-11-12 Pratt & Whitney Canada Corp. Method of making a part and related system
US7835012B1 (en) 2007-05-01 2010-11-16 Lockheed Martin Corporation Alignment interferometer telescope apparatus and method
EP1990607A1 (de) 2007-05-10 2008-11-12 Leica Geosystems AG Positionsbestimmungsverfahren für ein geodätisches Vermessungsgerät
WO2008154408A1 (en) 2007-06-06 2008-12-18 Tobey Wayland E Modular hybrid snake arm
US7876457B2 (en) 2007-06-13 2011-01-25 Nikon Metrology Nv Laser metrology system and method
JP5244339B2 (ja) 2007-06-20 2013-07-24 株式会社ミツトヨ 追尾式レーザ干渉計および追尾式レーザ干渉計の復帰方法
JP2009014639A (ja) 2007-07-09 2009-01-22 Sanyo Electric Co Ltd ビーム照射装置およびレーザレーダ
JP5485889B2 (ja) 2007-08-17 2014-05-07 レニショウ パブリック リミテッド カンパニー 位相解析測定を行う装置および方法
WO2009062153A1 (en) 2007-11-09 2009-05-14 Wms Gaming Inc. Interaction with 3d space in a gaming system
DE102007058692A1 (de) 2007-12-06 2009-06-10 BSH Bosch und Siemens Hausgeräte GmbH Versenkbare Griffvorrichtung für eine Tür eines Hausgeräts und Hausgerät mit einer derartigen Griffvorrichtung
AT506110B1 (de) 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
JP5150234B2 (ja) 2007-12-14 2013-02-20 株式会社トプコン 測量装置
JP2009156772A (ja) 2007-12-27 2009-07-16 Topcon Corp 測量システム
KR101281328B1 (ko) 2008-01-15 2013-07-03 (주)엘지하우시스 전자파 차폐 시트, 그 제조 방법 및 상기를 포함하는휴대폰
KR100832696B1 (ko) 2008-01-18 2008-05-28 임권현 진공척
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
US7738083B2 (en) 2008-02-05 2010-06-15 Asia Optical Co., Inc. Distant measurement method and distant measurement system
US8625086B2 (en) 2008-02-12 2014-01-07 Trimble Ab Determining coordinates of a target in relation to a survey instrument having a camera
US8978440B2 (en) 2008-02-29 2015-03-17 Trimble Ab Automated calibration of a surveying instrument
CN101970985B (zh) 2008-02-29 2013-06-12 特林布尔公司 确定觇标相对于带有至少两台相机的测量仪的坐标
CN101970980B (zh) 2008-03-11 2014-04-09 株式会社尼康 基准球检测装置、基准球位置检测装置和三维坐标测量装置
CN102037308A (zh) 2008-03-21 2011-04-27 维尔瑞尔逊瑞达克逊科技有限公司 提高自动化精度的外部系统
US8239160B2 (en) 2008-03-21 2012-08-07 Analog Devices, Inc. Activity detection in MEMS accelerometers
US20090239581A1 (en) 2008-03-24 2009-09-24 Shu Muk Lee Accelerometer-controlled mobile handheld device
JP5060358B2 (ja) 2008-03-25 2012-10-31 株式会社トプコン 測量システム
DE102008015499C5 (de) 2008-03-25 2013-01-10 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
JP2009240621A (ja) * 2008-03-31 2009-10-22 Hoya Corp 内視鏡装置
EP2108917B1 (de) 2008-04-07 2012-10-03 Leica Geosystems AG Koordinatenmessgerät mit Gelenkarm
US8520930B2 (en) 2008-04-18 2013-08-27 3D Scanners Ltd. Method and computer program for improving the dimensional acquisition of an object
DE102008020772A1 (de) 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US8531650B2 (en) 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
USD605959S1 (en) 2008-07-23 2009-12-15 Leica Geosystems Ag Land surveying total station measuring device
US20100025746A1 (en) 2008-07-31 2010-02-04 Micron Technology, Inc. Methods, structures and systems for interconnect structures in an imager sensor device
US20110003507A1 (en) 2008-08-14 2011-01-06 Andrew Llc Multi-shot Connector Assembly and Method of Manufacture
TW201009650A (en) 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
DE202008013217U1 (de) 2008-10-04 2009-04-02 Sick Ag Beleuchtung zur Erzeugung eines Kontrastmusters
US7908757B2 (en) 2008-10-16 2011-03-22 Hexagon Metrology, Inc. Articulating measuring arm with laser scanner
JP2010105254A (ja) 2008-10-29 2010-05-13 Shisuko:Kk 乾燥用ホッパー
JP2012509464A (ja) 2008-11-17 2012-04-19 ファロ テクノロジーズ インコーポレーテッド 六自由度計測装置及び方法
US20150331159A1 (en) 2008-11-17 2015-11-19 Faro Technologies, Inc. Markings on glass cube-corner retroreflector and method of measuring retroreflector orientation
US9739595B2 (en) 2008-12-11 2017-08-22 Automated Precision Inc. Multi-dimensional measuring system with measuring instrument having 360° angular working range
CN101750012A (zh) 2008-12-19 2010-06-23 中国科学院沈阳自动化研究所 一种测量物体六维位姿的装置
US8803055B2 (en) 2009-01-09 2014-08-12 Automated Precision Inc. Volumetric error compensation system with laser tracker and active target
JP2010169633A (ja) 2009-01-26 2010-08-05 Nikon Corp 形状測定装置
EP2219011A1 (de) 2009-02-11 2010-08-18 Leica Geosystems AG Geodätisches Vermessungsgerät
US8861833B2 (en) 2009-02-18 2014-10-14 International Press Of Boston, Inc. Simultaneous three-dimensional geometry and color texture acquisition using single color camera
EP2399150B1 (de) 2009-02-20 2020-10-07 StereoVision Imaging, Inc. System und verfahren zur erzeugung dreidimensionaler bilder mithilfe von lidar- und videomessungen
US20110316978A1 (en) 2009-02-25 2011-12-29 Dimensional Photonics International, Inc. Intensity and color display for a three-dimensional metrology system
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
EP2226610A1 (de) 2009-03-06 2010-09-08 Leica Geosystems AG Geodätisches Vermessungssystem und Verfahren zum Identifizieren einer Zieleinheit mit einem geodätischen Vermessungsgerät
US20100235786A1 (en) 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
JP2009134761A (ja) 2009-03-16 2009-06-18 Hitachi Ltd 非接触入力インターフェース装置及び情報端末装置
CA2754812A1 (en) 2009-03-19 2010-09-23 General Electric Company Optical gage and three-dimensional surface profile measurement method
US8452569B2 (en) 2009-03-31 2013-05-28 The United States Of America As Represented By The Secretary Of The Navy Laser targeting system
US8339616B2 (en) 2009-03-31 2012-12-25 Micrometric Vision Technologies Method and apparatus for high-speed unconstrained three-dimensional digitalization
US8149390B2 (en) 2009-03-31 2012-04-03 The United States Of America As Represented By The Secretary Of The Navy User interface for laser targeting system
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
USD629314S1 (en) 2009-04-23 2010-12-21 Nikon-Trimble Co., Ltd. Electronic tacheometer
JP5395507B2 (ja) * 2009-05-21 2014-01-22 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム
EP2259013B1 (de) 2009-05-25 2013-11-20 Siemens Aktiengesellschaft Topographische Messung eines Objekts
JP2012530908A (ja) 2009-06-23 2012-12-06 ライカ・ジオシステムズ・アクチェンゲゼルシャフト 座標測定装置
WO2010148526A1 (de) 2009-06-23 2010-12-29 Leica Geosystem Ag Tracking-verfahren und messsystem mit lasertracker
DE102009035336B3 (de) 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
WO2011013079A1 (en) 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
US8659749B2 (en) 2009-08-07 2014-02-25 Faro Technologies, Inc. Absolute distance meter with optical switch
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US7903237B1 (en) 2009-08-13 2011-03-08 Nen-Tsua Li Laser rangefinder with a voice control function
JP2011039005A (ja) 2009-08-18 2011-02-24 Topcon Corp 測定装置
WO2011031538A2 (en) * 2009-08-27 2011-03-17 California Institute Of Technology Accurate 3d object reconstruction using a handheld device with a projected light pattern
DE102009040837A1 (de) 2009-09-10 2011-03-17 Carl Zeiss Ag Vorrichtungen und Verfahren zur Positionsbestimmung und Oberflächenvermessung
US8379224B1 (en) 2009-09-18 2013-02-19 The Boeing Company Prismatic alignment artifact
US20110069322A1 (en) 2009-09-21 2011-03-24 Faro Technologies, Inc. Laser pointing mechanism
CN201548192U (zh) 2009-10-19 2010-08-11 天津鼎成高新技术产业有限公司 一种复合运动机构六自由度实时测量装置
US8384760B2 (en) * 2009-10-29 2013-02-26 Hewlett-Packard Development Company, L.P. Systems for establishing eye contact through a display
US20110112786A1 (en) 2009-11-06 2011-05-12 Hexagon Metrology Ab Cmm with improved sensors
US20110109502A1 (en) 2009-11-09 2011-05-12 Sullivan Steven J Apparatus, system and method for displaying construction-related documents
US7894079B1 (en) 2009-11-09 2011-02-22 Mitutoyo Corporation Linear displacement sensor using a position sensitive photodetector
US8610761B2 (en) 2009-11-09 2013-12-17 Prohectionworks, Inc. Systems and methods for optically projecting three-dimensional text, images and/or symbols onto three-dimensional objects
US8606540B2 (en) 2009-11-10 2013-12-10 Projectionworks, Inc. Hole measurement apparatuses
AT509103B1 (de) 2009-11-16 2012-01-15 Riegl Laser Measurement Sys Verfahren zur stützung der messgenauigkeit von gps/imu-systemen
US8237934B1 (en) 2009-11-18 2012-08-07 The Boeing Company Center marking nest for method of precision locating
US8425059B2 (en) 2009-12-01 2013-04-23 The Boeing Company Low power retro-reflective communications system and method
US8630314B2 (en) 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
WO2011112277A1 (en) 2010-01-18 2011-09-15 Faro Technologies, Inc. Retroreflector probe adaptor for tracking hidden points
WO2011090891A1 (en) 2010-01-20 2011-07-28 Faro Technologies, Inc. Display for coordinate measuring machine
US20110179281A1 (en) 2010-01-20 2011-07-21 Apple Inc. Hash function using a quasi-group operation
WO2011090892A2 (en) 2010-01-20 2011-07-28 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
CN101776982A (zh) 2010-01-21 2010-07-14 中国传媒大学 一种利用数字罗盘进行便携设备控制的方法
JP5538929B2 (ja) 2010-02-02 2014-07-02 新菱冷熱工業株式会社 三次元位置計測及び墨出しシステムとその使用方法
WO2011097018A1 (en) 2010-02-05 2011-08-11 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
GB201003363D0 (en) 2010-03-01 2010-04-14 Renishaw Plc Measurement method and apparatus
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8422034B2 (en) 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US8537371B2 (en) 2010-04-21 2013-09-17 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
ES2817800T3 (es) 2010-04-22 2021-04-08 Metronor As Sistema de medición óptica
CN101806574B (zh) 2010-04-23 2012-05-30 浙江大学 可重构关节臂式坐标测量机
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8485668B2 (en) * 2010-05-28 2013-07-16 Microsoft Corporation 3D interaction for mobile device
US8583392B2 (en) 2010-06-04 2013-11-12 Apple Inc. Inertial measurement unit calibration system
DE102010024014B4 (de) 2010-06-16 2016-04-21 Trimble Jena Gmbh Ziel für ein geodätisches Gerät
EP2400261A1 (de) 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
EP2400379A1 (de) 2010-06-23 2011-12-28 MFA Informatik AG Grafische Steuerung eines Computers durch einen Benutzer
US8964189B2 (en) * 2010-08-19 2015-02-24 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
US9021344B2 (en) 2010-08-31 2015-04-28 New River Kinematics, Inc. Off-line graphical user interface system and method for three-dimensional measurement
US9204129B2 (en) * 2010-09-15 2015-12-01 Perceptron, Inc. Non-contact sensing system having MEMS-based light source
EP2431708A1 (de) 2010-09-16 2012-03-21 Leica Geosystems AG Geodätisches Vermessungssystem mit in einer Fernbedieneinheit integrierter Kamera
AT509852B1 (de) * 2010-10-08 2011-12-15 Volkmar Dr Seyr Flexibler humerusnagel
US8319979B2 (en) 2010-10-26 2012-11-27 Advanced Measurement Systems Single laser beam measurement system
JP5648692B2 (ja) * 2010-10-27 2015-01-07 株式会社ニコン 形状測定装置、形状測定方法、構造物の製造方法およびプログラム
US8938099B2 (en) 2010-12-15 2015-01-20 Canon Kabushiki Kaisha Image processing apparatus, method of controlling the same, distance measurement apparatus, and storage medium
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
DE112012000795B4 (de) 2011-02-14 2015-06-11 Faro Technologies Inc. Würfelecken-Retroreflektor zur Messung von sechs Freiheitsgraden
US8902408B2 (en) 2011-02-14 2014-12-02 Faro Technologies Inc. Laser tracker used with six degree-of-freedom probe having separable spherical retroreflector
GB2511236B (en) 2011-03-03 2015-01-28 Faro Tech Inc Target apparatus and method
CN103430042B (zh) 2011-03-22 2016-06-01 莱卡地球系统公开股份有限公司 有无需接触测量设备而作用的基于手势的测量触发的电光测距设备
US20120242795A1 (en) * 2011-03-24 2012-09-27 Paul James Kane Digital 3d camera using periodic illumination
JP5782786B2 (ja) 2011-04-01 2015-09-24 株式会社ニコン 形状測定装置
JP5869281B2 (ja) * 2011-04-11 2016-02-24 株式会社ミツトヨ 光学式プローブ
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
GB2504890A (en) 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
JP2012225869A (ja) 2011-04-22 2012-11-15 Hitachi Plant Technologies Ltd 計測システム
BR112013029010A2 (pt) 2011-05-09 2017-01-17 Smart Inspection Systems Llc estação de inspeção de metrologia óptica portátil
US20130031106A1 (en) 2011-07-29 2013-01-31 Microsoft Corporation Social network powered query suggestions
JP5804881B2 (ja) 2011-09-30 2015-11-04 ビアメカニクス株式会社 直接描画露光装置用半導体レーザモジュール
US9222771B2 (en) 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
EP2602641B1 (de) 2011-12-06 2014-02-26 Leica Geosystems AG Lasertracker mit positionssensitiven Detektoren zur Suche eines Ziels
CN104094081A (zh) 2012-01-27 2014-10-08 法罗技术股份有限公司 利用条形码识别的检查方法
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
CN105190232A (zh) 2013-03-15 2015-12-23 法罗技术股份有限公司 三维坐标扫描器和操作方法
US9234742B2 (en) 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US10021379B2 (en) 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
US9402070B2 (en) 2014-06-12 2016-07-26 Faro Technologies, Inc. Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality

Also Published As

Publication number Publication date
GB2527992A (en) 2016-01-06
US20140267629A1 (en) 2014-09-18
CN105102926A (zh) 2015-11-25
US10578423B2 (en) 2020-03-03
US20140268093A1 (en) 2014-09-18
JP2016516993A (ja) 2016-06-09
JP2016517513A (ja) 2016-06-16
GB2524931A (en) 2015-10-07
GB201518247D0 (en) 2015-12-02
CN105102925A (zh) 2015-11-25
WO2014149706A1 (en) 2014-09-25
US9494412B2 (en) 2016-11-15
CN105051488A (zh) 2015-11-11
US20160370171A1 (en) 2016-12-22
DE112014001470T5 (de) 2015-11-26
US20140267620A1 (en) 2014-09-18
JP2016519757A (ja) 2016-07-07
GB2524931B (en) 2016-01-27
GB2527991A8 (en) 2016-01-13
US20150192407A9 (en) 2015-07-09
DE112014001459B4 (de) 2019-10-17
US20140267619A1 (en) 2014-09-18
GB2527991B (en) 2018-08-15
US10267619B2 (en) 2019-04-23
US9041914B2 (en) 2015-05-26
GB201513550D0 (en) 2015-09-16
WO2014149701A1 (en) 2014-09-25
WO2014149705A1 (en) 2014-09-25
GB2527991A (en) 2016-01-06
GB201518245D0 (en) 2015-12-02
US20150192406A9 (en) 2015-07-09
US9482514B2 (en) 2016-11-01
GB2527992B (en) 2018-06-27
GB2524931C (en) 2016-02-10
JP6291562B2 (ja) 2018-03-14
DE112014001391T5 (de) 2015-12-03
US20140267623A1 (en) 2014-09-18
US20160364874A1 (en) 2016-12-15
US9448059B2 (en) 2016-09-20
WO2014143644A1 (en) 2014-09-18
US9453717B2 (en) 2016-09-27
WO2014149704A1 (en) 2014-09-25

Similar Documents

Publication Publication Date Title
DE112014001459B4 (de) Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
US10119805B2 (en) Three-dimensional coordinate scanner and method of operation
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
EP2071279B1 (de) Verfahren und Vorrichtung zur Erfassung von Körpermaßdaten und Konturdaten eines Festkörpers
DE112012005524B4 (de) Verfahren zur mechanischen Übermittlung eines Befehls zur Steuerung des Betriebs eines Lasertrackers
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
EP1190211B1 (de) Verfahren zur optischen formerfassung von gegenständen
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE112013002824T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
DE112015004196T5 (de) Gelenkarm-koordinatenmessgerät mit einer 2d-kamera und verfahren zum erhalten von 3d-darstellungen
DE102016205637A1 (de) Gelenkarm-koordinatenmessgerät mit einer 2d-kamera und verfahren zum erhalten von 3d-darstellungen

Legal Events

Date Code Title Description
R409 Internal rectification of the legal status completed
R012 Request for examination validly filed
R409 Internal rectification of the legal status completed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee