DE69628956T2 - Abtastvorrichtung und -verfahren - Google Patents

Abtastvorrichtung und -verfahren Download PDF

Info

Publication number
DE69628956T2
DE69628956T2 DE69628956T DE69628956T DE69628956T2 DE 69628956 T2 DE69628956 T2 DE 69628956T2 DE 69628956 T DE69628956 T DE 69628956T DE 69628956 T DE69628956 T DE 69628956T DE 69628956 T2 DE69628956 T2 DE 69628956T2
Authority
DE
Germany
Prior art keywords
data
points
camera
probe
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69628956T
Other languages
English (en)
Other versions
DE69628956D1 (de
Inventor
Stephen James Waltham Cross Crampton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3 D SCANNERS LTD., LONDON, GB
Original Assignee
Stephen James Waltham Cross Crampton
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=10778272&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69628956(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Stephen James Waltham Cross Crampton filed Critical Stephen James Waltham Cross Crampton
Application granted granted Critical
Publication of DE69628956D1 publication Critical patent/DE69628956D1/de
Publication of DE69628956T2 publication Critical patent/DE69628956T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Description

  • Diese Erfindung betrifft das Gebiet des Abtastens dreidimensionaler Objekte.
  • Reale dreidimensionale Objekte sind unabhängig davon, ob sie in natürlicher Form (beispielsweise geographische Objekte, Pflanzen, Menschen oder tierartige Objekte) oder in vom Menschen erdachter Form (beispielsweise Skulpturen, Reliefe, Autos, Boote, Flugzeuge oder Verbrauchererzeugnisse) auftreten, schwierig abzutasten. Dies liegt an Merkmalen, wie sich schnell ändernden Oberflächennormalen und an Oberflächen, für die es schwierig ist, eine Sichtlinie zu erhalten, weil sie von anderen Teilen des Objekts teilweise abgedeckt wird.
  • Abtastmaschinen, die auch als Digitalisiermaschinen bekannt sind, welche für das Abtasten von Objekten oder Teilen von Objekten vorgesehen sind, können in zwei Typen unterteilt werden, nämlich in durch einen Computer numerisch gesteuerte (CNC) Maschinen und in von Hand betätigte Maschinen. Eine Abtastmaschine weist eine Einheit auf, die eine üblicherweise als eine Sonde bezeichnete Meßeinrichtung enthält.
  • Objekte oder Teile von Objekten können von CNC-Abtastmaschinen mit einer Anzahl von einem Computer numerisch gesteuerter (CNC) linearer und sich drehender motorgetriebener Achsen abgetastet werden. Verschiedene CNC-Maschinen können die Sonde oder das Objekt oder beide durch eine Kombination einer Translation und einer Drehung um diese Achsen bewegen bzw. umorientieren. Es sind verschiedene Maschinenkonstruktionen für verschiedene Objektklassen geeignet. Sonden können vorübergehend oder permanent an den meisten Typen von CNC-Werkzeugmaschinen oder einer CNC-Koordinatenmeßmaschine angebracht werden, welche dann für das Abtasten verwendet werden kann. Beispielsweise können kleine und einfache dreiachsige CNC-Fräsmaschinen verwendet werden, oder es können große, komplexe fünfachsige Maschinen verwendet werden. Die von CNC-Maschinen eingefangenen Punkte liegen gewöhnlich auf einem rechtwinkligen Gitter, und die Rate variiert von etwa 1 Punkt je Sekunde bis zu etwa 20000 Punkten je Sekunde, wobei dies von der verwendeten Technologie und dem abgetasteten Objekt abhängt. Die Punkte von diesen Abtastmaschinen sind in der Größenordnung von 0,05 mm genau. CNC-Maschinen mit Sonden tasten durch Ausführen von einem oder mehreren Programmen ab, welche die Achsen der Maschine so bewegen, daß eine Relativbewegung zwischen der Sonde und dem Objekt auftritt.
  • CNC-Maschinen sind kostspielig, wobei dies teilweise an der Aufnahme von Motoren und den zugeordneten Einrichtungen zum Sicherstellen einer genauen Bewegung, wie Linearführungen und Antriebsschnecken, liegt. Wenige CNC-Maschinen sind flexibel genug, damit die Sonde in sechs Freiheitsgraden orientiert werden kann, um die vollständige Oberfläche eines komplexen Objekts abzutasten. Selbst wenn eine CNC-Maschine sechs Freiheitsgrade hat, ist sie häufig nicht flexibel genug, um die Sonde zu positionieren, um die vollständige Oberfläche des Objekts abzutasten, ohne mit dem Objekt zusammenzustoßen. Wenn das Objekt eine Person oder ein kostspieliger Gegenstand ist, kann das Risiko der Verwendung einer CNC-Maschine inakzeptabel werden, und es wäre erforderlich, eine Maschine herzustellen, die sowohl die Sicherheitsals auch die Abtastanforderungen für die Anwendung erfüllt. Die Programmierung einer CNC-Maschine, so daß die Oberfläche des Objekts vollständig abgetastet wird, ohne daß die Sonde oder die Maschine mit dem Objekt zusammenstößt, ist häufig sehr komplex. Gewöhnlich bedeuten die Konstruktion der Maschine und die der Konstruktion eigenen Freiheitsgrade und Begrenzungen der Sondenkonstruktion, wie der Abstand zwischen der Sonde und dem Objekt während des Abtastens, daß es nicht möglich ist, eine Abtaststrategie zu entwickeln, welche die vollständige Oberfläche des Objekts abtastet. Es ist üblich, daß das Objekt während des Abtastens ein oder mehrere Male von Hand aufgenommen und an einer anderen Position oder in einer anderen Orientierung wieder angeordnet werden muß. Jedesmal, wenn dies geschieht, muß das Objekt wieder in bezug auf ein gleichmäßiges Koordinatensystem angeordnet werden, so daß die Daten von den verschiedenen Abtastvorgängen genau kombiniert werden können.
  • Die vorliegende Erfindung betrifft von Hand betriebene Abtastmaschinen.
  • Von Hand betriebene Abtastmaschinen können in drei Typen eingeteilt werden, nämlich in Maschinen mit einem horizontalen Arm, in Maschinen mit mehrgelenkigen Armen und in Vorrichtungen, die auf einer Fernpositions-Erfassungseinrichtung beruhen.
  • Von Hand betriebene, einen horizontalen Arm aufweisende Meßmaschinen haben gewöhnlich drei orthogonale Achsen und beruhen gewöhnlich auf einer Konstruktion mit einer sich bewegenden Säule. Diese Maschinen sind gewöhnlich recht groß, wobei sich das Bett auf dem Fußbodenniveau befindet, so daß große Gegenstände, wie Autos, leicht auf sie und von ihnen fort bewegt werden können. Häufig können Motoren an einer oder mehreren Achsen angebracht werden, um die manuelle Bewegung der Maschine zu unterstützen. Die Sonde wird normalerweise in einer festen Orientierung am Ende des horizontalen Arms angebracht. Diese Orientierung kann geändert werden, und es können verschiedene Vorrichtungen zwischen dem Ende des horizontalen Arms und der Sonde angebracht werden, um beim Wechseln der Orientierung zu helfen, wobei die meisten dieser Vorrichtungen zwei Achsen haben. Maschinen mit einem horizontalen Arm haben den Nachteil, daß sie nicht leicht dazu in der Lage sind, die Sonde in sechs Freiheitsgraden zu orientieren. Die begrenzte Flexibilität der Konstruktion einer Maschine mit einem horizontalen Arm bewirkt, daß der größte Teil der fernen Seite des Objekts nicht abgetastet werden kann.
  • Mehrgelenkige Arme weisen üblicherweise mehrere Verbindungsglieder auf, und sie sind für das Abtasten komplexer Objekte verfügbar. Ein mehrgelenkiger Arm hat typischerweise 6 Gelenkachsen, er kann jedoch auch mehr oder weniger Gelenkachsen aufweisen. Am Ende des mehrgelenkigen Arms befindet sich ein Spitzenbezugspunkt in der Art einer Kugel, deren Mitte der Bezugspunkt ist, oder eines in einem Punkt endenden Kegels. Das Abtasten wird ausgeführt, indem der Punkt oder die Kugel in Kontakt mit dem abgetasteten Objekt gebracht wird. Der Computer, der den mehrgelenkigen Arm überwacht, mißt dann den Winkel an allen Gelenken des mehrgelenkigen Arms und berechnet die Position dieses Bezugspunkts im Raum. Die Richtung der letzten Verbindung im mehrgelenkigen Arm wird auch berechnet. Positionen können typischerweise kontinuierlich mit einer Rate von etwa 100 Punkten je Sekunde ausgegeben werden, die Rate kann jedoch auch viel größer oder viel kleiner sein. Die Genauigkeit liegt in der Größenordnung von 0,1 bis 0,5 mm. Die Punkte von dem Arm sind gewöhnlich spärlich und unorganisiert. Die Spärlichkeit und die mangelnde Organisation der Punkte machen es schwierig, ausreichend Informationen zum Erstellen eines Computermodells des Objekts mit einer annehmbaren Qualität bereitzustellen. Ein mehrgelenkiger Arm mit mehreren Verbindungsgliedern hat ein begrenztes Arbeitsvolumen. Falls ein größeres Arbeitsvolumen erforderlich ist, werden die Arme im allgemeinen sehr kostspielig, weniger genau und ermüdend sowie schwer zu betätigen. Das begrenzte Arbeitsvolumen kann durch sprungweises Bewegen vergrößert werden, wobei der Arm bzw. die Basis sprungweise bewegt wird, um auf ein anderes Volumen zuzugreifen, hierfür ist jedoch ein zeitaufwendiges System erforderlich, das jedesmal dann, wenn der Arm bewegt wird, wenigstens 3 Punkte registriert und die Datensätze von jeder Armposition rekombiniert. Hersteller mehrgelenkiger Arme stellen vorkalibrierte Arme und Testverfahren bereit, die der Benutzer verwenden kann, um sicherzustellen, daß der Arm noch mit einer annehmbaren Genauigkeit kalibriert ist.
  • Diese Testverfahren verwenden beispielsweise den Standard-Spitzenbezugspunkt am Ende des Arms und eine Bezugskugel oder eine Bezugs-Kugelstange, die ein Stab mit zwei zylindrischen Schalen ist, der einen genau bekannten Abstand zwischen einer Ausgangskugel und einem Ende einer Armkugel aufweist. Wenn die Armspitze am Ende der Kugelstange auf der Oberfläche eines kugelförmigen Bereichs bewegt wird, zeichnet der Arm Positionen auf, die später mit einer vollkommenen Kugel verglichen wird, und es werden Fehlerschätzungen für den Arm ausgegeben.
  • Fernpositions-Erfassungsvorrichtungen umfassen von Hand gehaltene Vorrichtungen, welche Positionsinformationen in einem kalibrierten Bezugsvolumen unter Verwendung verschiedener physikalischer Verfahren einschließlich elektromagnetischer Impulse und Schallwellen senden oder empfangen. Eine von Hand gehaltene Vorrichtung kann durch ein Kabel mit dem restlichen System verbunden sein. Diese Vorrichtungen neigen dazu, Abtastpunkte mit sehr großen Fehlern zu erzeugen, und manche Vorrichtungen können nicht arbeiten, wenn das abgetastete Objekt metallische Bestandteile aufweist. Sie sind weniger genau als mehrgelenkige Arme, wobei die Genauigkeiten in der Größenordnung von 0,5 mm und darüber liegen.
  • Es gibt drei breite Kategorien von abtastenden Sonden, die am Ende einer mehrgelenkigen Abtastmaschine angebracht werden können, nämlich Punkt-Abtastsonden, Streifen-Abtastsonden und Flächensonden. Punktsonden messen einen einzigen Punkt zur Zeit, und die Technologien umfassen mechanische Kontaktverfahren und optische Abstandsmeßverfahren. Streifensonden messen eine Anzahl von Punkten in einer Zeile entweder gleichzeitig oder schnell in einer Abtastfolge, wobei die gebräuchlichste Technologie in einer Laserstreifentriangulation besteht. Flächensonden messen ein zweidimensionales Feld von Punkten auf einer Oberfläche entweder gleichzeitig oder in einer Abtastfolge, wobei die gebräuchlichsten Technologien in einer Interferenzstreifen- und einer Mehrfachstreifenprojektion bestehen. Es ist bei manchen Flächenverfahren erforderlich, daß die Vorrichtung während der Datenerfassung einige Sekunden ruhig gehalten wird. Streifen- und Flächenverfahren haben einen eingebauten Geschwindigkeitsvorteil gegenüber Punktverfahren, weil es eine geringere Bewegung der Sonde in Bezug auf das Objekt gibt. Es gibt Unterschiede zwischen den Verfahren in Bezug auf die Genauigkeit und die Kosten, diese lassen sich jedoch nicht für die Kategorie verallgemeinern, wobei eine bestimmte Flächentechnologie beispielsweise kostengünstiger und genauer sein kann als eine andere Punkttechnologie.
  • Mittel zum Erfassen unabhängiger Bezugs- und Merkmalspunkte durch Kontakt sind wohlbekannt und wirksam. Strukturiertes Licht unter Verwendung von Streifen- oder Flächenverfahren ist nicht gut für das Erfassen unabhängiger Merkmalspunkte geeignet, weil es für den Bediener keinen Weg gibt, einen bekannten Punkt auf dem Objekt mit einem Punkt auf dem Streifen oder in dem Bereich auszurichten.
  • Geometrische Fehler beim Abtastprozeß stammen von vielen Quellen. CCD-Kameras können Videos typischerweise mit 25 Rahmen je Sekunde erfassen. Ein Hauptnachteil bei der normalen Verwendung besteht darin, daß bei jeder gegebenen Anforderung eines Rahmens eine Veränderlichkeit von 40 ms bis zum Beginn der Erfassung dieses Rahmens auftritt. Falls die Sonde beispielsweise mit 100 mm/s bewegt wird, kann dies zu einem geometrischen Fehler von 4 mm in den Sondendaten führen. Die Dauer der Rahmenerfassung hängt von der Verschlußgeschwindigkeit ab, wobei 1/100 s beispielsweise 10 ms entspricht. Ein Hauptnachteil bei der normalen Verwendung besteht darin, daß ein zusätzlicher geometrischer Fehler erzeugt wird, falls die Sonde mit einer geringen Verschlußgeschwindigkeit bewegt wird. Ein Arm ist typischerweise durch ein serielles Kabel mit einem Computer verbunden, wobei Arme typischerweise 125 Positionen je Sekunde erzeugen, wenn sie sich bewegen, wobei bei dieser Rate eine Veränderlichkeit von 8 ms zwischen dem Zeitpunkt, zu dem eine Position am Computer erforderlich ist, und dem Zeitpunkt, zu dem sie ankommt, auftritt. Hierdurch kann auch ein geometrischer Fehler herbeigeführt werden, wenn sich die Sonde bewegt. Die Gesamtveränderlichkeiten der CCD-Kamera und des Arms können große angesammelte Fehler hervorrufen.
  • Es gibt im heutigen Gebrauch einen großen Bereich von Formaten für 3D-Informationen. Diese umfassen die allgemeinen Kategorien Punktformate, Polygonformate und komplexe Oberflächenformate.
  • Punktformate umfassen unabhängige Punkte, Punktlinien, in denen eine Ebene eine Fläche schneidet, 2,5D-Punktflächen, die gemeinhin als Bereichsbilder bekannt sind, welche einwertig in Z- und 3D-Punktfeldern sind, die häufig von medizinischen Abtasteinrichtungen verwendet werden. Die Punktformate haben viele Standarddarstellungen einschließlich des Range Image Standard (RIS), der sich aus dem europäischen ESPRIT Research & Development Project 6911, ergibt, IGES und DXF, die von AutoDesk Inc. in den USA veröffentlicht wurden.
  • Polygonformate umfassen Polygone unterschiedlicher geometrischer Form. Polygone können 3- oder mehrseitig sein, und ihre Formate können gemischte Anzahlen von Seiten oder stets die gleiche Anzahl von Seiten umfassen. Spezialfälle, wie die Delaunay-Triangulation, können die Positionierung von Scheitelpunkten und die relativen Längen von Polygonseiten spezifizieren. Standarddarstellungen von Polygonformaten umfassen STL, veröffentlicht von 3D Systems Inc. in den USA, IGES, OBJ, veröffentlicht von Wavefront Inc. in den USA, und DXF.
  • Komplexe Oberflächenformate umfassen Bezier-, NURBS- und COONS-Flecken. Standarddarstellungen komplexer Oberflächenformate umfassen IGES, VDA-FS, SET, STEP und DXF.
  • Der Zweck des Abtastens kann einfach darin bestehen, eine Anzahl dreidimensionaler Punkte an der Oberfläche des Objekts zu sammeln, oder er kann darin bestehen, ein Computermodell in einem Format zu erzeugen, das für die Anwendung nützlich ist, in der das Modell zu verwenden ist.
  • Es ist im allgemeinen wahr, daß eine Punktwolke allein bei vielen Anwendungen nicht sehr gut verwendbar ist und daß mehr Struktur erforderlich ist, um ein Computermodell einzurichten, so daß es zur Manipulation bei typischen Anwendungen, wie einer Sichtbarmachung, einer Animation, einer Formgestaltung und einer Oberflächen- oder Festkörpermodellierung, wirksam ist.
  • Häufig lassen sich Vorteile erzielen, wenn die Größe der den Modellformaten zugeordneten Dateien verringert wird. Jede Datei kann, unabhängig davon, welches ihr Format ist, unter Verwendung umkehrbarer Standard-Anwenderprogramme, wie PKZIP/PKUNZIP von PKWare aus den USA, komprimiert werden. Bei 3D-Punktfeldern kann ein Oktettformat zum Verringern der Größe der eine Oberfläche darstellenden Felder verwendet werden, wobei ein Oktettformat ein Würfelvolumen in acht kleinere Würfel unterteilt und Würfel nur dann weiter in acht Würfel unterteilt, falls sie Informationen enthalten. Ein Oktettformat ist umkehrbar. Beim Übergehen von einer unstrukturierten Punktdarstellung zu Polygonformaten oder komplexen Oberflächenformaten werden häufig große Kompressionen erzeugt, sie beruhen jedoch auf Näherungen, so daß der Prozeß fast immer unumkehrbar ist und es auch schwierig ist, ihn zu automatisieren, um ausreichend gute Ergebnisse zu erhalten. Eine Sehnentoleranzbildung ist ein weitverbreitet verwendetes Verfahren zum Verringern der Anzahl diskreter Punkte in einer 2D- oder 3D-Polylinie. Als eine Zwischendatenstruktur weist sie die Nachteile auf, daß die Zwischendatenstruktur nicht die Orientierung jedes Streifens aufzeichnet, daß sie keine Unterbrechungen in den Daten aufzeichnet, sondern annimmt, daß alle Punkte durch eine Fläche verbunden sind, und daß sie keine Sprünge in den Daten, wie jene, die durch Abdeckungen hervorgerufen werden, aufzeichnet.
  • Die meisten Abtastungen werden heutzutage unter Verwendung eines mehrgelenkigen Arms mit einem Spitzenbezugspunkt ausgeführt. Es ist üblich, zuerst das ab zutastende Objekt mit einer permanenten oder vorübergehenden Markierungsvorrichtung in der Art eines Tintenstifts oder einer Ritzvorrichtung zu markieren, um ein polygonales Netz von Splines zu erzeugen. Es wird dann an jedem Schnittpunkt des Netzes ein einziger Punkt abgetastet. Im Computer werden die Punkte zu einer Polygonalstruktur verbunden. Der Gesamtprozeß (Markieren, Abtasten und Verbinden) zur Erzeugung eines 3D-Polygonalmodells läuft bei einer typischen Rate von 1 Punkt (oder Scheitelpunkt in dem Modell) je 3 Sekunden ab. Bei manchen Implementationen wird das Netz nicht markiert, sondern es erscheint auf einem Computerbildschirm, während jeder Punkt abgetastet wird, wobei das Netzwerk bei dieser Implementation interaktiv aufgebaut wird. Dieses Verfahren ist für Modelle mit einer verhältnismäßig geringen Anzahl von Scheitelpunkten, d. h. Hunderten und Tausenden von Scheitelpunkten, geeignet. Das Verfahren ist sehr langsam, es erfordert Geschicklichkeit, Geduld und Konzentration, und es ist ein hoher Aufwand an menschlicher Arbeitszeit erforderlich, was insbesondere bei großen, detaillierten Objekten der Fall ist, bei denen 3 Wochen für das Abtasten erforderlich sein können.
  • Ein alternatives Verfahren zum Abtasten mit einem mehrgelenkigen Arm und einem Kontakt-Spitzenbezugspunkt wurde häufig versucht, bei dem unabhängige Punkte ohne die Hilfe eines Netzes schnell erfaßt werden. Die Punkte werden dann in ein Oberflächenerzeugungs-Softwarepaket eingegeben, welches dann ein Polygonalnetz zwischen den Punkten aufbaut. Die "Polygonisation" nicht organisierter Datenpunkte ist jedoch gewöhnlich sehr langsam, und die Geschwindigkeit nimmt stark ab, wenn die Anzahl der Punkte zunimmt. Die Ergebnisse sind gewöhnlich so schlecht, daß sie inakzeptabel sind. Gewöhnlich ist ein erhebliches Maß an Handbearbeitung der Daten erforderlich.
  • Gemäß der vorliegenden Erfindung ist eine Abtastvorrichtung zum Abtasten eines Objekts zum Erzeugen eines dreidimensionalen Computermodells von diesem gemäß dem vorliegenden Anspruch 1 oder 3 vorgesehen. Eine Vorrichtung zur Verwendung in einer solchen Abtastvorrichtung ist in Anspruch 2 bzw. 4 beansprucht.
  • Gemäß der Erfindung ist auch ein Verfahren gemäß dem vorliegenden Anspruch 5 vorgesehen.
  • Ausführungsformen der Erfindung werden nun nur als Beispiel mit Bezug auf die anliegenden Figuren beschrieben.
  • Es zeigen:
  • 1 eine schematische Darstellung einer Abtastvorrichtung gemäß einer Ausführungsform der Erfindung,
  • 2 eine schematische perspektivische Darstellung einer Sonde,
  • 3a eine erste Ausführungsform der Konfiguration der in einer Sonde untergebrachten optischen Elemente,
  • 3b eine Lampenkonfiguration,
  • 3c eine Alternative zur Lampenkonfiguration aus 3b,
  • 3d eine Graphik, in der die Intensität als Funktion des Abstands entlang der Linie A1-A2 aus 3a dargestellt ist,
  • 4 eine zweite Ausführungsform der Konfiguration der in einer Sonde untergebrachten optischen Elemente,
  • die 5a bis 5d ein Verfahren zum Kalibrieren der Farbe der Abtastvorrichtung aus 1,
  • 6 ein schematisches Blockdiagramm, das das Erfassen von Farb- und Positionsdaten zeigt,
  • 7 eine schematische Darstellung, die zeigt, wie die Erfassung der Farb- und Positionsdaten synchronisiert wird,
  • 8 eine schematische Darstellung des Endes des mehrgelenkigen Arms der Vorrichtung aus 1,
  • 9 eine schematische Darstellung des Drehtisches und des mehrgelenkigen Arms der Vorrichtung aus 1,
  • 10 die Anbringung der Sonde an dem mehrgelenkigen Arm,
  • 11 die Justierung der Halterung an dem mehrgelenkigen Arm,
  • 12 die Justierung der Sonde an dem mehrgelenkigen Arm,
  • 13 ein lineares Bereichsbild,
  • die 14a, 14b zylindrische Bereichsbilder,
  • 15 das Bereichsbild-Anordnungsverfahren,
  • 16 das Oberflächennormalen-Erweiterungsverfahren,
  • 17 die Struktur eines einzelnen Punkts in einem Bereichsbild,
  • 18 die Darstellung eines Objekts durch drei Bereichsbilder,
  • 19 das Bereichsbild-Aktualisierungsverfahren,
  • die 20a und 20b einen ersten und einen zweiten auf einem CCD-Feld erfaßten Streifen,
  • die 20c, 20d, 20e und 20f die jeweiligen erfaßten Datenpunkte und Ketten von Datenpunkten von dem ersten und dem zweiten Streifen aus den 20a und 20b,
  • 20g anhand dieser Ketten erzeugte Polygone,
  • 21 ist nun gelöscht,
  • 22 eine Farbbildzuordnung,
  • 23 den Zeitablauf für die Positionsinterpolation,
  • 24 das Auslösen der Armpositionsmessung,
  • 25 ein Objekt, auf dem sich markierte Linien befinden,
  • 26a eine an einem mehrgelenkigen Arm, der an einer horizontalen Armmaschine angebracht ist, angebrachte Sonde,
  • 26b ist nun gelöscht,
  • 27 einen menschlichen Fuß, der abgetastet wird,
  • 28a Streifenabschnitte eines Rohrnetzes und eines Bretts,
  • 28b Teil-Polygonmodelle eines Rohrnetzes und eines Bretts,
  • 28c ein extrapoliertes Polygonmodell eines Rohrnetzes,
  • 29a eine Streifenabtastung und
  • 29b eine Flächenabtastung.
  • Wie in 1 dargestellt ist, weist eine Abtastvorrichtung 100 einen mehrgelenkigen Arm 1 mit einer Armsteuereinheit 2 und einer Sonde 3 auf. Die Steuereinheit 2, die eine Verarbeitungseinheit 10 aufweist, ist mit einem Computer oder einer Verarbeitungseinheit 4 und einem Farbbildschirm 7 gekoppelt. Die Sonde 3 ist auch mit einer Sondensteuereinheit 5 gekoppelt, die ebenfalls mit dem Computer 4 gekoppelt ist. Die Zwischendaten werden auf dem Farbbildschirm 7 als generierte Polygone 13 angezeigt. Die Sonde 3 liefert einen Streifen 8, der auf ein Objekt 9 projiziert wird, das auf einem Drehtisch 14 positioniert ist. Der Streifen 8 liegt in Form einer Lichtebene vor. Es sind auch Tasten 6 zum Steuern der Datenerfassung bereitgestellt. Eine Farb-Bildeinfangeinrichtung 11 in dem Computer 4 ist auf einem Standardbus 12 angebracht und mit der Sonde 3 gekoppelt.
  • Der Computer 4, die Sondensteuereinheit 5, die Armsteuereinheit 2, die Tasten 6, die Farb-Bildeinfangeinrichtung 11 und der Bildschirm 7 sind getrennt bereitgestellt, wobei der Computer 4 und der Bildschirm 7 beispielsweise ein Personalcomputer und eine VDU sein können, wenngleich es bei manchen Anwendungen zweckmäßiger sein kann, wenn einer von ihnen oder alle an der Sonde 3 bereitgestellt sind.
  • Der mehrgelenkige Arm 1 und die Sonde 3 sind durch die vorstehend erörterten Steuereinheiten 2, 5 mit dem Computer 4 gekoppelt. Der Computer 4 empfängt Informationen von dem Abtaststreifen 8, die Position bzw. die Orientierung des Arms 1, ausgedrückt durch die X-, Y-, Z-Koordinaten in Bezug auf die Koordinaten I, J, K der Oberflächennormalen der Sonde 3 und Farbdaten, falls erforderlich.
  • In 2 ist eine Ausführungsform der Sonde 3 dargestellt. Die Sonde 3 ist leichtgewichtig und elastisch, so daß sie ihre Kalibrierung selbst dann nicht verliert, wenn gegen sie gestoßen wird.
  • Mit Bezug auf 29a sei bemerkt, daß das strukturierte Licht vorzugsweise als eine Lichtebene 364 projiziert wird, so daß ein Streifen 8 auf einer Betrachtungsebene 360 gebildet wird, die senkrecht zur Projektionsachse 361 der Signalerzeugungseinrichtung 362 steht und sich in dem durchschnittlichen Abstand S von der Signalerzeugungseinrichtung befindet.
  • Mit Bezug auf 29b sei bemerkt, daß das strukturierte Licht so projiziert werden kann, das ein Muster 363 in einem Bereich 365 einer Betrachtungsebene 360 gebildet wird, die senkrecht zur Projektionsachse 361 der Signalerzeugungseinrichtung 362 steht und sich in dem durchschnittlichen Abstand S von der Signalerzeugungseinrichtung befindet. Das Muster 363 in diesem Beispiel besteht aus einer Anzahl von Streifen, die unterschiedliche Farben aufweisen können.
  • Es werden zwei alternative Ausführungsformen der Sonde 3 beschrieben. Mit Bezug auf die 3a, 3b, 3c, 3d wird nun eine Ausführungsform der Sonde 3 beschrieben. Die Sonde 3 weist eine Anzahl an einer Grundplatte 20 angebrachter Komponenten auf. Ein Streifengenerator 22, der beispielsweise eine Laserdiode enthält, liefert den Streifen 8 zur Projektion auf das abzutastende Objekt 9. Typischerweise ist der Laser ein Laser der Klasse 2 oder weniger nach der Klassifikation CDRH 1040.11 in den USA, bzw. er weist weniger als 1 mW an Leistung bei einer Wellenlänge von 670 nm auf. Der Streifen 8 wird nominell auf irgendeinen Punkt P fokussiert. Eine Linsenanordnung 24 wird verwendet, um das Bild auf eine hochauflösende CCD-Kamera 25 zu fokussieren. Die Kamera kann unter einem Winkel orientiert werden, der die Scheimpflug-Bedingung erfüllt. Ein optisches Interferenz-Sperrfilter 26 wird verwendet, um selektiv Licht mit der Wellenlänge des Streifens 8 abzubilden. Ein einfaches Kantenfilter 27 aus Glas verringert das Umgebungslicht innerhalb der Sonde.
  • Informationen zur Farbe der Oberfläche des Objekts können in Intensitätsskalen oder Farbskalen, wie RGB, aufgezeichnet werden.
  • Eine Intensitätsskalenschätzung der Farbe der Oberfläche kann durch Aufzeichnen des Werts des reflektierten Lichts des Streifens, während er auf die hochauflösende CCD-Kamera 25 abgebildet wird, an jedem Punkt erhalten werden. Ein höherer Wert weist auf eine Lichtoberfläche an diesem Punkt hin, welche einen großen Teil des projizierten Lichts streut, und ein niedriger Wert weist auf eine dunkle Oberfläche an diesem Punkt hin, welche einen großen Teil des projizierten Lichts absorbiert. Diese Hinweise können falsch sein, wie es beispielsweise auf spiegelnden Oberflächen der Fall ist, was Fachleuten bekannt ist.
  • Eine Schätzung der Farbe der Oberfläche kann durch eine Farbkamera 29, die ein Farb-CCD-Feld aufweist, erhalten werden. Es ist für eine Farbabtastung erforderlich, daß das Objekt beleuchtet wird. Die Beleuchtung kann durch Umgebungslicht von äußeren Lichtquellen oder durch sich auf der Sonde befindende Lampen erfolgen. Es gibt mehrere Nachteile, die sich bei der Verwendung von Umgebungslicht nur für das Farbabtasten ergeben. Erstens ändert sich die Intensität des Umgebungslichts über nahezu jedem Objekt in einer Standardumgebung in der Art eines Raums mit Deckenbeleuchtung. Weiterhin kann es zeitaufwendig sein, eine Anzahl von Lichtquellen zu positionieren, um das Objekt gleichmäßig zu beleuchten. Drittens kann die Sonde selbst Schatten auf das Objekt werfen.
  • Vier Lampen 28a, 28b, 28c, 28d sind zur Beleuchtung um die Linse 31 der Kamera 29 bereitgestellt, oder es könnte eine Ringlampe 28' verwendet werden. Diese Konfiguration wird verwendet, um jegliche Probleme mit einer Schattenbildung zu vermeiden. Die Lampen können jeweilige Rückreflektoren 32a, 32b, 32c, 32d aufweisen, sofern dies angemessen ist. Die Lampen sind so eingestellt, daß eine durchschnittliche Intensität von etwa 80–150 Lux erzielt wird, die Intensität könnte jedoch auch viel größer oder viel kleiner sein, und das Umgebungslicht wird, beispielsweise durch Abdunkeln oder Ausschalten von Deckenleuchten, erheblich unter dieses Niveau verringert. Hierdurch werden jegliche Auswirkungen von Änderungen des Umgebungslichts ausgeschaltet. Die Lampen können in Bezug auf die Kameraachse geneigt werden, um zu gewährleisten, daß Licht mit einer gleichmäßigeren Intensität im durchschnittlichen Abtastabstand auf das Objekt 9 projiziert wird. Die Lampen sollten eine geringere Größe aufweisen, um die geringstmögliche Gewichtsbelastung zu erhalten, insbesondere falls zwei oder mehr Lampen verwendet werden. Um ihre Lebensdauer zu verlängern, können sie während bestimmter Zeiträume, beispielsweise während die Erfassung jedes Bilds vorbereitet wird, bei einer niedrigeren Spannung betrieben werden. Wenn der Bediener eine Farbbilderfassung auslöst, kann die an die Lampen angelegte Spannung sofort auf das Maximum erhöht werden. Die Lampen werden nur für die Farberfassung eingeschaltet. Während des Prozesses der dreidimensionalen Erfassung werden die Lampen ausgeschaltet, woraus sich der zusätzliche Vorteil ergibt, daß das Signal-Rausch-Verhältnis erhöht wird. Es kann über den Lampen eine Zugangsplatte 35 bereitgestellt werden, so daß die Lampen leicht ersetzt werden können, ohne daß die Sonde geöffnet wird und riskiert wird, daß ihre Kalibrierung verlorengeht. Zum Verbessern der Ergebnisse, wenn eine reflektierende Oberfläche abgetastet wird, wird ein polarisierendes Material 34 zwischen der Kamera 29 bzw. den Lampen 28a, 28b, 28c, 28d und dem Objekt 9 angeordnet. Um die Änderungen des projizierten Lichts zu verringern, werden Diffusoren 33a, 33b, 33c, 33d in dem Lichtweg zwischen jeder Lampe und dem Objekt 9 angeordnet, oder es werden alternativ das Lampenglas oder die Rückreflektoren entsprechend behandelt.
  • Mit Bezug auf 4 wird nun die zweite Ausführungsform der Sonde 3 beschrieben. Wie auch in Zusammenhang mit der ersten Ausführungsform bevorzugt ist, wird die Grundplatte 20 mit einer entfernbaren zweiteiligen Abdeckung 21 versehen, die daran befestigt ist, um ein Gehäuse für die Komponenten der Sonde 3 festzulegen, das dazu dient, Umgebungslicht auszuschließen und die Komponenten zu schützen. Es kann eine metallische Innenbeschichtung aufweisen, um elektromagnetische Emissionen und die elektromagnetische Suszeptibilität zu verringern. Die Abdeckung ist für beide Ausführungsformen geeignet.
  • Die Sonde 3 gemäß der zweiten Ausführungsform kann auch die Farbe der Oberfläche des Objekts 9 erfassen. Die Farbe wird unter Verwendung eines optischen Systems erfaßt, das mit dem Lichtstreifen 8 koplanar ist. Der Hauptvorteil der Koplanarität besteht darin, daß dabei die Farbe jedes Punkts direkt bereitgestellt wird, während nicht koplanare Systeme, wie gemäß der ersten Ausführungsform, eine umfangreiche Nachverarbeitungsberechnung erfordern, um die erfaßten Farbdaten auf die erfaßten 3D-Daten abzubilden. Bei nicht koplanaren Systemen ist die Lage des Streifens in der Farbkamera wegen Fehlausrichtungen der zwei Kameras in erheblichem Maße veränderlich, woraus sich eine Ausführungsform ergibt, die zum Abtasten in zwei Durchgängen betätigt wird, nämlich 3D und Farbe an Stelle des einen Durchgangs, der durch die zweite Ausführungsform erreichbar ist.
  • Während der Verwendung, wobei der Streifengenerator 22 ausgeschaltet ist und die Lampe 28 eingeschaltet ist, wird eine Farbprobe 32 des Objekts 9 entlang der Richtung zurück gerichtet, in der sich der Streifen 8 befinden würde, falls der Streifengenerator beleuchtet werden würde, wo er durch einen halb versilberten Spiegel 30 reflektiert wird und durch eine Linsenanordnung 31 auf die Farbkamera 29 fokussiert wird.
  • In einer Sonde 3, in der der Streifengenerator 22 einen weißen Streifen erzeugt, können die Farbe und die Position gleichzeitig erfaßt werden, wobei die Umgebung in diesem Fall dunkel sein müßte und eine Beleuchtung 28 nicht erforderlich wäre.
  • Es ist ein Nachschlageverfahren vorgesehen, um zu bestimmen, wo die Farbe aus dem rechtwinkligen Feld der Farbkamera 29, abhängig vom Objektabstand S aller Punkte entlang dem Streifen 8 auszulesen ist. Mit Bezug auf 5 sei bemerkt, daß eine Farbkamera-Nachschlagetabelle 166 eingerichtet wird, indem der Streifen an einer ausreichenden Anzahl von Punkten in einem rechtwinkligen Feld, das die Abstandsmeßtiefe und die Streifenmeßlänge abdeckt, betrachtet wird, wenn er permanent beleuchtet wird. Ein flaches Objekt 161 mit einer festen Länge ist ein Gegenstand, der für diesen Zweck verwendet werden kann, und es weist typischerweise eine weiße Oberfläche auf. Das flache Objekt 161 wird auf einem den Lichtstreifen absorbierenden Hintergrund 162 angeordnet. Die Sonde 3 und das flache Objekt 161 bewegen sich zueinander in Richtung der W-Achse, so daß die Streifen 163 abgebildet werden. Das Farbkamerabild 165 zeigt die in einem Bereich 164 des Felds gesammelten abgebildeten Streifen 163a. Im Fall einer perfekten Koplanarität werden die abgebildeten Streifen überlagert (163b in 5c). Die Nachschlagetabelle 166 wird dann so eingerichtet, daß für einen abgetasteten Punkt 167 auf einem Objekt mit den Koordinaten V1, W1 in der Nachschlagetabelle 166 eine Farbbildposition Cx, Cy vorhanden ist, welche ein Wertefeld von Cx, Cy für die V- und W-Bereiche speichert. Während des Abtastens wird das Farbbild vor der Streifenmessung gewöhnlich abgetastet. Das Ausmaß der Nachschlagetabelle 166 kann bestimmen, wie viel von dem Farbbild 165 gespeichert werden muß, während die Punkte berechnet werden, also das Ausmaß des Bereichs 164. Hierdurch werden die im Computer 4 erforderliche Speichermenge und die erforderliche Bandbreite für das Übertragen von Farbinformationen von der Kamera 29 in den Computer 4 reduziert, wodurch die Verwendung von kostengünstigeren Einheiten, wie der Bildeinfangeinrichtung 11, die sich in der Sondensteuereinheit 5 oder in dem Computer 4 an einem Bus befindet, wie vorstehend erörtert wurde, ermöglicht wird. Es ist wahrscheinlich den Aufwand nicht wert, ein perfekt koplanares System aufzubauen, weil ein grob koplanares System wie vorstehend beschrieben kalibriert werden kann, um ein ebenso wirksames Ergebnis zu erzielen.
  • Mit Bezug auf die 6 und 7 sei bemerkt, daß es bei koplanaren Systemen schwierig ist, die Oberflächenposition des Objekts und seine Farbe gleichzeitig einzufangen, falls der Lichtstreifen 8 eine andere Farbe als weiß aufweist. Um dieses Problem zu lösen, können der Lichtstreifen 8 und die Farbkamera 29 ein- und ausgeschaltet werden, so daß die Farbe kurz vor oder kurz hinter der Position aufgezeichnet wird. Eine Einstellschaltungsanordnung kann bereitgestellt werden, um die Belichtungszeiten der Farbkamera 29 und des Streifengenerators 22 zu ändern und um zu gewährleisten, daß der Zwischenraum zwischen der Farberfassung und der Streifenerfassung minimiert wird. Um dies zu erreichen, erzeugt ein Videosynchronisationsgenerator 60 ein Synchronisationssignal 61 mit Impulsen bei einer Videokamerarate, welche bei Verwendung des CCIR-Formats 50 Mal je Sekunde ist. Das Synchronisationssignal 61 wird der hochauflösenden Kamera 25 und der Farbkamera 29 zugeführt. Die Belichtungszeit der Farbkamera 29 kann unter Verwendung eines Schalters 63 manuell eingestellt werden oder mit einem elektrischen Signal ferneingestellt werden. Das Synchronisationssignal 61 wird auch in eine Standardschaltung 62 eingegeben, die den Streifengenerator 22 für einen Zeitraum nach einer anfänglichen Verzögerung einschaltet. Der Zeitraum, während dessen der Streifengenerator eingeschaltet ist, kann unter Verwendung einer Steuerung 64 manuell festgelegt werden, und die Verzögerung zwischen dem Zeitpunkt, zu dem das Synchronisationssignal 61 empfangen wird, und dem Einschalten des Streifengenerators 22 kann auch unter Verwendung einer Steuerung 65 manuell festgelegt werden. Mit Bezug auf 7 sei bemerkt, daß das Synchronisationssignal 61 durch die Spur SYN dargestellt ist. Die Beleuchtung des Streifengenerators 22 ist durch die Spur L dargestellt. Die Beleuchtung der Farbkamera 29 ist durch die Spur C dar gestellt. Die Beleuchtung der hochauflösenden Kamera 25 ist durch die Spur M dargestellt. Dies soll nur als Beispiel für das Steuern koplanarer Sonden dienen.
  • Mit Bezug auf 8 sei bemerkt, daß die Sonde 3 den Streifen 8 so projiziert, daß der Meßbereich vor einem Spitzenbezugspunkt 51 beginnt, der am Ende des mehrgelenkigen Arms 1 bereitgestellt ist, und sich über einen weiteren Abstand erstreckt. Der Spitzenbezugspunkt 51 kann beispielsweise die Spitze eines Kegels, einer Kugel oder einer Rollvorrichtung in der Art eines Rollrads oder einer Rollkugel sein, oder der Punkt kann irgend etwas Ähnliches sein, was eine Spitze bereitgestellt. Gemäß der hier beschriebenen Ausführungsform ist der Spitzenbezugspunkt 51 der Mittelpunkt einer Kugel 52. Dieser Spitzenbezugspunkt 51 ermöglicht es dem Bediener, harte Objekte durch Entlangfahren der Kugel 52 entlang dem Objekt 9 in Streifen in Kontakt mit dem Objekt 9 abzutasten. Für weiche Objekte wirkt die Kugel 52 als eine Abtastführung, und typische Anweisungen könnten darin bestehen, den Spitzenbezugspunkt 51 etwa 20 mm von dem Objekt 9 entfernt zu halten, während abgetastet wird. Auf diese Weise kann die Sonde 3 dicht genug bei dem Objekt 9 gehalten werden, damit der Streifen 8 in dem Meßbereich liegt, jedoch ohne das weiche Objekt 9 zu berühren. Der Streifen 8 beginnt typischerweise 100 mm vom Spitzenbezugspunkt 51 am Ende des Arms 1 entfernt, er könnte sich jedoch viel näher befinden oder weiter weg sein, und er kann verwendet werden, um Objekte zu messen, die, vom Ende 55 der Sonde 3 gemessen, zwischen den zwei Punkten W1 und W2 liegen. Das ideale Verfahren besteht von einem Verwendbarkeitsstandpunkt darin, daß die Ebene des Streifens 8 mit der Achse 54 des letzten Abschnitts 50 des Arms 1 koaxial ist, und dies ist der Fall für einen zu einem Zweck ausgelegten Arm und eine von Hand gehaltene Sonde. Die Sonde 3 kann häufig für den Arm 1 nachgerüstet werden, und weil ein mechanischer Arm einen Durchmesser von typischerweise 20–60 mm aufweist, entsteht hierdurch ein Ausrichtungsproblem. In diesem Fall ist die Ebene des Streifens 8 nicht koaxial, sondern sie kann entweder in einer Ebene 53 parallel zur Armendachse 54 oder in einer Ebene 53a, die unter einem Winkel zu dieser Achse 54 steht, liegen, so daß sie die Achse 54 an irgendeinem Punkt kreuzt. Durch Kreuzen der Achse 54 des Arms 1 irgendwo im Meßbereich kann die Ergonomie des Arms 1 verbessert werden, weil sich die Lichtebene in einer einfacher verwendbaren Position befindet. Diese Überkreuzung tritt typischerweise irgendwo zwischen dem Spitzenbezugspunkt 51 und dem Ende W2 des Meßbereichs auf.
  • Mit Bezug auf 9 sei bemerkt, daß die Verwendung eines von Hand gedrehten Drehtisches mehrere Vorteile aufweist. Für eine gegebene Armgröße können größere Objekte abgetastet werden. Der Bediener braucht sich nicht um das Objekt herum zu bewegen, wodurch das Abtasten physikalisch einfacher und angenehmer wird und es weniger wahrscheinlich wird, daß entweder der Bediener oder der Arm versehentlich gegen das Objekt stößt oder ein Bezugspunkt verlorengeht.
  • Die Position und das Koordinatensystem des Drehtisches 14 müssen in Bezug auf diejenigen des Arms 1 bekannt sein. Der Spitzenbezugspunkt 51 kann in einem Lokalisierungskegel oder einer Lokalisierungsschale 202 auf dem Tisch bei einem großen Radius angeordnet werden. Punkte werden durch die Armsteuereinheit 2 regelmäßig übertragen und im Computer 4 aufgezeichnet, wenn der Drehtisch 14 von Hand gedreht wird. Funktionen, die eine Ebene und einen Kreis durch diese Punkte anpassen, liefern vollständige Positions- und Orientierungsinformationen über den Drehtisch 14 in dem Armkoordinatensystem.
  • Es ist wichtig, daß während des Abtastens der Drehtischwinkel bekannt ist. Der Drehtisch kann so ausgelegt sein, daß er präzise mechanische Ruhepositionen 206a, 206, 206c, 206d, beispielsweise alle 15 Grad, aufweist. Diese Ruhepositionen 206 wären von einem Zeiger 208 sichtbar, der den Winkel einer angebrachten Skala 209 von dreihundertsechzig Grad angibt. Der Bediener könnte den neuen Winkel jedesmal in den Computer eintippen, wenn der Drehtisch gedreht wird. Der Prozeß des Eintippens eines Winkels bedeutet jedoch, daß der Bediener möglicherweise die Sonde 3 ablegen muß, wodurch das Abtasten verlangsamt wird und sich die Möglichkeit ergibt, daß vom Bediener ein Fehler gemacht wird.
  • Wenn eine elektrische Verbindung 204 zwischen einem Positionssensor 203 am Drehtisch 14 und dem Computer hergestellt ist, so daß der Computer entweder genau oder grob den Drehtischwinkel kennen kann, ist der Prozeß schneller und weniger fehleranfällig. Falls der Sensor 203 genau ist, wie es beispielsweise bei einem Encoder mit 10000 Linien der Fall ist, könnte der Drehtisch 14 unter einer beliebigen Orientierung positioniert werden, und sein Winkel könnte genau bekannt sein. Dies ermöglicht das Abtasten, während sich der Drehtisch dreht, wenngleich sorgfältig vorgegangen werden muß, um sicherzustellen, daß die Dynamik nicht zu Positionsfehlern oder dazu, daß sich das Objekt in bezug auf den Drehtisch dreht, führt. Falls der Sensor 203 weniger genau ist, wie beispielsweise ein Potentiometer, könnte der Drehtisch 14 auch präzise mechanische Ruhepositionen 206 aufweisen. Hierdurch ergeben sich die Vorteile einer hohen Genauigkeit und geringerer Herstellungskosten. Jedesmal dann, wenn die Sonde 3 Daten von dem Objekt erfaßt, muß die Software prüfen, ob eine Bewegung des Drehtisches 14 vorliegt. Falls er sich bewegt haben sollte, sollten die Sondendaten bei einem weniger genauen Drehtischsensor 203 verworfen werden, bis sich der Drehtisch 14 nicht mehr bewegt. In allen Fällen sollte der Drehtisch 14 von Hand betätigt werden, so daß die Sonde nicht abgelegt werden muß. Es ist häufig der Fall, daß ein Objekt auf einem Drehtisch in regelmäßigen Inkrementen, beispielsweise 8 Abtastvorgänge alle 45 Grad, abgetastet wird. Um den Bediener beim Inkrementieren um X Grad zu unterstützen, könnten verschieden geformte und/oder gefärbte Bildzeichen alle X Grad oder bei anderen regelmäßigen Intervallen auf der Skala angeordnet werden. Typische Intervalle könnten 45, 60 und 90 Grad sein.
  • Wiederum mit Bezug auf 2 sei bemerkt, daß dieses Verfahren auch mit einer Sonde 3 mit einem Spitzenbezugspunkt 51 verwendet werden kann. Dieser manuelle Drehtisch kann durch einen Motor angetrieben werden, der durch Handsteuerungen betätigbar ist.
  • Jedesmal dann, wenn eine Sonde 3 an dem Arm 1 angebracht wird, muß die Transformation in sechs Freiheitsgraden zwischen dem Armkoordinatensystem X, Y, Z und dem Sondenkoordinatensystem U, V, W gefunden werden, falls die Anbringung nicht mit hoher Genauigkeit wiederholbar ist.
  • Eine Anbringungsvorrichtung 210, 214 für die Sonde ist in 10 dargestellt. Es ist eine genaue und wiederholbare geometrische Positionierung der Sonde an dem Arm erforderlich, und diese wird durch die Anbringungsvorrichtung 210, 214 bereitgestellt. Die Anbringungsvorrichtung 210, 214 weist eine mechanische Standardschnittstelle auf, die vorzugsweise für alle Sonden und Arme verwendet werden kann und die sowohl klein und leicht ist und die leicht verwendbar ist, um die Sonde am Arm anzubringen und vom Arm abzunehmen. Die Anbringungsvorrichtung weist eine Armseitenhalterung 210 auf, die eine flache Paßfläche 211 aufweist, welche zwei präzise bemessene Vorsprünge 212 aufweist, die sich an der Paßfläche 211 in präzisen Positionen befinden. Die Anbringungsvorrichtung weist auch eine Sondenseitenhalterung 214 auf, welche eine flache Paßfläche 215 und zwei präzise dimensionierte Vertiefungen oder Löcher 216 aufweist, die den zwei Vorsprüngen 212 in der Armseitenhalterung 210 entsprechen. Es ist wichtig, daß die geometrische Wiederholbarkeit in der Position und der Orientierung sehr hoch ist.
  • Eine Standard-Anbringungsvorrichtung zwischen jedem Arm und jeder Sonde bietet mehrere Vorteile. Wenn der Arm ohne die Sonde verwendet werden muß, muß die Sonde entfernt werden. Falls die Anbringungsvorrichtung nicht wiederholbar ist, muß das System vor dem Gebrauch Jedesmal dann neu justiert werden, wenn die Sonde wieder angebracht wird. Typischerweise wird eine Reihe von Sonden mit unter schiedlichen Gewichten, Geschwindigkeiten, Größen und Genauigkeiten, die verschiedenen Funktionen entsprechen, bereitgestellt. Jede Sonde kann mit Justierdaten in Bezug auf das Datum der Sondenseitenhalterung 214 bereitgestellt werden, und jede Sonde kann auf diese Weise an dem Arm befestigt werden, ohne daß eine Neujustierung erforderlich wäre. Ein Benutzer kann auch einen oder mehrere verschiedene Arme haben. Um dieselbe Sonde an zwei verschiedene Arme anzupassen, braucht der Benutzer nur einen zusätzlichen Adapter für den zweiten Arm zu erwerben, der an den Arm paßt, und die Armseitenhalterung 210 der Anbringungsvorrichtung 210, 214 aufzunehmen. Die Armseitenanbringungsvorrichtung 210 kann an jedem beliebigen mehrgelenkigen Arm befestigt werden.
  • Um die Transformation der sechs Freiheitsgrade zwischen dem Armkoordinatensystem und dem Sondenkoordinatensystem zu berechnen, kann diese entweder als eine Transformation oder als eine Multiplikation von zwei Transformationen behandelt werden, falls die genau wiederholbare Halterung als ein Zwischenbezugspunkt angesehen wird, so daß die Transformationsmatrix Tap zwischen dem Arm- und dem Sondenkoordinatensystem gleich der Transformationsmatrix Tam zwischen dem Arm- und dem Halterungskoordinatensystem, multipliziert mit der Transformationsmatrix Tmp zwischen dem Halterungs- und dem Sondenkoordinatensystem ist: Tap = (Tam)·(Tmp)
  • Die Transformationsmatrix Tam kann auf mehrere Arten gefunden werden. Mit Bezug auf 11 sei bemerkt, daß bei einem besonders einfachen, kostenwirksamen und praktischen Verfahren eine Bezugsplatte 220 verwendet wird. Die Bezugsplatte 220 hat drei orthogonale flache Flächen 222 und einen Anbringungspunkt 221, an dem die Armseitenhalterung 210 in einer genau bekannten Position in Bezug auf die orthogonalen Ebenen befestigt werden kann. Tam kann unter Verwendung der folgenden Schritte berechnet werden:
    • – Die Bezugsplatte 220 wird so befestigt, daß sie sich nicht in bezug auf das Armkoordinatensystem bewegen kann,
    • – die Armseitenhalterung 210 wird starr an dem Arm 1 befestigt (falls sie nicht bereits vorhanden ist), ohne daß die Sonde angebracht wird,
    • – die drei orthogonalen Ebenen 222 der Platte 220 werden durch den Spitzenbezugspunkt 51 an dem Arm gemessen, um die Position und die Orientierung der Bezugsplatte voll festzulegen,
    • – die Armhalterung wird dann in Übereinstimmung mit dem Anbringungspunkt 221 auf der Bezugsplatte 220 gebracht,
    • – die Position und die Orientierung des Arms werden aufgezeichnet,
    • – die Transformationsmatrix Tam wird dann anhand der bekannten Geometrie der Bezugsplatte 220 und der Messungen aus den vorhergehenden Schritten berechnet.
  • Das vorstehende Verfahren kann in die Hauptabtastsoftware aufgenommen werden, die mit dem Abtastsystem ausgeliefert wird, oder es kann in ein getrenntes Programm aufgenommen werden. Hieraus ergibt sich der Vorteil, daß gegenüber einer Alternative, bei der der Benutzer Tam anhand von der Software des Armherstellers ausgegebener Armpositionen manuell berechnet und die sich ergebende Tam manuell in die Haupt-Abtastsystemsoftware eingibt, viel Zeit gespart wird.
  • Die Sondenseitenhalterung 214 ist mit der Sonde integriert ausgebildet und bewegt sich nicht in bezug auf das Sondenkoordinatensystem. Die Transformationsmatrix Tmp wird vom Sondenlieferanten mit den Kalibrierungsdaten für die Sonde bereitgestellt.
  • Die direkte Berechnung von Tap unter Verwendung des Armund des Sondenkoordinatensystems, wobei jedoch keine Zwischenhalterung beteiligt ist, kann auf vielerlei Arten ausgeführt werden. Bei den meisten Arten wird die an dem Arm angebrachte Sonde verwendet, um Daten von einem oder mehreren geometrischen Objekten zu erfassen. Das Problem hat sich als sehr schwierig erwiesen, weil viele der Standardverfahren häufig infolge inhärenter Instabilitäten, die durch verhältnismäßig kleine Fehler ausgelöst werden, ungenaue Ergebnisse entweder der Orientierungs- oder der Positionskomponenten erzeugen. Eine Methode wird beispielhaft für eine Streifensonde dargelegt:
  • Mit Bezug auf 12 sei bemerkt, daß die Transformationsmatrix Tap folgendermaßen berechnet wird:
    • 1. Das Justierungskalibrierobjekt mit drei orthogonalen Stirnflächen 230 wird so angebracht, daß die drei orthogonalen flachen Flächen 231, 232, 233 von der an einem Arm 1 angebrachten Sonde 3 erreichbar und zugänglich sind,
    • 2. wenigstens drei Streifen von drei verschiedenen Orientierungen an der ersten flachen Fläche 231 werden erfaßt, wobei sich die Orientierungen in ausreichendem Maße unterscheiden müssen, um dem mathematischen Algorithmus Stabilität zu geben (in der Praxis ist ein Unterschied von wenigstens 5 Grad zwischen jeweils zweien der Streifen ausreichend),
    • 3. diese Erfassung von drei oder mehr Streifen wird auf einer zweiten flachen Fläche 232 und einer dritten flachen Fläche 233 wiederholt und
    • 4. die Daten von den neun oder mehr Streifen werden wiederholt verarbeitet, um Tap auszugeben.
  • Die Händigkeit der Koordinatensysteme des Arms 1 und der Sonde 3 wäre bekannt. Die Beziehung zwischen den Normalen zu den Oberflächen des Justierungskalibrierobjekts 230 könnte spezifiziert werden. Eine Art, auf die dies erfolgen könnte, besteht im Bezeichnen der drei Stirnflächen 231, 232, 233 und im Spezifizieren der Reihenfolge, in der die drei Stirnflächen abgetastet werden müssen.
  • Die Hauptvorteile der vorstehenden Vorrichtung und des vorstehenden Verfahrens zum Justieren der Sonde bestehen darin, daß daran erstens ein einziges Justierungskalibrier- Objekt beteiligt ist, das kostengünstig mit der erforderlichen geometrischen Toleranz herzustellen ist und verhältnismäßig leicht und kompakt ist, daß das Verfahren zweitens robust, einfach anhand geschriebener Anweisungen auszuführen und schnell ist, daß die Verarbeitung drittens in die mit dem Abtastsystem bereitgestellte Hauptabtastsoftware aufgenommen werden kann oder in ein getrenntes Programm aufgenommen werden kann, daß es viertens nicht erforderlich ist, daß zu Beginn dieses Verfahrens irgendwelche vorab vorhandenen geometrischen Informationen zur Orientierung und zur Position der Sonde in Bezug auf die Spitze des Arms vorhanden sind, so daß die Sonde beispielsweise auf der Unterseite des nach hinten weisenden Arms angebunden werden könnte und das Verfahren noch funktionieren würde, und daß fünftens, falls gegen die Sonde gestoßen wird oder sie beschädigt wird, so daß sich Tmp ändert, die Kalibrierung jedoch noch gültig ist, dieses Justierverfahren noch funktioniert.
  • Es ist offensichtlich, daß bei der Verwendung von Abtastsystemen zum Bereitstellen von Daten für 3D-Anwendungssoftware spezifische 3D-Bezugspunkte zusätzlich zu 3D-Flächen erforderlich sind. Einige Anwendungen, für die 3D-Flächen erforderlich sind, wobei auch 3D-Bezugspunkte erforderlich sind, sind Animationen, welche Gelenkbewegungen einschließen, bei denen ein Gelenk in Zusammenhang mit dem 3D-Modell zu spezifizieren ist. In diesem Fall kann das Gelenk schnell durch einen oder mehrere 3D-Bezugspunkte definiert werden. Ein neues Verfahren zum Verwenden des Abtastsystems besteht darin, die Sonde 3 zum Abtasten der Oberfläche zu verwenden und den Spitzenbezugspunkt 51 zum Erfassen individueller 3D-Punkte durch Kontakt zu verwenden.
  • Dies kann sowohl bei Streifen- als auch bei Flächensystemen verwendet werden. Es gibt gemäß dieser Ausführungsform zwei Modi. Im ersten Modus werden einzelne Punkte jedesmal dann erfaßt, wenn eine Taste angeklickt wird, und im zweiten Modus wird ein Strom einzelner Punkte von dem Zeitpunkt, zu dem eine Taste zum ersten Mal gedrückt wird, bis zu dem Zeitpunkt, zu dem sie erneut gedrückt wird, erfaßt. Der zweite Modus wird gemeinhin verwendet, um wichtige Strukturmerkmalslinien, wie Stillinien oder Fleckengrenzen, zu verfolgen.
  • Die Abtastvorrichtung 100 ist in der Lage, ein Objekt abzutasten und dabei ein Computermodell der Objektoberfläche unter Verwendung einer Zwischendatenstruktur zum wirksamen Speichern von Punkten an der Oberfläche des Objekts während des Abtastens, durch Erzeugen einer Ausprägung der Zwischendatenstruktur für das jeweilige Objekt und durch Steuern der Speicherung der abgetasteten Punkte in den Zwischendatenstrukturen während des Abtastens mit einem Bedienersteuersystem zu erzeugen.
  • Drei Beispiele dieser Zwischendatenstrukturen können Punkte oder codierte Streifen oder Bereichsbilder sein.
  • Punkte haben den Nachteil, daß sie unorganisiert sind und daß viele Informationen von der Struktur der Sonde erhalten werden und daß das Verfahren zu ihrer Verwendung verlorengeht, falls die 3D-Daten auf Punkte reduziert werden.
  • Im Fall von Streifensonden können viele Informationen erhalten bleiben, wodurch die Geschwindigkeit und die Qualität der Konstruktion eines Modells anhand Zwischendaten verbessert werden, falls eine codierte Streifen-Zwischendatenstruktur verwendet wird. Bei einer solchen Struktur werden Daten von einem Streifen zur Zeit gespeichert. Die Streifen werden in der Reihenfolge der Erfassung gespeichert. Es wird die Erfassungszeit jedes Streifens aufgezeichnet. Die Orientierung der Sonde wird für jeden Streifen aufgezeichnet. Die Rohdatenpunkte von dem Streifen können verarbeitet werden, bevor sie in der Datenstruktur gespeichert werden, um Sprung- und Unterbrechungs-Hinweiszeichen festzulegen und Probenwerte der Rohdatenpunkte zu bilden und eine Sehnentoleranz von ihnen festzulegen, um die Größe der Zwischendatenstruktur zu verringern, ohne wesentliche Informationen zu verlieren.
  • Im Fall von Flächensonden sind die Vorteile eines Bereichsbilds als eine Zwischendatenstruktur wohlbekannt. Diese Vorteile umfassen eine Datenstruktur, die gut zum flächenbasierten Datenerfassungsverfahren passen, und die Wirksamkeit des Speicherns in einem Bild, in dem nur Z-Werte gespeichert sind.
  • Es kann eine Zwischendatenstruktur verwendet werden, bei der die Oberfläche eines Objekts durch eine begrenzte Anzahl linearer und zylindrischer Bereichsbilder beschrieben werden kann, welche in gewissem Maße durch die Form des Objekts gekennzeichnet sind.
  • Ein lineares Bereichsbild 70 wird mit Bezug auf 13 erläutert. Das Bereichsbild 70 hat ein Koordinatensystem U, V, W und einen Punktabstand dU in U-Richtung und dV in V-Richtung. Das lineare Bereichsbild 70 enthält in seiner Kopfteildefinition seine Beziehung zum Weltkoordinatensystem X, Y, Z, also zum Armkoordinatensystem. Gemäß dieser Ausführungsform kann das lineare Bereichsbild 70 keine negativen W-Werte speichern.
  • Zylindrische Bereichsbilder 71, 72 sind in den 14a, 14b beschrieben. Das Bereichsbild hat ein Koordinatensystem W, R, A, wobei A ein Winkel ist. Der Abstand der Punkte ist dW in W-Richtung und dA in A-Orientierung. Die zylindrischen Bereichsbilder 71, 72 enthalten in ihren Kopfteildefinitionen ihre Beziehungen zum Weltkoordinatensystem X, Y, Z. Gemäß dieser Ausführungsform können die zylindrischen Bereichsbilder 71, 72 keine negativen R-Werte speichern. Die Richtung +R und die Position R = 0 eines zylindrischen Bereichsbilds definieren, ob die gespeicherten Punkte innerhalb des Bereichsbilds liegen, wie in 14a dargestellt ist, oder außerhalb des Bereichsbilds liegen, wie in 14b dargestellt ist.
  • Mit Bezug auf 15 sei bemerkt, daß der Bereichsbild-Anordnungsalgorithmus einen abgetasteten Punkt nimmt und versucht, ihn durch Projizieren eines Strahls entlang der Normalen zum Bereichsbild 105 in festgelegten Bereichsbildern anzuordnen. Falls der Punkt in einem Bereichsbild einen negativen Wert hat, wie es beispielsweise beim Punkt 104 der Fall ist, wird er nicht in diesem Bereichsbild gespeichert. Falls der Punkt außerhalb der Erstreckung dieses Bereichsbilds liegt, wird er nicht in dem Bereichsbild gespeichert, es sei denn, daß das Bereichsbild erweiterbar ist, wobei der Algorithmus in diesem Fall das Bereichsbild ausreichend erweitert, um den Punkt anzuordnen. Falls an der Position des Bereichsbilds, an der der Punkt anzuordnen ist, bereits ein Punkt existiert, werden die zwei Punkte verglichen. Falls der Abstand zwischen den beiden Punkten in dem Raum außerhalb einer Toleranz d liegt, die beispielsweise durch den Fehler des Scanners gegeben ist, wird der nächstliegende Punkt 102 gespeichert und der am weitesten entfernte Punkt 101 zurückgewiesen. Falls die beiden Punkte innerhalb des Fehlers des Scanners liegen, werden ihre Werte gemittelt, und es wird der Mittelwert gespeichert.
  • Der Bereichsbild-Anordnungsalgorithmus ist einfach und schnell, er ist jedoch ungenau und ordnet Punkte häufig falsch in Bereichsbildern an und verläßt sich darauf, daß sie durch einen näher gelegenen Punkt überschrieben werden. Falls das Bereichsbild sehr dicht ist, jedoch mit weniger Werten belegt ist, könnte bis zur Hälfte der Belegungspunkte falsch sein, weil die Oberflächennormale des Punkts falsch ist, wodurch das erfolgreiche Abtasten auf grobe Bereichsbilder beschränkt werden kann.
  • Der Bereichsbild-Anordnungsalgorithmus wird mit der Oberflächennormalenerweiterung verbessert. Der Bereichsbild-Anordnungsalgorithmus hat keine Schätzung der Oberflächennormalen des anzuordnenden Punkts, und er berücksichtigt weiterhin nicht die Orientierung der Sonde, wenn der Streifen erfaßt wird. Zum Verbessern der Bereichsbildanordnung wird die Tatsache verwendet, daß die meisten Streifen der Reihe nach abgetastet werden, und daß dabei Streifen eines nahen Vorgängers und eines nahen Nachfolgers verwendet werden. Wie in 16 dargestellt ist, gibt es beispielsweise acht benachbarte Punkte 116 auf einem Streifen 114 und auf seinem Vorgänger 113 und seinem Nachfolger 115, wobei diese verwendet werden können, um eine Näherung für die Oberflächennormale eines Punkts P zu bilden, bevor er in einem Bereichsbild angeordnet wird. Drei aufeinanderfolgende abgetastete Streifen 113, 114, 115 sind auf einem Objekt 111 dargestellt, und sie werden als Streifen 113a, 114a und 115a auf ein Bereichsbild 112 projiziert. Der Punkt P mit den Koordinaten Xp, Yp, Zp auf dem Streifen 114 hat acht nahe Nachbarn 116 auf den jeweiligen Streifen 113, 114, 115, wie vorstehend beschrieben wurde, und eine genäherte Oberflächennormale Np mit den Koordinaten Ip, Jp, Kp. Die Sondenorientierung für den Streifen 114 ist NS mit Koordinaten Is, Js, Ks. Durch Berechnen der Oberflächennormalen NS, NP und NR, wobei NR die Normale des Bereichsbilds 112 ist, wird eine Auswahl von zwei entgegengesetzten Oberflächennormalen bereitgestellt, wobei die richtige diejenige ist, die anhand der Orientierung der Sonde 3 ersichtlich ist, wobei angenommen wird, daß die Änderungen in der Sondenorientierung für die drei Streifen für die Oberflächennormalenrichtung nicht wesentlich sind. Falls herausgefunden wird, daß die Oberflächennormale Np eines Punkts P von der Oberflächennormalen NR fort weist, wird der Punkt nicht auf dem Bereichsbild angeordnet. Diese Oberflächennormalenerweiterung beseitigt den größten Teil der falschen Punktanordnungen in Bereichsbildern. Bei einer praktischen Implementation werden drei Punktstreifen zwischengespeichert, bevor der erste Punktstreifen in den Bereichsbildern angeordnet wird. Die Normalenerweiterung in modifizierter Form kann auch unter Verwendung der zwei folgenden oder der zwei vorhergehenden Streifen für den ersten und den letzten Streifen verwendet werden. Wenn die drei Streifen 113, 114, 115 nahezu zusammenfallen, möglicherweise weil sich der Arm zu langsam bewegt, ist die Genauigkeit der Schätzung der Oberflächennormalen gering, und die Normale kann nicht verwendet werden. Eine andere Normalenberechnung kann an Stelle der benachbarten Streifen unter Verwendung jeglicher benachbarter Punkte vorgenommen werden, die bereits in dem Bereichsbild angeordnet sind. Eine weitere Normalenerweiterung für den Bereichsbild-Anordnungsalgorithmus kombiniert sowohl die Streifen- als auch die Bereichsbilddaten zum Bereitstellen einer besseren Schätzung der Oberflächennormalen. Die an diesen Normalenerweiterungen beteiligten Berechnungen können einen Engpaß für den Abtastprozeß bilden. Der Engpaß kann überwunden werden, indem nur zwei Streifen, weniger Probenwerte (5 statt 9) oder ein schnellerer Computer verwendet wird.
  • Es muß eine Anzahl von Bereichsbildern definiert werden, die in dem Objektkoordinatensystem positioniert werden. Die Bereichsbilder weisen spezifische mathematische Definitionen auf. Es werden zwei grundlegende Typen von Bereichsbildern verwendet, nämlich lineare und zylindrische Bereichsbilder, wie vorstehend erörtert wurde. Ein Bereichsbild weist eine Richtung und eine Nullposition auf. Das Bereichsbild kann nur Punkte speichern, die vor seiner Nullposition liegen. Falls zwei oder mehr Flächen des Objekts auf einer Linie mit einem Punkt im Bereichsbild liegen, wird die Fläche, die der Nullposition des Bereichsbilds am nächsten liegt, im Bereichsbild dargestellt. Ein Bereichsbild kann in der Größe begrenzt oder unbegrenzt sein. Das Bereichsbild kann ein Bild mit festgelegter Dichte sein oder ein Mosaik einer Anzahl angrenzender Bilder unterschiedlicher Dichten aufweisen. Jede Gitterposition in dem Bereichsbild ist einwertig. In dem Bereichsbild werden typischerweise 4 Bytes zum Speichern eines Tiefenwerts Z, 1 bis 4 Bytes zum Speichern der Graustufe oder des Farbwerts I und 1 bis 3 Bytes zum Speichern der Orientierung N verwendet. Dies ist in 17 dargestellt, worin gezeigt ist, wie ein einzelner Punkt dargestellt wird. Die für die Orientierung N vorgeschlagenen 3 Bytes ermöglichen nicht das Speichern einer sehr genauen Orientierung. Es könnten mehr Bytes verwendet werden, es gibt jedoch einen Kompromiß zwischen der Datenspeichergröße, der Verarbeitungszeit zum Umwandeln von Gleitkommazahl- Orientierungen in ein komprimiertes ganzzahliges Format und von diesem und der Genauigkeit. Bereichsbilder erfordern normalerweise 5 bis 11 Bytes zum Speichern jedes Punkts, wobei dies von den Anforderungen des Bedieners abhängt. Beispielsweise sind typischerweise 20 Bytes erforderlich, um einen ASCII-X-, Y-, Z-Wert zu speichern.
  • Es sei mit Bezug auf 18 bemerkt, daß es für ein begrenztes Objekt 9 einer beliebigen Form möglich ist, eine endliche Anzahl von Bereichsbildern der vorstehenden Typen zu definieren, welche es für alle praktischen Zwecke ermöglichen, daß jeder beliebige Punkt auf der äußeren Fläche des Objekts 8 in einem oder mehreren der Bereichsbilder 81, 82, 83 gespeichert wird.
  • Bei Objekten mit tiefen äußeren Merkmalen, wie dem Inneren eines Ohrs, kann es nicht möglich oder praktisch ausführbar sein, alle Teile der Außenfläche abzutasten, es ist jedoch möglich, sie theoretisch darzustellen.
  • Die Anzahl und die Position der bei dem Prozeß verwendeten Bereichsbilder sind derart, daß sie ausreichen, um es zu ermöglichen, einen ausreichenden Teil der Oberfläche des Objekts zu speichern, um es zu ermöglichen, daß ein Computermodell mit der gewünschten Genauigkeit und den gewünschten Einzelheiten erzeugt wird.
  • Bei einem manuellen Prozeß können die Anzahl und die Position aller Bereichsbilder vor dem Abtasten vom Bediener festgelegt werden. Alternativ kann lediglich einer vom Bediener festgelegt werden, bevor mit dem Abtasten begonnen wird, woraufhin an irgendeinem Punkt während des Abtastens andere definiert werden. Der Bediener kann zwischen mehreren Strategien auswählen: Er kann Bereichsbilder und den Abtastbereich jeweils einzeln festlegen. Er kann eine Anzahl von Bereichsbildern festlegen und gleichzeitig abtasten. Er kann einige Bereichsbilder festlegen und abtasten, woraufhin weitere Bereichsbilder festgelegt werden und dann abgetastet wird. Falls ein Punkt abgetastet wird, der nicht in ein festgelegtes Bereichsbild paßt, wird er abgelehnt. Alternativ könnten diese abgelehnten Punkte automatisch gespeichert werden, um sie in irgendwelchen neuen Bereichsbildern anzuordnen, die der Bediener nachfolgend festlegen kann.
  • Eine typische Anzahl von Bereichsbildern reicht von 1 bis 20. Einige Bereichsbilder brauchen nur eine sehr geringe Größe aufzuweisen, welche gering genug ist, um einen Teil des Objekts abzudecken, der ansonsten vor der Aufzeichnung auf anderen Bereichsbildern verborgen ist. Die Dichte jedes Bereichsbilds kann schwanken, wobei ein großer, glatter Teil des Objekts beispielsweise keine hohe Punktdichte benötigt. Eine kleine, fein detaillierte Verzierung kann jedoch eine hohe Punktdichte benötigen. Jedes Bereichsbild hat eine Richtung.
  • Der Bediener kann den am besten geeigneten Satz vordefinierter Bereichsbilder aus einer Bibliothek von Bereichsbildsätzen auswählen. Er kann dann den Satz editieren, so daß er zu seinem Objekt paßt. Jeder neue Satz wird dann in der Bibliothek gespeichert. Ein Satz kann als ein Satz von Schablonen angesehen werden. Beispielsweise könnte für eine menschliche Form ein Bereichsbildsatz vorhanden sein, der aus 5 zylindrischen Bereichsbildern für die Gliedmaßen und den Rumpf, zusammen mit 5 linearen Bereichsbildern für den Oberteil des Kopfs bzw. der Schultern, der Hände und der Füße besteht. Für ein Auto könnten ein zylindrisches Bereichsbild für die Autokarosserie und zwei lineare Bereichsbilder an jedem Ende des Autos ausreichen. Es ist wichtig zu bemerken, daß die Achse eines zylindrischen Bereichsbilds innerhalb des abgetasteten Objekts oder eines Teils des abgetasteten Objekts liegen muß.
  • Ein Bereichsbild wird vom Bediener von Hand festgelegt, indem er erstens den geeigneten Bereichsbildtyp auswählt, nämlich zylindrisch oder linear, und zweitens die Sonde anordnet, um die gewünschte Position und Orientierung des Bereichsbilds zu erzielen, und sie unter Verwendung des Bedienersteuersystems auswählt. Für ein zylindrisches Bereichsbild könnte die Sonde positioniert werden, um zuerst die Position und die Richtung der Achse zu erzielen und um dann den maximalen Radius zu erzielen.
  • Mit Bezug auf 19 wird nun ein Ableitungsverfahren zum Aktualisieren von Bereichsbildern anhand der anderen registrierten Bereichsbilder vorgestellt, wobei es sich auch um ein neues Verfahren handelt. Das Ableitungsverfahren durchläuft jede Feldposition in dem Bereichsbild 121, die zu aktualisieren ist. Der Ableitungsalgorithmus kann Positionen aktualisieren, die entweder keinen Wert haben oder einen Wert mit einer Oberflächennormalen haben, die einen gegebenen Wert übersteigt, oder einen weniger steilen Wert oder eine Kombination von diesen nach den Anforderungen des Bedieners haben. Falls eine Position im Bereichsbild 121 zu aktualisieren ist, wird diese Position als ein Normalenstrahl 126 auf alle anderen Bereichsbilder 120, 125 nacheinander einzeln projiziert. Falls der Strahl ein anderes Bereichsbild 120 schneidet, wird das lokale dreieckige Oberflächenelement, durch das der Strahl zuerst hindurchtritt, auf der Oberfläche 123 lokalisiert und aufgebaut. Der Wert 124 am Schnittpunkt des Strahls 126 und des dreieckigen Elements 122 wird dann abgeleitet und im gerade aktualisierten Bereichsbild angeordnet. Falls der Strahl mehrere Bereichsbilder 120, 125 schneidet, werden die abgeleiteten Werte von den Bereichsbildern gemittelt, nachdem Ausreißer entfernt worden sind. Ausreißer werden unter Verwendung einer Toleranz in der Art des Fehlers der Abtasteinrichtung entfernt. Der ursprüngliche Wert (falls er existiert) in dem aktualisierten Bereichsbild 121 könnte in diesem Prozeß des Entfernens von Ausreißern und Mittelns aufgenommen werden.
  • Das Ableitungsverfahren wird insbesondere verwendet, wenn ein zusätzliches Bereichsbild in einem späteren Stadium im Abtastprozeß addiert wird oder wenn Bereichsbilder einzeln nacheinander festgelegt bzw. abgetastet werden. Dieses Verfahren ermöglicht es, daß Oberflächenbereiche, die nahezu orthogonal zum Bereichsbild stehen, also fast senkrechte Wände sind, gegenüber Daten, die in anderen Bereichsbildern gespeichert sind, wohldefiniert sind. Hierdurch wird ein besserer Punktsatz zum Ausführen der Polygonisierung eines Bereichsbilds bereitgestellt, woraus sich ein genaueres polygonales Netzwerk ergibt und der Polygonisierungsprozeß vereinfacht wird.
  • Die Sonde 3 liefert Daten, die auf dem Anzeigebildschirm 7 als eine generierte polygonale Fläche 13 in Echtzeit oder mit einer annehmbaren Verzögerung angezeigt werden, so daß der Benutzer den Anzeigebildschirm 7 betrachten kann und die Rückkopplung von der generierten Fläche verwenden kann, um die Bewegung der Sonde 3 zu führen. Echtzeit ist in Zusammenhang mit der Sichtbarmachung als eine Operation definiert, bei der mit einer Verzögerung reagiert wird, die klein genug ist, um für einen Bediener beim normalen Gebrauch annehmbar zu sein. Die Sonde 3 könnte eine Streifensonde oder eine Flächensonde sein. Wenn die Sonde 3D-Informationen und Farbinformationen erfaßt, können die Farbinformationen auf das 3D-Modell abgebildet werden, um es zu strukturieren, was nachstehend erörtert wird.
  • Die anzuzeigende Oberfläche wird für Streifensonden angezeigt, wobei ein zusätzlicher Streifen zur Zeit verwendet wird. Mit Bezug auf die 20a bis 20g sei bemerkt, daß ein Streifen 301, während er erfaßt wird, unter Verwendung von einem von mehreren gemeinhin verwendeten Verfahren in eine begrenzte Kette 303 von 3D-Punkten 302a, 302b und Hinweiszeichen 304, 305 im Weltkoordinatensystem X, Y, Z umgewandelt wird, wobei die zuvor erhaltenen Kalibrierungsund Justierdaten für die Sonde 3 verwendet werden. Die maximale Anzahl von Punkten gleicht gewöhnlich der Anzahl der Zeilen 281 oder der Anzahl der Spalten 282 in dem CCD-Feld 25, abhängig von der Orientierung der CCD in der optischen Einrichtung. In dieser Offenbarung wird auf Zeilen Bezug genommen, sie kann jedoch gleichermaßen auch auf Spalten oder irgendeine andere Art des Organisierens der von der Kamera aufgezeichneten Daten angewendet werden. Wenn der Streifen eine Zeile kreuzt, kann die Position in dem CCD-Feld ge wöhnlich durch eines von mehreren üblicherweise verwendeten Verfahren bis zur Genauigkeit unterhalb eines Pixels berechnet werden. Falls für eine oder mehrere benachbarte Zeilen keine Daten vorhanden sind, wie es bei den Fehlpositionen 302e, 302f (nicht dargestellt) der Fall ist, wird ein "Unterbrechungs"-Hinweiszeichen 304 in der Zeichenkette ausgegeben, um eine Unterbrechung in der aufgezeichneten Oberfläche anzugeben. Falls es in dem Bereich oberhalb eines Maximalwerts, der für die Abtastauflösung der Sonde 3 geeignet festgelegt ist, wie es beispielsweise zwischen 302j und 302k der Fall ist, eine erhebliche Sprungdiskontinuität gibt, wird ein "Sprung"-Hinweiszeichen 205 in die Kette von 3D-Punkten ausgegeben, um entweder eine vertikale Wand in bezug auf die Sondenorientierung oder eine verdeckte Oberfläche anzugeben. Die Zeichenkette 303 wird gefiltert, um die Anzahl der Punkte zu verringern, während der größte Teil der Informationen wirksam übertragen wird. Der Zweck des Filterns besteht darin, die für die Oberflächengenerierung verarbeitete Datenmenge zu verringern und dadurch die Geschwindigkeit des Generationsprozesses bei minimaler Beeinträchtigung der Oberflächenqualität zu erhöhen. Das erste Filterungsverfahren besteht darin, einige der Streifen zu überspringen. Ein anderes Verfahren besteht darin, Proben der Zeilen zu bilden, beispielsweise jede n-te Zeile herauszugreifen. Ein drittes Verfahren besteht darin, eine Sehnentoleranz aller Punkte in dem Streifen zu bilden und die Punkte zu verwerfen, die überschüssig sind und innerhalb der Toleranz liegen. Wenn die Computergeschwindigkeit begrenzt ist, sind das erste und das zweite Filterungsverfahren wegen ihrer Einfachheit und weil die sich ergebenden regelmäßigen Gitterpunkte regelmäßige Polygone erzeugen, die auf der Anzeige im Gegensatz zu langen dünnen Polygonen gut aussehen, die sich aus einem Sehnentoleranzprozeß ergeben könnten, der sich schnell ändernde Oberflächennormalen aufweisen kann, bevorzugt, falls die Datenpunkte infolge von Ungenauigkeiten in der Sonde und dem Arm etwas rauschbehaftet sind und auf dem Bildschirm einen unattraktiven Orangenschaleneffekt zeigen können. Der gleiche Prozeß wird für einen zweiten Streifen 306 wiederholt, der Datenpunkte 307 erfaßt, woraus sich eine zweite Kette 308 von 3D-Werten 307a, 307b usw. und Hinweiszeichen ergibt. Eine dreieckige oder quadratische Polygone aufweisende Fläche wird dann zwischen den zwei Ketten 303 und 308 konstruiert, woraus sich eine Kette von Polygonen 309 ergibt. Die Polygonkette wird dann durch eine Bildaufbereitungsvorrichtung angezeigt. Die Bildaufbereitungsvorrichtung kann die vorstehenden angezeigten Polygone, den Betrachtungspunkt und das Beleuchtungsmodell berücksichtigen, oder dies kann nicht der Fall sein.
  • Falls eine Farbe für ein Polygon aufgezeichnet worden ist, können die Farbinformationen auf das Polygon abgebildet werden. Der genaue Abbildungsalgorithmus hängt vom Format der Roh-Farbinformationen ab, welches von der Konstruktion der Sonde abhängt. Die Roh-Farbinformationen können Punkt-, Linien- oder Flächenproben einschließen. Die Roh-Farbinformationen können vor der Abbildung unter Verwendung kolorimetrischer Kalibrierungsdaten und Intensitätskalibrierungsdaten angepaßt werden. Während des Abbildungsprozesses können die Farbinformationen in bezug auf den Abstand zwischen der Sonde und dem Polygon am Farberfassungspunkt und in bezug, auf die Orientierung des Polygons zur Sonde am Erfassungspunkt eingestellt werden. Die Grundlage für die Einstellungen ist ein Satz für jede einzelne Sonde ausgeführter Kalibrationsprozeduren.
  • Der Betrachtungspunkt für die dargestellte Oberfläche kann eine konstante Position, einen konstanten Zoom und eine konstante Orientierung im Weltkoordinatensystem des Objekts aufweisen, so daß die dargestellte Oberfläche anwächst, wenn die Daten erfaßt werden, während die Sonde bewegt wird. Der Betrachtungspunkt wird vor Beginn des Abtastens entweder mit einer Eingabevorrichtung in der Art von Tasten an dem Arm, Fußpedalen, einer Maus und einer Tastatur oder unter Ver wendung der Sonde zum Bestimmen des Betrachtungspunkts festgelegt. Alternativ kann der Betrachtungspunkt eine konstante Position, einen konstanten Zoom und eine konstante Orientierung im Sondenkoordinatensystem aufweisen, so daß die Oberfläche in regelmäßigen Intervallen jedesmal dann komplett neu generiert wird, wenn die neue Oberfläche angezeigt wird, während sich die Sonde bewegt, wobei die Daten in den regelmäßigen Intervallen erfaßt werden, die bei einer annehmbaren Echtzeitrate von beispielsweise 25 Darstellungen je Sekunde oder weniger liegen. Alternativ kann der Betrachtungspunkt im Weltkoordinatensystem eine konstante Position, einen konstanten Zoom und eine konstante Orientierung aufweisen, wobei die dargestellte Oberfläche anwächst, wenn die Daten erfaßt werden, welche bei einem Bedienerbefehl, beispielsweise durch Drücken einer Taste oder eines Fußpedals oder in regelmäßigen Zeitintervallen von beispielsweise alle 10 Sekunden, vollständig zu denjenigen des Sondenkoordinatensystems aktualisiert werden. Die verschiedenen Verfahren zum Aktualisieren des Betrachtungspunkts weisen, abhängig von der Größe und vom Typ des abgetasteten Objekts und der Geschwindigkeit des Computers beim Neuberechnen der Oberflächenanzeige anhand eines anderen Betrachtungspunkts, verschiedene Vorteile auf.
  • Wiederum mit Bezug auf 2 sei bemerkt, daß die Anzeige 7 so an der Sonde 3 angebracht werden kann, daß sich die generierte Oberfläche 13 oder ein anderes dargestelltes Bild mit der Sondenbewegung bewegt. Die Anzeige 7 könnte vor den Augen des Bedieners als Teil einer Frontprojektionsanzeige angebracht werden, die es dem Bediener auch ermöglichen kann, seine reale Umgebung sowie die generierte Oberfläche 13 zu sehen, oder dies kann nicht der Fall sein, oder sie kann an einer anderen Stelle angebracht werden. Es wurde bei der praktischen Verwendung herausgefunden, daß der Bediener die generierte Oberfläche 13 auf der Anzeige 7 betrachtet, während das Abtasten erfolgt, weil dies den wichtigen Vorteil hat, zu gewährleisten, daß das gesamte Objekt abgetastet wird. Bei manchen Anwendungen, wie beim Abtasten großer Objekte oder bei Verwendung eines Drehtisches zum Drehen des Objekts kann das Betrachten der Anzeige 7 als ein großer Anzeigebildschirm, der sich auf einer Werkbank befindet, vorteilhaft sein. Bei anderen Anwendungen, beispielsweise beim Abtasten eines kugelförmigen Objekts, ist ein Anzeigeschirm an der Sonde 3 vorteilhaft, weil sich der Bediener mit der Sonde bewegt. Bei einer ausreichenden Qualität der Frontprojektionsanzeige und wenn keine negativen Auswirkungen, wie Übelkeit, auftreten, kann eine Frontprojektionsanzeige für fast alle Anwendungen am besten geeignet sein, weil sie am direktesten eine Rückkopplung an den Bediener bereitstellt.
  • Wiederum mit Bezug auf 2 sei bemerkt, daß es bereits technisch möglich ist, die Anzeige 7 mit der Sonde 3 zu integrieren, weil beispielsweise ein Farb-LCD-Bildschirm klein, leichtgewichtig, in Echtzeit arbeitend und flach ist, während er eine ausreichende Auflösung zum Generieren der Oberfläche aufweist, so daß der Bediener sehen kann, was abgetastet worden ist und was nicht. Eine an der Sonde angebrachte Anzeige könnte in einer oder in zwei Achsen in Bezug auf die Sonde neigbar sein. Die Fähigkeit zum Neigen der Anzeige in Bezug auf die Sonde kann dem Bediener eine verbesserte Fähigkeit geben, in Räumen mit einem schlechten Sichtzugang abzutasten. Die Tasten 6 an der Sonde können zum Navigieren in Menüs und zum Auswählen aus Menüs verwendet werden.
  • Mit zunehmender und kompakterer zur Verfügung stehender Rechenleistung wird es möglich werden, den Computer 4 in die Sonde 3 aufzunehmen und die Anzeige 7 an der Sonde anzubringen. Die Sonde könnte einen Speicher 262 aufweisen, der sowohl ein dynamischer Speicher als auch ein magnetischer Speicher in der Art eines CD-ROMs oder einer digitalen Videoplatte (DVD) sein könnte. Die Sonde könnte eine lokale Stromquelle 260 in der Art von Batterien aufweisen.
  • Es existiert eine Anzahl verschiedener Technologien für Flächensonden einschließlich binärer Stereo-, photometrischer Stereo-, Flugzeit-, Moire-Interferometrie- und strukturierter Lichtsysteme. Die beim Gebrauch bei industriellen Anwendungen am weitesten verbreiteten Systeme sind das Flugzeitsystem, das Moire-System und das strukturierte Lichtsystem. Verschiedene Flächensondentechnologien haben verschiedene Vorteile und Nachteile für das manuelle Abtasten.
  • Bei Flugzeitsystemen wird ein modulierter Laserfleck verwendet, um eine Szenerie durch die Phasenverschiebung zwischen dem ausfallenden und dem reflektierten Strahl zu messen, die proportional zur Entfernung des Objektpunkts ist. Ein vollständiges Bereichsbild wird durch Abtasten des gesamten interessierenden Bereichs erfaßt. Für eine kleine Fläche ist diese Technik vorteilhaft, weil es sich um eine Sichtlinientechnik handelt, wenngleich die Genauigkeit im allgemeinen in der Größenordnung von 1–2 mm liegt, es sei denn, es werden mehrere Messungen an jedem Punkt vorgenommen, wodurch die Abtastgeschwindigkeit erheblich verringert wird. Sie ist dann zu langsam.
  • Bei Moire-Systemen werden Gitter vor Projektions- und Betrachtungsoptiken verwendet, um ein Interferenzmuster zu erzeugen, das sich in Abhängigkeit von lokalen Änderungen der Höhe des Objekts ändert. Absolutmessungen und Messungen über Unstetigkeiten sind nur möglich, indem mehrere Messungen mit unterschiedlichen Gitterkonfigurationen oder aus verschiedenen Projektionswinkeln vorgenommen werden. Für Messungen der relativen Höhe bieten diese Systeme eine hohe Genauigkeit. Es ist demgemäß zu problematisch, Absolutmessungen zu erhalten.
  • Mit Bezug auf 29b sei bemerkt, daß strukturierte Lichtsysteme in vielen Familien auftreten und auf der Projektion eines Lichtmusters und auf dem Betrachten außerhalb der Achse des Projektionswinkels beruhen. Synchron abgetastete Lasertriangulationssonden können rasterförmig über eine 2D-Fläche getastet werden. Eine Laserstreifen- Triangulationslinie kann in einer Richtung zum Erzeugen von Flächenmessungen getastet werden. Das Abtasten kann mechanisch oder elektronisch erfolgen. Mehrere Laserstreifen 363 können auch gleichzeitig über ein Objekt projiziert werden, um die gleiche Wirkung wie einen getasteten Streifen zu erhalten, es ergibt sich hierbei jedoch der Nachteil, daß es bei einem einzigen Bild nicht möglich ist, zwischen den Streifen zu unterscheiden.
  • Die Nachteile der zuvor beschriebenen Systeme werden durch die gleichzeitige Projektion farbcodierter Lichtstreifen überwunden, und dies ist die bevorzugte Ausführungsform. Jeder Streifen weist eine Farbe auf. Jede Farbe kann zu einer diskreten Wellenlänge gehören, die beispielsweise durch eine Anzahl verschiedener Laserdioden bereitgestellt wird. Es können entweder alle Farben einzeln auftreten, oder es kann sich eine kleine Anzahl von Farben wiederholen, wobei die Wiederholung einer kleinen Anzahl von Farben zu Mehrdeutigkeiten führen kann, falls Streifen derselben Farbe nicht ausreichend getrennt werden.
  • Weil ein Arm als der Positionssensor verwendet wird, könnte die Sonde mit einer daran angebrachten Anzeige ihre Leistung entlang einem Kabel empfangen, welches dem Weg des Arms folgen kann, und der Computer kann sich in der Basis des Arms befinden, wodurch das Gewicht der Sonde reduziert werden würde und die Ermüdung des Bedieners verringert werden würde.
  • Es gibt verschiedene Methoden zum automatischen Polygonisieren von Zwischendaten zur Bildung eines 3D-Polygonalmodells. Es werden zwei Methoden beschrieben, nämlich eine Streifenpolygonisation und eine Bereichsbildpolygonisation.
  • Die Streifenpolygonisation von Zwischendaten zum automatischen Erzeugen eines Polygonalmodells wird für eine Streifen-Abtastvorrichtung beschrieben. Die folgende Beschreibung erfolgt anhand eines Beispiels und weist die folgenden Schritte auf:
    • 1. Es werden die Zwischendaten in der Reihenfolge, in der sie abgetastet wurden, einschließlich der Sonden orientierung für jeden Streifen, genommen. Für eine Streifensonde bestehen diese typischerweise aus einer Anzahl benachbarter Streifen mit gelegentlichen Unstetigkeiten, die beispielsweise auftreten, wenn der Abtastprozeß unterbrochen wird oder ein Drehtisch gedreht wird oder die Abtastrichtung umgekehrt wird. Die Zwischendaten liegen vorzugsweise in Form eines codierten Streifens vor, wie vorstehend beschrieben wurde.
    • 2. Die Daten werden in Streifen ähnlicher Sondenorientierungen und ohne Unstetigkeiten gruppiert. Eine annehmbare Abweichung der Sondenorientierung in einer Datengruppe kann zehn Grad betragen. Die durchschnittliche Normale für jeden Streifensatz wird spezifiziert. Eine neue Gruppe wird jedesmal dann eingeleitet, wenn eine Unstetigkeit auftritt oder wenn sich die Sondenorientierung unannehmbar ändert.
    • 3. Falls es nicht bereits in den Zwischendaten erfolgt ist, werden die Streifen in jeder Gruppe unter Verwendung einer Sehnentoleranzroutine gefiltert, um die Anzahl der Punkte zu verringern und die Positionen der Bruch- und Sprung-Hinweiszeichen aufrechtzuerhalten.
    • 4. Es wird ein 2,5D-Polygonisationsverfahren zum Polygonisieren jeder Gruppe verwendet. Dies führt zu einer Anzahl von 2,5D-Polygonalgittern. In jedem der Gitter kann ein Loch auftreten. Das Verfahren beseitigt verdeckte Flächen hinter Flächen, die sich aus Abweichungen der Sondenorientierung innerhalb der Gruppe ergeben.
    • 5. Es wird ein Polygongitter-Integrationsverfahren in der Art eines impliziten Oberflächenverfahrens verwendet, um die 2,5D-Polygonalgitter in ein Computermodell zu integrieren, das ein oder mehrere 3D-Polygonalgitter aufweist.
    • 6. Falls erforderlich, wird die bekannte Grundebene des während der Abtasteinrichtung spezifizierten Objekts verwendet, um den unteren Teil des Modells automatisch zu schließen, an dem das Objekt nicht abgetastet werden konnte, weil es auf einem Tisch oder Drehtisch lag.
    • 7. Falls erforderlich, wird eine allgemeine Schließfunktion verwendet, um alle Löcher in dem Modell automatisch zu schließen.
    • 8. Falls erforderlich, wird eine Glättungsfunktion verwendet, die so festgelegt ist, daß durch bekannte Ungenauigkeitsniveaus beim 3D-Abtastprozeß erzeugte Merkmale herausgeglättet werden und Strukturmerkmale, die größer sind als die Ungenauigkeit des Systems, aufrechterhalten werden.
    • 9. Das interne Polygonformat wird in eine Ausgangsdatei eines gemeinhin verwendeten Polygondateiformats, wie DXF, umgewandelt.
  • Die Bereichsbildpolygonisation von Zwischendaten zum automatischen Erzeugen eines Polygonalmodells ähnelt der Streifenpolygonisation. Jedes Bereichsbild ist im wesentlichen eine Gruppe von Streifen mit derselben Oberflächennormalen. Die vorstehenden Schritte 1 und 2 sind daher nicht erforderlich. Es gibt zwei Methoden zum Ausführen der Entsprechung des vorstehenden Schritts 3. Bereichsbilddaten können, wie in Schritt 3 beschrieben, als eine Reihe von Streifen mit einer Sehnentoleranz versehen werden, und der Polygonisationsprozeß wird mit den Schritten 4 bis 9 fortgesetzt, wie es erforderlich ist. Bei der zweiten Methode können, wenn die größere Struktur eines Bereichsbilds über eine Gruppe von Streifen gegeben ist, die Schritte 3 und 4 kombiniert werden, und es kann ein Bereichsbild-Toleranzalgorithmus mit einem 2,5D-Polygonisationsalgorithmus kombiniert werden, und der Polygonisationsprozeß kann mit den Schritten 5 bis 9 fortgesetzt werden, wie es erforderlich ist.
  • Flächen-Abtastvorrichtungen geben gewöhnlich Bereichsbilder aus. Im allgemeinen ist eine Bereichsbildpolygonisation besser für Flächen-Abtastvorrichtungen geeignet, und eine Streifenpolygonisation ist besser für Streifen-Abtastvorrichtungen geeignet. Falls die Zwischendatenstruktur aus Bereichsbildern besteht, funktioniert die Bereichsbildpolygonisation unabhängig davon, ob jedes Bereichsbild einen bestimmten Datenerfassungsmoment betrifft oder Teil einer definierten Bereichsbildstruktur ist, die durch die Form des Objekts gekennzeichnet ist.
  • Die Kombination von Farbdaten zu einem 3D-Modell ist als Strukturabbildung bekannt.
  • Bevor Roh-Farbdaten in Form von Farbbildern einer Strukturabbildung auf das 3D-Modell unterzogen werden können, müssen sie zuerst durch verschiedene Kalibrierungen korrigiert werden.
  • Eine wichtige Kalibrierung besteht in der geometrischen Kalibrierung der Farbkamera und im Finden der Justiertransformation der Farbkamera in das kalibrierte 3D-Meßsystem in der Sonde. Ohne diese Kalibrierungen/Justierungen erzeugen benachbarte Farbproben, wenn sie gemeinsam abgebildet werden, sichtbare Fehler. Der Zweck dieser Kalibrierungen besteht darin, die geometrischen Fehler viel kleiner zu machen als jene der Armgenauigkeit. Die erste geometrische Kalibrierung besteht darin, die Linsenverzerrung zu entfernen, wobei hierfür auf der Grundlage der Abbildung geometrischer Objekte bekannter Größe und durch Extrahieren von Pixelkoordinaten unter Verwendung- von Standard-Bildverarbeitungstechniken Standardmittel verwendet werden. Die zweite geometrische Kalibrierung besteht darin, das Kameramodell zu erzeugen, wobei ein einfaches Stiftlochmodell oder ein komplexeres Modell verwendet werden kann. Hierfür werden auf der Grundlage der Abbildung geometrischer Objekte bekannter Größe in verschiedenen Abständen und durch Extrahieren von Pixelkoordinaten unter Verwendung von Standard-Bildverarbeitungstechniken Standardmittel verwendet. Die dritte geometrische Kalibrierung besteht darin, die Justiertransformation zu erzeugen, wofür ein Verfahren auf der Grundlage einer 3D-Abbildung und einer Farbabbildung geometrischer Objekte bekannter Größe unter Verwendung der Sonde entwickelt wurde. Für alle drei Verfahren wird eine dreiachsige computergesteuerte Maschine verwendet, um genaue Entfernungen zu gewährleisten. Die Konstruktion der Sonde muß geometrisch stabil genug sein, so daß diese Transformation nur selten neu berechnet wird, beispielsweise nachdem die Sonde fallengelassen wurde oder beschädigt wurde.
  • Ein großer Teil der Wirkung der Entfernung von der Sonde bis zum Objekt auf die aufgezeichnete Lichtintensität kann herauskalibriert werden. Eine diffuse, flache, weiße Oberfläche wird an einer Anzahl verschiedener Abstände von der Sonde zur Oberfläche senkrecht zur Kameraachse abgebildet. Die Abstände werden so gewählt, daß der gesamte Abtastbereich vom nächstgelegenen Punkt zum am weitesten entfernten Punkt abgedeckt wird. Die in der Kamera aufgezeichneten Schwankungen der mittleren Intensität werden verwendet, um die Sonde mit der Entfernung zu kalibrieren. Diese Kalibrierungsdaten werden verwendet, um die aufgezeichneten Farbdaten zu korrigieren, wenn ein Objekt abgetastet wird, so daß alle Farbdaten zu einem bekannten Entfernungsäquivalent korrigiert werden.
  • Ein großer Teil der Wirkung der Neigung der Oberfläche gegenüber der Kameraachse auf die Farbqualität kann entfernt werden, die Wirksamkeit hiervon hängt jedoch zumindest vom Reflexionsgrad der Oberfläche für jede Farbe ab. Eine diffuse, flache, weiße Oberfläche wird unter verschiedenen Winkeln zur Kameraachse unter einem festen Abstand von der Sonde zur Oberfläche abgebildet. Die Winkel werden zu dem Punkt ausgewählt, an dem eine erhebliche Abweichung vom Lambertschen Modell auftritt. Die Abweichungen der in der Kamera aufgezeichneten mittleren Intensität werden verwendet, um die Sondenintensität mit dem relativen Oberflächenwinkel zur Sonde zu kalibrieren. Diese Kalibrierungsdaten werden verwendet, um die beim Abtasten eines Objekts aufgezeichneten Farbdaten zu korrigieren, so daß alle Farbdaten zu einem Normalenäquivalent korrigiert werden.
  • Eine kolorimetrische Standardkalibrierung wird unter Verwendung von Bezugsfarben in der Art von Macbeth-Diagrammen ausgeführt, die unter einem bekannten Abstand von der Sonde senkrecht zur Achse der Farbkamera angebracht sind. Es werden Korrekturen an einem üblicherweise verwendeten Farbstandard, wie CIE, vorgenommen. Die einzelnen Pixel in der Kamera können farb- und intensitätskorrigiert werden.
  • Einige der vorstehenden Kalibrierungen ändern sich sehr wenig zwischen mit der gleichen Konstruktion hergestellten Sonden. Dies liegt wahrscheinlich an engen Herstellungstoleranzen. Die Kalibrierungsinformationen können in die Software aufgenommen werden, wie beispielsweise Konstanten oder Tabellen oder Gleichungen für die Sondenkonstruktion. Es könnten andere Kalibrierungen jedesmal dann ausgeführt werden, wenn das Abtastsystem verwendet wird, wobei beispielsweise beim Abtasten einer weißen Oberfläche in einer bekannten Entfernung die Lampenintensität in Bezug auf die Intensität, als die Lampenkolben neu waren, festgelegt wird.
  • Mit Bezug auf 22 sei bemerkt, daß es mehrere Verfahren zum Abbilden von Farbbildern 320 auf ein 3D-Modell 324 zur Bildung von Strukturabbildungen gibt. Oberflächenelemente auf dem 3D-Modell können flache Polygone oder Elemente einer Oberflächenform hoher Ebene sein. Ein Abbildungsverfahren für Farbbilder weist die folgenden Schritte auf:
    • 1. Jedes Farbbild 320 wird unter Verwendung von Kalibrierungsdaten und von geometrischen Daten korrigiert.
    • 2. Für jedes Oberflächenelement 321 wird das Farbbild, dessen Normale 323 hinsichtlich der Orientierung der Normalen 322 des Oberflächenelements 321 am nächsten liegt, ausgewählt (das Masterbild), und die Strukturabbildungskoordinaten für dieses Oberflächenelement gehen in die Abbildung dieses Oberflächenelements auf dieses Masterbild ein. Die nächstgelegene Bildnormale ist in diesem Fall diejenige von 320a.
    • 3. Es werden dann die anderen Farbbilder, die auf das Oberflächenelement abgebildet werden, verarbeitet. Falls die Oberflächennormalendifferenz zwischen dem Oberflächenelement und einem Farbbild oberhalb einer bestimmten Toleranz liegt, wird dieses Bild ignoriert. Dies liegt daran, daß die in dem Bild erhaltene Farbqualität erheblich verschlechtert wird, wenn die Oberflächenorientierung des Objekts in bezug auf das Bild sehr steil wird. Der Teil des Masterbilds, auf den das Oberflächenelement abgebildet wird, wird dann durch einen gewichteten Mittelwert aller Farbbild-Abbildungsteile verbessert. Die Grundlage dieser Gewichtung ist der Kosinus der Differenz in der Oberflächennormalen zwischen dem Oberflächenelement und dem Farbbild.
  • Die Vorrichtungen und die Verfahren, die vorstehend erörtert wurden, erzeugen jeweils einzeln eine verbesserte Farbkopie des 3D-Modells und einen erheblichen kommerziellen Vorteil.
  • Es werden Methoden zum Verbessern der Abtastzeit und zum sich daraus ergebenden Verringern geometrischer Fehler offenbart.
  • Wenn kein elektrisches Auslösen möglich ist (was gemäß dieser Ausführungsform nicht der Fall ist), wird das folgende Verfahren zum Verringern der Ungenauigkeit verwendet, die durch die Zeitdifferenz zwischen der Aufzeichnung der Armposition und dem Erfassen des Rahmens hervorgerufen wird:
    • 1. Mit Bezug auf 23 wird die Armposition vor dem Erfassen des Rahmens aufgezeichnet B, und die Zeit t1 hierfür wird aufgezeichnet.
    • 2. Ein Rahmen wird angefordert.
    • 3. Wenn der Rahmen erfaßt worden ist C, wird die Zeit t2 aufgezeichnet. Es gibt eine bekannte Verzögerung T/2 mit einer geringen Veränderlichkeit gegenüber der Mitte der Rahmenerfassung zu dieser Zeit t2, die in hohem Maße von der Verschlußöffnungszeit T abhängt.
    • 4. Die Armposition nach A wird aufgezeichnet, und die Zeit t3 hiervon wird aufgezeichnet.
    • 5. Die Armposition in der Mitte des Rahmens wird durch Interpolieren zwischen den zwei Armpositionen B, A unter Verwendung der Zeit (t2–T/2) in der Mitte der Rahmenerfassung in sechs Freiheitsgraden als das Interpolationsgewicht zwischen t1 und t3 geschätzt.
    • 6. Im Fall einer langen Unterbrechung werden die Daten gelöscht, falls der Unterschied zwischen t1 und t3 beträchtlich ist.
  • Durch dieses Interpolationsverfahren kann die Genauigkeit nicht getriggerter Systeme in hohem Maße erhöht werden, und es ist in dem Bestreben, geometrisch genaue Daten zu erhalten, sehr bedeutsam.
  • Zusätzlich kann das Betriebssystem, unter dem die Interpolationssoftware läuft, so festgelegt werden, daß der Interpolationssoftware eine hohe Priorität gegeben wird, so daß die Einführung von Verzögerungen infolge der Ausführung anderer Software minimiert wird. Selbst wenn eine andere Softwarefunktion diesen Prozeß unterbricht, wird die Gültigkeit des Prozesses nicht beeinträchtigt, es sei denn, daß der Unterbrechungsprozeß außerordentlich lange dauert. Die Prioritätserteilung ist nicht wesentlich, sie trägt jedoch zu verringerten Zeitfehlern bei, wenn sie im Betriebssystem vorhanden ist.
  • Gemäß dieser Ausführungsform ist das Triggern möglich, und es sei mit Bezug auf 24 bemerkt, daß das Synchronisationssignal 240 von einer CCD-Kamera 25 durch eine elektronische Schaltungsanordnung 241 entfernt wird und ein Relais 242 verwendet wird, um eine Reihe von Triggerimpulsen 243 für den Armcomputer 2 zu erzeugen. Dies hat den Vorteil, daß sowohl Veränderlichkeiten des Arms als auch der Kamera beseitigt werden und die Genauigkeit des Abtastens für einen gegebenen Arm und eine gegebene Kamera so weit wie möglich erhöht wird.
  • Die Bedienerschnittstelleneinrichtung allein ohne Einschluß der Standard-Computereinrichtung in der Art einer Maus und einer Tastatur kann verwendet werden, um das Abtasten und den Computermodell-Erzeugungsprozeß und die Funktionalität der Optionen, die ausgelöst werdet können, zu steuern. Die Bedienerschnittstelleneinrichtung umfaßt eine Einrichtung zum Navigieren in Menüs, wie Tasten, Fußpedale, Joysticks, Trackballs und die Armpositions-Erfassungseinrichtung.
  • Unter Verwendung beliebiger der vorstehenden Einrichtungen kann der Bediener einfach die erforderlichen Operationen und Betriebsparameter auswählen, welche beispielsweise folgende umfassen könnten:
  • Einrichten der Abtastvorrichtung
    • – Auswählen, welche Positionserfassungsvorrichtung verwendet wird, also des Arms
    • – Justieren der Sonde in bezug auf die Positionserfassungsvorrichtung und Justieren des Drehtisches
    • – Festlegen der Abtastung der Punkte, also des Abtastschritts oder der Sehnentoleranz
    • – Festlegen, wann Daten fortgeworfen werden, weil sich der Arm zu schnell bewegt
  • Datenerfassung
    • – Vorabtasten des Objekts, um herauszufinden, wo es liegt
    • – kontinuierliches Sammeln von Datenpunkten, während diese Option als Beispiel ausgewählt wird
    • – Sammeln eines Satzes von Punkten in der Art eines Streifenabschnitts
    • – Sammeln von Sätzen von Datenpunkten in vorbestimmten Positionsintervallen
    • – Sammeln von Kontaktbezugspunkten
    • – Unterbrechen und Neustarten der Datensammlung
    • – Aufnehmen von Farbbildern
  • Prozeß
    • – Erzeugen eines Polygonal- oder Oberflächenmodells anhand von Zwischendaten
    • – Erzeugen des Modells in einem ausgewählten Ausgangsformat, beispielsweise 3DS, OBJ
    • – Abbilden von Farbbildern auf das Modell
    • – Einbringen überlappender Farbbilder in das Modell
    • – Schließen von Löchern im Polygongitter
    • – Zerlegen des Polygongitters
    • – Glätten des Polygongitters
    • – Dezimieren des Polygongitters
    • – Umklappen von Normalen im Polygongitter
    • – Ändern des Datums und der Orientierung des Koordinatensystems
  • Editieren
    • – Auswählen/Ausschneiden/Kopieren/Löschen von Punkten
    • – Auswählen/Ausschneiden/Kopieren/Löschen von Polygonen
    • – Auswählen/Ausschneiden/Kopieren/Löschen von Farbbildern
  • Test
    • – Prüfen der Leistungsfähigkeit des Systems durch Verarbeiten von Daten von der Abtastung einer Kugel
    • – Prüfen der Leistungsfähigkeit des Systems durch Verarbeiten von Daten von der Abtastung einer flachen Oberfläche
  • Anzeige
    • – Anzeigen von Punkten in der generierten Farbe entsprechend der Tiefe
    • – Neuzeichnen der Computeranzeige anhand der Position und der Orientierung der Sonde
    • – Auswählen des Betrachtungsfelds für das Neuzeichnen, also von Zoom bis zu Weitwinkel
    • – Auswählen eines Betrachtungspunkts aus der Liste vorgegebener Betrachtungspunkte
    • – Anzeigen generierter Daten in einer Farbe
    • – Anzeigen generierter Daten unter Verwendung der abgetasteten Farbdaten
    • – Anzeigen des anhand Polygonen oder komplexer Flächen erzeugten Computermodells
  • Modelldaten
    • – Speichern der Punkte/der Zwischendaten/des Modells auf einem Speichermedium in der Art einer Festplatte
    • – Veröffentlichung der Zwischendaten bzw. des Computermodells als ein Objekt in der Art eines Objekts, das für ein anderes Softwarepaket auf dem Computer oder über ein Netzwerk automatisch verfügbar sein kann
    • – Laden der Punkte/der Zwischendaten/des Modells von einem Speichermedium in der Art einer Festplatte
  • Bereichsbild
    • – Erzeugen eines neuen linearen Bereichsbilds unter Verwendung der Position und der Orientierung der Sonde, wenn die Option ausgewählt wird
    • – Erzeugen eines neuen zylindrischen Bereichsbilds unter Verwendung der Position und der Orientierung der Sonde, wenn die Option ausgewählt wird
    • – Auswählen von einem der definierten Bereichsbilder aus allen definierten Bereichsbildern
    • – Ändern der Dichte dieses Bereichsbilds
    • – Löschen der ausgewählten Bereichsbilder
    • – Löschen aller Bereichsbilder
    • – Auswählen eines Satzes von Bereichsbildern aus einer Bibliothek von Bereichsbildersätzen, wobei die Bereichsbildersätze der Bibliothek mathematisch organisiert werden könnten, wobei sie beispielsweise genau orthogonal zueinander stehen könnten, wobei sich bei manchen Anwendungen der Abtastdaten Vorteile ergeben können
    • – Hinzufügen des ausgewählten Bibliothekssatzes zu den gegenwärtig definierten Bereichsbildern
    • – Erzeugen eines neuen Bibliothekssatzes anhand der existierenden Kombination von Bereichsbildern, wobei auf diese Weise, falls mehrere ähnliche Objekte abzutasten sind, die optimale Bereichsbildkombination für das erste festgelegt werden kann und bei den anderen automatisch wiederverwendet werden kann
    • – Festlegen des ausgewählten Bibliothekssatzes als der Soll-Bibliothekssatz, wobei auf diese Weise beispielsweise ein Soll-Bibliothekssatz von sechs Bereichsbildern, welche einen Würfel bilden, für viele Objekte verwendet werden kann, so daß der Prozeß der Bereichsbilddefinition nicht erforderlich ist, wodurch der gesamte Abtastprozeß beschleunigt wird
    • – Löschen aller aktuellen Datenpunkte in allen Bereichsbildern
    • – Löschen aller Datenpunkte nur in dem ausgewählten Bereichsbild
    • – Anzeigen von Punkten nur vom ausgewählten Bereichsbild
    • – Anzeigen von Punkten von allen Bereichsbildern
    • – Anzeigen von Punkten mit verschiedenen Farben für jedes Bereichsbild
    • – Aktualisieren aller Bereichsbilder anhand aller anderen Bereichsbilder durch einen Prozeß, bei dem versucht wird, Lücken aufzufüllen oder Einträge in einem Bereichsbild durch Untersuchen der anderen geprüft werden
    • – Aktualisieren des ausgewählten Bereichsbilds anhand aller anderen Bereichsbilder durch einen Ableitprozeß, bei dem versucht wird, Lücken aufzufüllen oder Einträge in einem Bereichsbild zu prüfen, indem die anderen untersucht werden, wobei dies besonders nützlich ist, wenn ein neues Bereichsbild festgelegt wird, nachdem ein umfangreiches Abtasten ausgeführt worden ist
    • – Beschränken der Größe eines Bereichsbilds, was häufig erfolgt, wenn ein Bereichsbild speziell festgelegt wird, um einen kleinen Teil der Oberfläche des Objekts zu erfassen, der nicht von den anderen Bereichsbildern abgedeckt ist, wobei dies erfolgen kann, um in einem Computer mit begrenztem Speicher Speicher zu sparen, wobei hierdurch auch der gesamte Prozeß beschleunigt werden kann
    • – Auswählen und Initialisieren eines Algorithmus zum automatischen Konstruieren eines Modells von Polygonen oder komplexen Flächen anhand eines Bereichsbilds
    • – Auswählen und Initialisieren eines Algorithmus zum automatischen Konstruieren eines Modells von Polygonen oder komplexen Flächen anhand aller Bereichsbilder
    • – Festlegen der Parameter in der Art des Genauigkeitsgrads, wodurch ein Algorithmus ein Modell von Polygonen oder komplexen Flächen konstruiert
    • – Auswählen eines Integrationsalgorithmus, der die Polygonmodelle kombiniert, die anhand der Bereichsbilder erzeugt worden sind
    • – Auswählen einer vordefinierten Folge von Algorithmen, wodurch automatisch ein vollständiges Modell von Polygonen oder komplexen Flächen anhand eines Satzes von Bereichsbildern erzeugt wird
  • Komplexe Oberflächen können anhand markierter Oberflächen-Fleckengrenzen erzeugt werden. Mit Bezug auf 25 sei bemerkt, daß das Objekt 130 mit einer gleichmäßigen Farbe bemalt wird (falls erforderlich), bevor die Fleckengrenzen 131, beispielsweise unter Verwendung eines schwarzen Markerstifts auf einem weißen Objekt, von Hand mit einer anderen Farbe markiert werden. Es ist nicht wichtig, diese Grenzen genau zu markieren, weil sie gewöhnlich von Merkmalen, wie Rändern oder schnellen Änderungen der Oberflächennormalen, entfernt liegen. Das Objekt wird dann unter Verwendung von einem der offenbarten Verfahren abgetastet. Die Farbinformationen werden dann verwendet, um die Fleckengrenzen automatisch durch einen Algorithmus zu erzeugen, der die Punkte 132, die auf den Fleckengrenzen liegen, durch ein Farbfilter abtrennt und dann Flecken-Grenzlinien in der Art von Splines 133 an diese Punkte anpaßt. Die Ränder können auch unter Verwendung eines getrennten Algorithmus erfaßt werden. Die Fleckengrenzen, die anhand der Abtastung automatisch erzeugt worden sind, können dann verwendet werden, um das komplexe Oberflächenmodell zu erzeugen. Der Hauptvorteil dieses Verfahrens besteht darin, daß es vor der automatischen Erzeugung des komplexen Oberflächenmodells leichter ist, Fleckengrenzen auf dem Objekt als auf dem Computermodell zu markieren.
  • Mit Bezug auf 26a wird eine Implementation 333 offenbart, bei der der mehrgelenkige Arm 1 am Ende des horizontalen Arms der horizontalen Armmeßmaschine 330 angebracht ist, um ein großes Objekt 331 abzutasten. Die horizontale Armmeßmaschine 330 weist einen Maschinensteuerkasten 332 auf, der die Position der Maschine an den Computer 4 ausgibt. Die Armsteuerung 2 und die Sonde 3 sind auch an den Computer 4 angeschlossen. Diese Implementation macht das Abtasten großer Objekte in der Hinsicht genauer, daß entweder ein großer Arm oder eine sprungweise Bewegung weniger genau wäre als ein horizontaler Arm und in der Hinsicht einfacher wäre, daß jedesmal dann, wenn der horizontale Arm bewegt wird, die Software dies automatisch berücksichtigt, statt daß eine Neuregistrierung unter Verwendung eines Sprungbewegungsverfahrens erforderlich wäre. Bei Industriefirmen, die große Objekte haben, wie es bei Automobilherstellern der Fall ist, sind gewöhnlich horizontale Armmaschinen vorhanden, so daß die Implementation hierdurch besonders attraktiv gemacht wird.
  • Eine Ausführungsform ist eine allgemeine Vorrichtung zur Herstellung von 3D-Modellen, und sie hat einen breiten Bereich von Anwendungen. Die Anwendungsindustrien für diese Ausführungsform umfassen Designentwickler, die Tonobjekte schnell und genau zu Computermodellen verwandeln müssen, Spieleentwickler und Trickfilmzeichner, die neue Zeichen in 3D-Datensätze für eine Animation umwandeln müssen, Schuhhersteller, die kundenspezifische Schuhe herstellen müssen, sowie Automobilhersteller, die die tatsächlichen Kabel- und Rohrverläufe in begrenzten Räumen modellieren müssen, und medizinische Anwendungen umfassen die Strahlentherapie und die Wundbehandlung. Insgesamt wurden etwa 200 Anwendungen identifiziert.
  • Mit Bezug auf 27 sei bemerkt, daß die Abtastvorrichtung 100 als ein Beispiel für ihre Anwendungen zum Abtasten eines menschlichen Fußes 141 verwendet werden kann, wobei auch offenbart ist, daß das volle Körpergewicht auf Oberflächen unterschiedlicher Elastizität darauf lastet. Zuerst wird die Außenseite des Fußes 141 unter Verwendung der vorstehend offenbarten Verfahren und Vorrichtungen abgetastet, wobei der erforderliche Betrag des Körpergewichts ausgeübt wird. Der Fuß 141 wird dann entfernt, und es wird eine zweite Abtastung der Oberfläche 142 ausgeführt, auf die der Fuß 141 gedrückt wurde. Die erste Abtastung ist eine Positiv-Abtastung. Die zweite Abtastung ist eine Negativ-Abtastung. Die Oberflächennormalen der zweiten Abtastung werden dann durch einen einfachen Algorithmus umgekehrt, und die beiden Abtastungen werden kombiniert, um die positive Form des Fußes zu erhalten. Es ist wichtig, daß, falls ein verformbares Material verwendet wird, dieses nicht zurückfedert. Ein solches Material kann Sand, Ton oder Gips sein. Für unterschiedliche Anwendungen können Materialien unterschiedlicher Elastizität geeignet sein. Dieses Verfahren ist auch geeignet, wenn der Fuß auf die untere Hälfte eines Schuhs gedrückt wird, wobei die Seiten abgeschnitten sind.
  • Automobilhersteller haben einen Bedarf, den tatsächlichen Verlauf von Rohren und Kabeln in begrenzten Bereichen in der Art eines Motorraums zu identifizieren. Automobilhersteller versuchen, alle Aspekte eines Autos in 3D-CAD zu modellieren. Sie benötigen irgendeine Methode zum Abtasten von Rohren und Kabeln im Bezugssystem des Autos, so daß 3D-Modelle einer hohen Ebene der Rohre und Kabel ausgegeben werden, welche in das CAD-System eingegeben werden können, um den tatsächlichen Verlauf und mögliche Störungen zu identifizieren. Falls beim Abtasten von Rohren und Kabeln beispielsweise in begrenzten Räumen ein Problem auftritt, daß schwarze oder glänzende Gegenstände nicht abtastbar sind, können diese zuerst mit einem weißen Pulver bestreut werden, das sich nach dem Abtasten leicht entfernen läßt.
  • Mit Bezug auf 28 sei bemerkt, daß es häufig besser ist, ein Kabel oder ein Rohr 341 als eine Anzahl von Streifenabschnitten 342 bis 349 statt als eine große Anzahl dicht beabstandeter Streifen abzutasten. Ein Streifensensor kann in einem ersten Modus aktiviert werden, um einen einzigen Streifenabschnitt durch den eine Taste oder ein Fußpedal aktivierenden Bediener herauszugreifen. Auf diese Weise kann der Bediener eine kleine Anzahl von Abschnitten herausgreifen, um den Weg des Rohrs zu beschreiben, wobei er sein Expertenwissen verwendet, um zu entscheiden, wann Abschnitte herausgegriffen werden sollen. Wenn ein Rohr beispielsweise mit einem anderen Rohr verbunden ist, kann es angemessen sein, viel mehr Streifenabschnitte 344 bis 349 einzufangen. Wenn es weiterhin ein Merkmal gibt, wie eine Befestigung an einem Rohr, kann es angemessen sein, sehr dichte Streifen zu erfassen. Ein zweiter Modus würde darin bestehen, Streifenabschnitte so schnell zu erfassen, wie der Sensor sie erfassen kann, und sie als eine Oberfläche auf der Anzeige darzustellen. Ein dritter Modus wäre ein Modus, in dem der Bediener den Abstand zwischen den Abschnitten von beispielsweise 5 mm spezifiziert und das System einen Streifenabschnitt automatisch beispielsweise alle 5 mm, um die sich der Streifen im dreidimensionalen Raum bewegt, aufnimmt. Ein Verfahren zum Bestimmen dieses Abstands besteht darin, den Punkt beim durchschnittlichen Abstand in der Mitte des Streifens, also am Mittelpunkt des Meßbereichs auszuwählen, und wenn sich dieser Punkt 5 mm bewegt hat, automatisch einen anderen Streifenabschnitt zu erfassen. Wenn der Bediener Rohre und Kabel abtastet, sollte das Bedienersteuersystem das einfache Umschalten zwischen den drei Modi unterstützen.
  • Die Zwischendatenstruktur, in der die Streifenabschnitte zusammengestellt werden, könnte die Standard-Streifenabschnittsstruktur 303 sein, sie könnte jedoch Änderungen des Modus und der Orientierung der Sonde für jeden Abschnitt aufweisen. Beim Abtasten von Rohren und Kabeln werden auch Plattenabschnitte 342a, 342d, entlang derer die Rohre und Kabel verlaufen, erfaßt. Wenn zwischen dem Rohr und der Platte kein Kontakt auftritt, tritt ein Sprung oder eine Unterbrechung des Streifenabschnitts auf. Dies kann in der Datenstruktur mit Sprung-Hinweiszeichen 305 und Unterbrechungs-Hinweiszeichen 304 angezeigt werden.
  • Um für einen Automobilhersteller nützlich zu sein, sollte anhand dieser Daten ein Modell einer hohen Ebene erzeugt und ausgegeben werden. Ein Polygonbildungs- oder Oberflächenbildungsverfahren verbindet die Abschnitte miteinander und kann das Zusammenfügen von Rohren, Platten usw. behandeln. Das Ergebnis sind Modelle 350 bis 352 einer hohen Ebene. Falls mehr Informationen über das Rohr oder das Kabel, wie ihr Querschnitt, falls er konstant ist, oder ihre Form, selbst wenn sich die Abmessungen der Form ändern, beispielsweise kreisförmig, jedoch mit veränderlichem Durchmesser, bekannt sind, kann das Modell 351 automatisch zu 353 erweitert werden. Alternativ können zwei abgetastete Seiten desselben Rohrs automatisch zusammengefügt werden. Hierdurch wird dem Automobilhersteller das Modell hoher Ebene zur Verfügung gestellt, das er benötigt.
  • Wie Fachleute verstehen werden, können verschiedene Modifikationen vorgenommen werden. Beispielsweise braucht die Farbkamera nicht aufgenommen zu werden. Es könnte eine einzige Kamera sowohl zur Farb- als auch zur Positionserfassung verwendet werden. Das Filter in der Sonde könnte ein schmales Bandpaßfilter oder ein hohes Bandpaßfilter für Rot sein, je nach dem, was erforderlich ist. Das System kann an viele Modellerzeugungstypen und nicht nur jene, die hier erörtert sind, angepaßt werden. Die von der Sonde gesammelten Daten könnten auch für andere Anwendungen verwendet werden, und sie könnten zur Verbreitung an andere Orte, beispielsweise durch E-mail, gespeichert werden. Die Sonde kann eine Streifensonde oder eine Flächensonde sein. Die Anzeige kann, abhängig von den Anwendungsanforderungen, an einem anderen Ort angebracht werden.

Claims (5)

  1. Abtastvorrichtung (100) zum Abtasten eines Objekts unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen, aufweisend: eine Abtasteinrichtung (3), die zur Bewegung durch einen Bediener auf einem mehrgelenkigen Arm (1) befestigt ist, um das Objekt abzutasten und Daten von mehreren Punkten auf der Oberfläche des Objekts zu erfassen, und die aufweist: – einen Laser (22) zum Aussenden von Laserlicht auf die Oberfläche des Objekts, und – eine Kamera (25) zum Erfassen von von der Oberfläche des Objekts reflektiertem Laserlicht durch Aufzeichnen von Bildern zu Zeitpunkten, die von einem Synchronisationssignal (240) festgelegt sind, eine Positionsberechnungseinrichtung (2) zur Berechnung der Position des mehrgelenkigen Arms und zur Ausgabe von die Position festlegenden Positionsdaten in Reaktion auf einen Triggerimpuls (243), eine Einrichtung (241, 242), um das Synchronisationssignal (240) für die Kamera (25) zu empfangen, das deren Bildaufzeichnungszeitpunkte festlegt, und um daraufhin Triggerimpulse (243) für die Positionsberechnungseinrichtung zu erzeugen und auszugeben, um diese zu veranlassen, für jedes von der Kamera aufgezeichnete Bild Positionsdaten auszugeben, und eine Modelliereinrichtung (4) zum Empfang von von der Kamera (25) ausgegebenen Bildern und zugeordneten von der Positionsberechnungseinrichtung ausgegebenen Positionsdaten und zur Verarbeitung der Daten unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen.
  2. Vorrichtung zur Verwendung in einer Abtastvorrichtung nach Anspruch 1, aufweisend: eine Abtasteinrichtung (3) zur Befestigung auf einem mehrgelenkigen Arm (1) zur Bewegung durch einen Bediener, um ein Objekt abzutasten und Daten von mehreren Punkten auf der Oberfläche des Objekts zu erfassen, aufweisend: – einen Laser (22) zum Aussenden von Laserlicht auf die Oberfläche des Objekts, und – eine Kamera (25) zur Erfassung von von der Oberfläche des Objekts reflektiertem Laserlicht durch Aufzeichnen von Bildern zu Zeitpunkten, die von einem Synchronisationssignal (240) festgelegt sind, eine Einrichtung (241, 242), um das Synchronisationssignal (240) für die Kamera (25) zu empfangen, das deren Bildaufzeichnungszeitpunkte festlegt, und um daraufhin Triggerimpulse (243) für die Positionsberechnungseinrichtung eines mehrgelenkigen Arms zu erzeugen und auszugeben, um diese zu veranlassen, für jedes von der Kamera aufgezeichnete Bild Positionsdaten auszugeben, und eine Modelliereinrichtung (4) zum Empfang von von der Kamera (25) ausgegebenen Bildern und zugeordneten von der Positionsberechnungseinrichtung ausgegebenen Positionsdaten und zur Verarbeitung der Daten unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen.
  3. Abtastvorrichtung (100) zum Abtasten eines Objekts unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen, aufweisend: eine Abtasteinrichtung (3), die zur Bewegung durch einen Bediener auf einem mehrgelenkigen Arm (1) befestigt ist, um das Objekt abzutasten und Daten von Punkten auf der Oberfläche des Objekts zu erfassen, und die aufweist: – einen Laser (22) zum Aussenden von Laserlicht auf die Oberfläche des Objekts, – eine Kamera (25) zur Erfassung von von der Oberfläche des Objekts reflektiertem Laserlicht, und – eine Spitzensonde (51) zum Berühren der Oberfläche des Objekts an einzelnen Punkten, eine Positionsberechnungseinrichtung (2) zur Berechnung der Position des mehrgelenkigen Arms und zur Ausgabe von Positionsdaten, die die Position festlegen, eine Steuereinrichtung zum Umschalten zwischen einem ersten Datenerfassungsmodus der Vorrichtung, in dem diese Daten von mehreren Punkten auf der Oberfläche des Objekts durch Bestrahlung des Objekts mit Laserlicht von dem Laser (22) und durch Erfassen von von der Oberfläche des Objekts reflektiertem Laserlicht mit der Kamera (25) erfassen kann, während die Spitzensonde auf dem mehrgelenkigen Arm (1) verbleibt, und einem zweiten Datenerfassungsmodus, in dem die Vorrichtung Daten von einzelnen Punkten auf der Oberfläche des Objekts erfassen kann, die von der Spitzensonde (51) berührt werden, während die Kamera und der Laser auf dem mehrgelenkingen Arm (1) verbleiben, und eine Modelliereinrichtung (4) zum Empfang von von der Kamera (25) ausgegebenen Bildern und von der Positionsberechnungseinrichtung ausgegebenen Positionsdaten und zum Verarbeiten der Daten unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen.
  4. Vorrichtung zur Verwendung in einer Abtastvorrichtung nach Anspruch 3, aufweisend: eine Abtasteinrichtung (3) zur Befestigung auf einem mehrgelenkigen Arm (1) zur Bewegung durch einen Bediener, um ein Objekt abzutasten und Daten von Punkten auf der Oberfläche des Objekts zu erfassen, aufweisend: – einen Laser (22) zum Aussenden von Laserlicht auf die Oberfläche des Objekts, – eine Kamera (25) zur Erfassung von von der Oberfläche des Objekts reflektiertem Laserlicht, und – eine Spitzensonde (51) zum Berühren der Oberfläche des Objekts an einzelnen Punkten, eine Steuereinrichtung zum Umschalten zwischen einem ersten Datenerfassungsmodus der Vorrichtung, in dem diese Daten von mehreren Punkten auf der Oberfläche des Objekts durch Bestrahlung des Objekts mit Laserlicht von dem Laser (22) und Erfassung von von der Oberfläche des Objekts reflektiertem Laserlicht mit der Kamera (25) erfassen kann, während die Spitzensonde auf dem mehrgelenkigen Arm (1) verbleibt, und einem zweiten Datenerfassungsmodus, in dem die Vorrichtung Daten von einzelnen Punkten auf der Oberfläche des Objekts erfassen kann, die von der Spitzensonde (51) berührt werden, während der Laser und die Kamera auf dem mehrgelenkigen Arm (1) verbleiben, und eine Modelliereinrichtung (4) zum Empfang von von der Kamera (25) ausgegebenen Bildern und zugeordneten von der Positionsberechnungseinrichtung ausgegebenen Positionsdaten des mehrgelenkigen Arms und zur Verarbeitung der Daten unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen.
  5. Verfahren zur Synchronisation der Aufzeichnung von Bildern durch eine Kamera und der Erzeugung von Daten, die die Position der Kamera festlegen, in einem System zum Abtasten eines Objekts unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen, das aufweist: eine Abtasteinrichtung (3), die zur Bewegung durch einen Bediener auf einem mehrgelenkigen Arm (1) befestigt ist, um das Objekt abzutasten und Daten von mehreren Punkten auf der Oberfläche des Objekts zu erfassen, und die aufweist: – einen Laser (22) zum Aussenden von Laserlicht auf die Oberfläche des Objekts, und – eine Kamera (25) zur Erfassung von von der Oberfläche des Objekts reflektiertem Laserlicht durch Aufzeichnen von Bildern zu Zeitpunkten, die von einem Synchronisationssignal (240) festgelegt werden, eine Positionsberechnungseinrichtung (2) zur Berechnung der Position des mehrgelenkigen Arms und zur Ausgabe von Positionsdaten, die die Position festlegen, in Reaktion auf einen Triggerimpuls (243), und eine Modelliereinrichtung (4) zum Empfang von von der Kamera (25) ausgegebenen Bildern und zugeordneten von der Positionsberechnungseinrichtung ausgegebenen Positionsdaten und zur Verarbeitung der Daten unter Erzeugung von Daten, die Punkte im dreidimensionalen Raum festlegen, die Punkten auf der Oberfläche des Objekts entsprechen, wobei das Verfahren folgende Schritte umfaßt: Empfangen des Synchronisationssignals (240) für die Kamera (25), das deren Bildaufzeichnungszeitpunkte festlegt, und daraufhin Erzeugen und Ausgeben von Triggerimpulsen (243) an die Positionsberechnungseinrichtung, um diese zu veranlassen, für jedes von der Kamera aufgezeichnete Bild Positionsdaten auszugeben.
DE69628956T 1995-07-26 1996-07-25 Abtastvorrichtung und -verfahren Expired - Lifetime DE69628956T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9515311.0A GB9515311D0 (en) 1995-07-26 1995-07-26 Stripe scanners and methods of scanning
GB9515311 1995-07-26

Publications (2)

Publication Number Publication Date
DE69628956D1 DE69628956D1 (de) 2003-08-07
DE69628956T2 true DE69628956T2 (de) 2004-05-27

Family

ID=10778272

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69628956T Expired - Lifetime DE69628956T2 (de) 1995-07-26 1996-07-25 Abtastvorrichtung und -verfahren
DE69619826T Expired - Lifetime DE69619826D1 (de) 1995-07-26 1996-07-25 Abtastvorrichtung und verfahren

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69619826T Expired - Lifetime DE69619826D1 (de) 1995-07-26 1996-07-25 Abtastvorrichtung und verfahren

Country Status (7)

Country Link
US (3) US6611617B1 (de)
EP (3) EP1355127A3 (de)
JP (1) JPH11509928A (de)
AU (1) AU6626896A (de)
DE (2) DE69628956T2 (de)
GB (1) GB9515311D0 (de)
WO (1) WO1997005449A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1710536A1 (de) 2005-04-08 2006-10-11 DeguDent GmbH Verfahren zur dreidimensionalen Formerfassung eines Körpers
DE102009018464A1 (de) * 2009-04-22 2010-11-11 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
DE102011018597B3 (de) * 2011-04-21 2012-10-25 Vrmagic Gmbh Verfahren zum synchronisierten Betrieb einer Kamera und eines Projektors
DE102011104550A1 (de) * 2011-06-17 2012-12-20 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102015108389A1 (de) * 2015-05-27 2016-12-01 Carl Zeiss Industrielle Messtechnik Gmbh Beleuchtungssteuerung beim Einsatz von optischen Messgeräten
DE102015120380A1 (de) * 2015-11-25 2017-06-01 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Konstruieren und/oder Herstellen eines Fluidleitungssystems in einem Kraftfahrzeug
EP3502614A1 (de) * 2017-12-21 2019-06-26 Weber Maschinenbau GmbH Breidenbach Optische messeinrichtung

Families Citing this family (265)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
FR2764397B1 (fr) * 1997-06-09 1999-10-01 Aerospatiale Procede et dispositif de prises de vues spheriques pour la realisation d'une matrice d'images 3d d'un objet
US6980679B2 (en) 1998-10-23 2005-12-27 Varian Medical System Technologies, Inc. Method and system for monitoring breathing activity of a subject
US6279579B1 (en) * 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US7158610B2 (en) * 2003-09-05 2007-01-02 Varian Medical Systems Technologies, Inc. Systems and methods for processing x-ray images
US6621889B1 (en) * 1998-10-23 2003-09-16 Varian Medical Systems, Inc. Method and system for predictive physiological gating of radiation therapy
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
JP2002543411A (ja) * 1999-04-30 2002-12-17 ワグナー,クリストフ 物体形状の光学的検出方法
US6166811A (en) 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
DE19956646C1 (de) * 1999-11-25 2001-10-18 Dieter Dirksen Vorrichtung und Verfahren zur Erfassung der Raumkoordinaten von farblich differenzierten Oberflächenmerkmalen
US7106898B2 (en) * 1999-12-06 2006-09-12 California Institute Of Technology 3D scanning using shadows
DE10009870C2 (de) * 2000-03-01 2002-02-07 Bernward Maehner Verfahren und Vorrichtung zur Untersuchung von Prüfobjekten
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US6804380B1 (en) * 2000-05-18 2004-10-12 Leica Geosystems Hds, Inc. System and method for acquiring tie-point location information on a structure
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
HU0003886D0 (en) * 2000-10-04 2000-12-28 Method and apparatus for preparing statue-like copy
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
EP1211481A3 (de) * 2000-11-29 2004-05-19 microSystems GmbH Prüfvorrichtung zum Erkennen der Geometrie und/oder Lage von Bauteilen
US7215803B2 (en) * 2001-04-29 2007-05-08 Geodigm Corporation Method and apparatus for interactive remote viewing and collaboration of dental images
US7200642B2 (en) * 2001-04-29 2007-04-03 Geodigm Corporation Method and apparatus for electronic delivery of electronic model images
US7769430B2 (en) 2001-06-26 2010-08-03 Varian Medical Systems, Inc. Patient visual instruction techniques for synchronizing breathing with a medical procedure
ITTO20010640A1 (it) * 2001-07-03 2003-01-03 Newlast Automation Srl Dispositivo e metodo per la rilevazione di forme, in particolare modelli di calzatura.
JP2003032495A (ja) * 2001-07-13 2003-01-31 Fujitsu Ltd スムージング方法及びスムージング回路
US7034960B2 (en) * 2001-08-16 2006-04-25 Sun Chemical Corporation System and method for managing electronic transmission of color data
FR2832577B1 (fr) * 2001-11-16 2005-03-18 Cit Alcatel Acquisition adaptative de donnees pour systeme de gestion de reseaux ou de services
JP3855756B2 (ja) * 2001-12-07 2006-12-13 ブラザー工業株式会社 3次元色形状検出装置及び3次元スキャナー
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
WO2003069267A1 (en) * 2002-02-14 2003-08-21 Faro Technologies, Inc. Portable coordinate measurement machine with articulated arm
SE523681C2 (sv) * 2002-04-05 2004-05-11 Integrated Vision Prod System och sensor för avbildning av egenskaper hos ett objekt
DE10233372B4 (de) * 2002-07-18 2004-07-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Messsystem und Verfahren zur Erfassung geometrischer Größen
US7620444B2 (en) 2002-10-05 2009-11-17 General Electric Company Systems and methods for improving usability of images for medical applications
FR2846413B1 (fr) * 2002-10-24 2005-03-11 Luc Vergnaud Dispositif de numerisation sans contact d'un objet en 3 dimensions
US8064684B2 (en) * 2003-04-16 2011-11-22 Massachusetts Institute Of Technology Methods and apparatus for visualizing volumetric data using deformable physical object
WO2004096502A1 (en) 2003-04-28 2004-11-11 Stephen James Crampton Cmm arm with exoskeleton
US20050010450A1 (en) * 2003-05-05 2005-01-13 Geodigm Corporation Method and apparatus for utilizing electronic models of patient teeth in interdisciplinary dental treatment plans
DE10331460A1 (de) * 2003-07-10 2005-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Roboter
GB2405466B (en) 2003-08-27 2006-01-25 Teraview Ltd Method and apparatus for investigating a non-planner sample
US8571639B2 (en) 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
US7064810B2 (en) * 2003-09-15 2006-06-20 Deere & Company Optical range finder with directed attention
DE10345743A1 (de) * 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
US7961934B2 (en) * 2003-12-11 2011-06-14 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry
US7152456B2 (en) 2004-01-14 2006-12-26 Romer Incorporated Automated robotic measuring system
US7693325B2 (en) 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
US7327857B2 (en) * 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
US7824346B2 (en) * 2004-03-11 2010-11-02 Geodigm Corporation Determining condyle displacement utilizing electronic models of dental impressions having a common coordinate system
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US7466416B2 (en) * 2004-04-30 2008-12-16 X-Rite, Inc. Color measurement system
US7319529B2 (en) 2004-06-17 2008-01-15 Cadent Ltd Method and apparatus for colour imaging a three-dimensional structure
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object
US20060074305A1 (en) * 2004-09-30 2006-04-06 Varian Medical Systems Technologies, Inc. Patient multimedia display
US7266425B2 (en) * 2004-09-30 2007-09-04 Rockwell Automation Technologies, Inc. Systems and methods that facilitate motion control through coordinate system transformations
US7307737B1 (en) * 2004-10-08 2007-12-11 Snap-On Incorporated Three-dimensional (3D) measuring with multiple reference frames
EP1815367A1 (de) * 2004-11-17 2007-08-08 TECOSIM Technische Simulation GmbH Verfahren zur erzeugung eines berechnungsmodells einer mechanischen struktur
EP1826529A4 (de) * 2004-11-22 2010-11-17 Bridgestone Corp Vorrichtung zur untersuchung des externen aussehens
EP1694048B1 (de) * 2005-02-16 2013-01-09 X-Rite Europe GmbH Farbmessgerät und Messverfahren für das Gerät
US7808644B2 (en) * 2005-03-24 2010-10-05 Obe Ohnmacht & Baumgartner Gmbh & Co. Kg Device for optically measuring the shapes of objects and surfaces
US9423693B1 (en) 2005-05-10 2016-08-23 Victor B. Kley In-plane scanning probe microscopy tips and tools for wafers and substrates with diverse designs on one wafer or substrate
US7571638B1 (en) * 2005-05-10 2009-08-11 Kley Victor B Tool tips with scanning probe microscopy and/or atomic force microscopy applications
JP2006349547A (ja) * 2005-06-17 2006-12-28 Kanto Auto Works Ltd 非接触式三次元形状計測方法及び計測機
US20080232679A1 (en) * 2005-08-17 2008-09-25 Hahn Daniel V Apparatus and Method for 3-Dimensional Scanning of an Object
US9119541B2 (en) * 2005-08-30 2015-09-01 Varian Medical Systems, Inc. Eyewear for patient prompting
WO2007033273A2 (en) * 2005-09-13 2007-03-22 Romer Incorporated Vehicle comprising an articulator of a coordinate measuring machine
KR20080064155A (ko) * 2005-10-14 2008-07-08 어플라이드 리써치 어쏘시에이츠 뉴질랜드 리미티드 표면 특징을 모니터링하는 방법 및 장치
US7780085B2 (en) * 2005-12-09 2010-08-24 Larue John D Round surface scanner
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
WO2008108749A1 (en) * 2006-01-20 2008-09-12 Nextpat Limited Desktop three-dimensional scanner
DE502006009454D1 (de) * 2006-03-23 2011-06-16 Bernward Maehner Ewegender objekte
WO2007125081A1 (en) 2006-04-27 2007-11-08 Metris N.V. Optical scanning probe
US7568293B2 (en) * 2006-05-01 2009-08-04 Paul Ferrari Sealed battery for coordinate measurement machine
KR100753536B1 (ko) * 2006-05-04 2007-08-30 주식회사 아이너스기술 3차원 역설계 모델링을 위한 원시 모델 데이터로부터 2차원스케치 데이터를 검출하는 방법
US7805854B2 (en) 2006-05-15 2010-10-05 Hexagon Metrology, Inc. Systems and methods for positioning and measuring objects using a CMM
DE102006031833A1 (de) * 2006-05-24 2007-12-06 Dr. Wirth Grafische Technik Gmbh & Co. Kg Verfahren zum Erzeugen von Bildinformationen
CN101449292B (zh) * 2006-05-24 2012-07-04 皇家飞利浦电子股份有限公司 坐标系配准
US7784107B2 (en) * 2006-06-02 2010-08-24 Victor B. Kley High speed measurement, analysis and imaging systems and methods for length scales from meter to sub-nanometer
KR100753537B1 (ko) * 2006-06-09 2007-08-30 주식회사 아이너스기술 메시 데이터를 피처로 이용한 역설계 방법
DE102006031580A1 (de) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
DE102006031142B4 (de) * 2006-07-05 2012-02-16 Prüf- und Forschungsinstitut Pirmasens e.V. Verfahren und Vorrichtung zur dreidimensionalen Vermessung und Erfassung der kompletten Objektoberfläche eines kugelförmigen Messobjektes wie eines Sportballs
US20080021317A1 (en) * 2006-07-24 2008-01-24 Siemens Medical Solutions Usa, Inc. Ultrasound medical imaging with robotic assistance for volume imaging
US7652275B2 (en) * 2006-07-28 2010-01-26 Mitutoyo Corporation Non-contact probe control interface
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
US8054500B2 (en) * 2006-10-10 2011-11-08 Hewlett-Packard Development Company, L.P. Acquiring three-dimensional structure using two-dimensional scanner
EP2092269B1 (de) * 2006-11-20 2019-05-01 Hexagon Technology Center GmbH Koordinatenmessungsmaschine mit verbesserter verbindung
JP5511387B2 (ja) * 2006-12-22 2014-06-04 ヘキサゴン メトロロジー,インコーポレイテッド 座標測定機のための改良された継ぎ手軸
CN104807425A (zh) * 2007-04-03 2015-07-29 六边形度量衡股份公司 用于物体的精确测量的方法和设备
JP2008256462A (ja) * 2007-04-03 2008-10-23 Fanuc Ltd 形状データの画像表示方法
DE102007022361A1 (de) 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche
US7953247B2 (en) 2007-05-21 2011-05-31 Snap-On Incorporated Method and apparatus for wheel alignment
US7546689B2 (en) * 2007-07-09 2009-06-16 Hexagon Metrology Ab Joint for coordinate measurement device
EP2183545B1 (de) 2007-08-17 2014-12-17 Renishaw PLC Phasenanalyse-messvorrichtung und verfahren
US8116519B2 (en) * 2007-09-26 2012-02-14 Honda Motor Co., Ltd. 3D beverage container localizer
US7774949B2 (en) * 2007-09-28 2010-08-17 Hexagon Metrology Ab Coordinate measurement machine
US7627448B2 (en) * 2007-10-23 2009-12-01 Los Alamost National Security, LLC Apparatus and method for mapping an area of interest
CN101424520B (zh) * 2007-10-31 2011-03-23 鸿富锦精密工业(深圳)有限公司 物件曲面的局部轮廓检测方法
WO2009116508A1 (ja) * 2008-03-19 2009-09-24 株式会社安川電機 形状計測装置とこれを備えたロボット装置
US20090322859A1 (en) * 2008-03-20 2009-12-31 Shelton Damion M Method and System for 3D Imaging Using a Spacetime Coded Laser Projection System
US8122610B2 (en) * 2008-03-28 2012-02-28 Hexagon Metrology, Inc. Systems and methods for improved coordination acquisition member comprising calibration information
US7779548B2 (en) * 2008-03-28 2010-08-24 Hexagon Metrology, Inc. Coordinate measuring machine with rotatable grip
JP5409771B2 (ja) * 2008-04-18 2014-02-05 スリーディー スキャナーズ リミテッド 物体の寸法取得を向上させる方法およびコンピュータプログラム
US8520930B2 (en) 2008-04-18 2013-08-27 3D Scanners Ltd. Method and computer program for improving the dimensional acquisition of an object
US7640674B2 (en) * 2008-05-05 2010-01-05 Hexagon Metrology, Inc. Systems and methods for calibrating a portable coordinate measurement machine
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
US7908757B2 (en) * 2008-10-16 2011-03-22 Hexagon Metrology, Inc. Articulating measuring arm with laser scanner
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US9739595B2 (en) * 2008-12-11 2017-08-22 Automated Precision Inc. Multi-dimensional measuring system with measuring instrument having 360° angular working range
FR2940423B1 (fr) 2008-12-22 2011-05-27 Noomeo Dispositif de numerisation tridimensionnelle a reconstruction dense
US20110316978A1 (en) * 2009-02-25 2011-12-29 Dimensional Photonics International, Inc. Intensity and color display for a three-dimensional metrology system
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DK2438397T3 (en) 2009-06-01 2019-01-28 Dentsply Sirona Inc Method and device for three-dimensional surface detection with a dynamic frame of reference
WO2011008503A2 (en) 2009-06-30 2011-01-20 Hexagon Metrology Ab Coordinate measurement machine with vibration detection
BE1018834A3 (nl) * 2009-07-21 2011-09-06 Praet Peter Van Inspectie camera gemonteerd op een medische diagnose automaat.
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US8099877B2 (en) 2009-11-06 2012-01-24 Hexagon Metrology Ab Enhanced position detection for a CMM
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
TW201120405A (en) * 2009-12-11 2011-06-16 Jeteazy System Co Ltd Height measurement device having probe and method for using the device to measure height.
US20110213247A1 (en) * 2010-01-08 2011-09-01 Hexagon Metrology, Inc. Articulated arm with imaging device
US8630314B2 (en) 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
JP5615382B2 (ja) 2010-01-20 2014-10-29 ファロ テクノロジーズ インコーポレーテッド マルチバスアーム技術を用いた可搬型の関節アーム座標測定機
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US8875409B2 (en) 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
CN102597895A (zh) * 2010-01-20 2012-07-18 法罗技术股份有限公司 便携式关节臂坐标测量机以及集成环境记录器
US8898919B2 (en) 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US8677643B2 (en) 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8615893B2 (en) 2010-01-20 2013-12-31 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine having integrated software controls
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
GB2489370B (en) * 2010-01-20 2014-05-14 Faro Tech Inc Coordinate measuring machine having an illuminated probe end and method of operation
GB2477347A (en) * 2010-02-01 2011-08-03 Cambridge Entpr Ltd A Hand Operated Controller
DE102010008416A1 (de) * 2010-02-18 2011-08-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., 80686 Vorrichtung und Verfahren zur optischen Vermessung eines stift- oder stabförmigen Körpers
USD643319S1 (en) 2010-03-29 2011-08-16 Hexagon Metrology Ab Portable coordinate measurement machine
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US9157865B2 (en) * 2010-05-03 2015-10-13 United Technologies Corporation Machine tool—based, optical coordinate measuring machine calibration device
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US8127458B1 (en) 2010-08-31 2012-03-06 Hexagon Metrology, Inc. Mounting apparatus for articulated arm laser scanner
WO2012033892A1 (en) 2010-09-08 2012-03-15 Faro Technologies, Inc. A laser scanner or laser tracker having a projector
US8542348B2 (en) * 2010-11-03 2013-09-24 Rockwell Automation Technologies, Inc. Color sensor insensitive to distance variations
US8867804B2 (en) * 2010-11-08 2014-10-21 Cranial Technologies, Inc. Method and apparatus for automatically generating trim lines for cranial remodeling devices
JP5713634B2 (ja) * 2010-11-10 2015-05-07 矢崎総業株式会社 部品位置計測方法
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
CN102564302A (zh) 2010-12-10 2012-07-11 通用电气公司 测量系统和方法
TWI421794B (zh) * 2010-12-16 2014-01-01 Univ Nat Taipei Technology 重新建構物件三維模型的裝置
US8939369B2 (en) 2011-01-24 2015-01-27 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
GB2503390B (en) 2011-03-03 2014-10-29 Faro Tech Inc Target apparatus and method
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
CN103649673A (zh) 2011-04-15 2014-03-19 法罗技术股份有限公司 激光跟踪器中的增强的位置检测器
DE102011051781A1 (de) * 2011-07-12 2013-01-17 Göpel electronic GmbH Deflektometrische Anordnung zur Oberflächeninspektion
KR20140066177A (ko) * 2011-07-29 2014-05-30 헥사곤 메트롤로지, 인크. 좌표 측정 시스템의 데이터 감축
BR112014005878A2 (pt) * 2011-09-13 2020-10-27 Osi Optoelectronics, Inc. sensor de telêmetro a laser melhorado
JP2013071194A (ja) * 2011-09-27 2013-04-22 Hitachi Koki Co Ltd 切断機及びモータの緊急停止方法
US9391498B2 (en) * 2011-09-29 2016-07-12 General Electric Company Methods and systems for use in configuring a coil forming machine
DE102011119073A1 (de) * 2011-11-15 2013-05-16 Fiagon Gmbh Registrierverfahren, Positionserfassungssystem und Abtastinstrument
US9451810B2 (en) 2011-11-18 2016-09-27 Nike, Inc. Automated identification of shoe parts
US8849620B2 (en) * 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
US8755925B2 (en) 2011-11-18 2014-06-17 Nike, Inc. Automated identification and assembly of shoe parts
US10552551B2 (en) 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
US8958901B2 (en) 2011-11-18 2015-02-17 Nike, Inc. Automated manufacturing of shoe parts
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
CN103186704A (zh) * 2011-12-29 2013-07-03 鸿富锦精密工业(深圳)有限公司 寻线过滤系统及方法
US8763267B2 (en) 2012-01-20 2014-07-01 Hexagon Technology Center Gmbh Locking counterbalance for a CMM
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
GB2515922A (en) 2012-01-27 2015-01-07 Faro Tech Inc Inspection method with barcode identification
US8596525B2 (en) * 2012-02-06 2013-12-03 Oracle International Corporation Topographic spot scanning for a storage library
US8613386B2 (en) * 2012-02-29 2013-12-24 Oracle International Corporation Contrast spot scanning for a storage library
EP2831539B1 (de) 2012-03-30 2019-06-05 Nikon Metrology NV Verbesserte optische erfassungssonde
US20130266228A1 (en) * 2012-04-10 2013-10-10 Siemens Industry, Inc. Automatic part identification and workflow generation
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US9069355B2 (en) 2012-06-08 2015-06-30 Hexagon Technology Center Gmbh System and method for a wireless feature pack
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
CN103676447A (zh) * 2012-09-07 2014-03-26 致伸科技股份有限公司 桌上型立体图像扫描装置
WO2014047491A1 (en) * 2012-09-20 2014-03-27 Marc Dubois Depth mapping vision system with 2d optical pattern for robotic applications
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US8966775B2 (en) 2012-10-09 2015-03-03 Nike, Inc. Digital bite line creation for shoe assembly
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
CA2925620C (en) * 2012-10-29 2020-07-21 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
US9250214B2 (en) 2013-03-12 2016-02-02 Hexagon Metrology, Inc. CMM with flaw detection system
US9866900B2 (en) 2013-03-12 2018-01-09 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to detect shapes
US9188430B2 (en) 2013-03-14 2015-11-17 Faro Technologies, Inc. Compensation of a structured light scanner that is tracked in six degrees-of-freedom
US9778572B1 (en) 2013-03-15 2017-10-03 Victor B. Kley In-plane scanning probe microscopy tips and tools for wafers and substrates with diverse designs on one wafer or substrate
DE202013002483U1 (de) * 2013-03-15 2014-06-16 Csb-System Ag Vorrichtung zur Vermessung einer Schlachttierkörperhälfte
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
DE102013104004A1 (de) * 2013-04-19 2014-10-23 Schoen + Sandt Machinery Gmbh Prüfvorrichtung und -Verfahren
US9651525B2 (en) * 2013-06-27 2017-05-16 TecScan Systems Inc. Method and apparatus for scanning an object
US9900585B2 (en) * 2013-09-18 2018-02-20 Matter and Form Inc. Device, system and method for three-dimensional modeling
DE102013017500B3 (de) 2013-10-17 2015-04-02 Faro Technologies, Inc. Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Szene
DE102013222230A1 (de) 2013-10-31 2015-04-30 Fiagon Gmbh Chirurgisches Instrument
JP2015099116A (ja) * 2013-11-20 2015-05-28 セイコーエプソン株式会社 成分分析装置
US9163921B2 (en) 2013-12-18 2015-10-20 Hexagon Metrology, Inc. Ultra-portable articulated arm coordinate measurement machine
US9594250B2 (en) 2013-12-18 2017-03-14 Hexagon Metrology, Inc. Ultra-portable coordinate measurement machine
US10089415B2 (en) 2013-12-19 2018-10-02 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
US20150260509A1 (en) * 2014-03-11 2015-09-17 Jonathan Kofman Three dimensional (3d) imaging by a mobile communication device
US10267629B2 (en) 2014-04-08 2019-04-23 Nikon Metrology Nv Measurement probe unit for metrology applications
DE102014105456B4 (de) * 2014-04-16 2020-01-30 Minikomp Bogner GmbH Verfahren zur Vermessung der Außenkontur von dreidimensionalen Messobjekten und zugehöriges Messsystem
US9759540B2 (en) 2014-06-11 2017-09-12 Hexagon Metrology, Inc. Articulating CMM probe
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
JP2016035623A (ja) * 2014-08-01 2016-03-17 キヤノン株式会社 情報処理装置及び情報処理方法
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US9903811B2 (en) * 2014-08-12 2018-02-27 The Boeing Company Multi-spectral reflectometer
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
WO2016044658A1 (en) 2014-09-19 2016-03-24 Hexagon Metrology, Inc. Multi-mode portable coordinate measuring machine
DE102014114506B4 (de) * 2014-10-07 2020-06-04 Sick Ag Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9575004B2 (en) * 2014-11-17 2017-02-21 The Boeing Company Automated low cost method for illuminating, evaluating, and qualifying surfaces and surface coatings
JP6126067B2 (ja) 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム
US9958256B2 (en) * 2015-02-19 2018-05-01 Jason JOACHIM System and method for digitally scanning an object in three dimensions
WO2016141100A2 (en) 2015-03-03 2016-09-09 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
CN108027509A (zh) * 2015-05-20 2018-05-11 奇跃公司 倾斜偏移虹膜成像
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
EP3329211A4 (de) 2015-07-31 2019-03-06 Hewlett-Packard Development Company, L.P. Drehplattenperipheriegerät zur 3d-abtastung
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
DE102015119806A1 (de) * 2015-11-16 2017-05-18 Grob-Werke Gmbh & Co. Kg Verfahren zur Darstellung der Bearbeitung in einer Werkzeugmaschine
US10451407B2 (en) * 2015-11-23 2019-10-22 The Boeing Company System and method of analyzing a curved surface
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
CN109196303B (zh) 2016-04-01 2020-10-23 乐高公司 玩具扫描仪
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
EP3258211B1 (de) * 2016-06-17 2023-12-13 Hexagon Technology Center GmbH Bestimmung von reflektionseigenschaften eines objektes in bezug auf eine bestimmte optische messung
DE102016214228A1 (de) * 2016-08-02 2018-02-08 Dr. Johannes Heidenhain Gmbh Verfahren und Vorrichtung zum Steuern einer Fräsmaschine
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
EP3566178A4 (de) 2017-02-02 2020-08-26 Prenav Inc. Verfolgende bildsammlung zur digitalen erfassung von umgebungen sowie zugehörige systeme und verfahren
KR20240023447A (ko) * 2017-02-15 2024-02-21 쓰리세이프 에이/에스 3d 스캐너의 스캔 볼륨 모니터링
US10325413B2 (en) * 2017-02-28 2019-06-18 United Technologies Corporation Generating smooth optimized parts
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
WO2018185560A2 (en) 2017-04-04 2018-10-11 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
JP6626036B2 (ja) * 2017-04-18 2019-12-25 ファナック株式会社 測定機能を有するレーザ加工システム
US10122997B1 (en) 2017-05-03 2018-11-06 Lowe's Companies, Inc. Automated matrix photo framing using range camera input
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10739128B2 (en) * 2018-02-26 2020-08-11 The Boeing Company Laser scanner scanning using a computer numerical controlled (CNC) system for movement
DE102018002622A1 (de) * 2018-03-29 2019-10-02 Twinner Gmbh 3-D-Objekt-Erfassungssystem
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉系统中多模态感测深度的系统和方法
EP3637047A1 (de) * 2018-09-11 2020-04-15 MSG Maschinenbau GmbH Vorrichtung und verfahren zum messen der geradheit eines stabförmigen werkstücks
CN109764807B (zh) * 2019-01-14 2021-03-05 广东原点智能技术有限公司 发动机缸体位置标定的2d视觉检测方法及检测系统
DE102019103519B4 (de) 2019-02-12 2021-09-16 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
EP3719749A1 (de) 2019-04-03 2020-10-07 Fiagon AG Medical Technologies Registrierungsverfahren und -einrichtung
WO2020210168A1 (en) 2019-04-08 2020-10-15 Activ Surgical, Inc. Systems and methods for medical imaging
DE102019122655A1 (de) * 2019-08-22 2021-02-25 M & H Inprocess Messtechnik Gmbh Messsystem
US10885704B1 (en) 2019-09-04 2021-01-05 Microsoft Technology Licensing, Llc 3D mapping by distinguishing between different environmental regions
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
KR102423720B1 (ko) * 2020-09-21 2022-07-22 주식회사 모션다이나믹스 연마 시스템
CA3138634C (en) 2021-03-04 2023-09-19 TecScan Systems Inc. System and method for scanning an object using an array of ultrasonic transducers
US20220329737A1 (en) * 2021-04-13 2022-10-13 Okibo Ltd 3d polygon scanner

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4373804A (en) 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4628469A (en) 1982-09-29 1986-12-09 Technical Arts Corporation Method and apparatus for locating center of reference pulse in a measurement system
GB2157826A (en) 1984-04-17 1985-10-30 Carves Simon Ltd A surface topography measuring system
US4649504A (en) * 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
GB2180117B (en) 1985-09-05 1989-09-06 Ferranti Plc Three-dimensional position measuring apparatus
US5264578A (en) 1987-03-20 1993-11-23 Allergan, Inc. Disubstituted acetylenes bearing heterobicyclic groups and heteroaromatic or phenyl groups having retinoid like activity
US5191642A (en) * 1987-04-09 1993-03-02 General Electric Company Method for efficiently allocating computer resource for real time image generation
US4825391A (en) * 1987-07-20 1989-04-25 General Electric Company Depth buffer priority processing for real time computer image generating systems
FR2627047B1 (fr) 1988-02-09 1990-07-27 Vision 3D Procede de numerisation de la surface d'un objet tridimensionnel et appareil de releve en vue de sa mise en oeuvre
FR2629198B1 (fr) 1988-03-25 1994-07-08 Kreon Ingenierie Marketing Procede de determination et de reconstitution des coordonnees spatiales de chacun des points d'un ensemble de points echantillonnant une surface tridimensionnelle, et procede de realisation d'une image tridimensionnelle de cette surface a partir desdites coordonnees
US5008555A (en) * 1988-04-08 1991-04-16 Eaton Leonard Technologies, Inc. Optical probe with overlapping detection fields
FR2642833B1 (fr) * 1989-02-06 1991-05-17 Vision 3D Procede d'etalonnage d'un systeme d'acquisition tridimensionnelle de forme et systeme d'acquisition pour la mise en oeuvre dudit procede
US5189291A (en) 1989-05-01 1993-02-23 Symbol Technologies, Inc. Bar code reader operable as remote scanner or with fixed terminal
US5090811A (en) * 1989-05-31 1992-02-25 General Electric Company Optical radius gauge
JPH0718692B2 (ja) 1989-06-16 1995-03-06 三菱電機株式会社 光切断法による物体の立体形状検知装置
JPH0718693B2 (ja) 1989-06-27 1995-03-06 三菱電機株式会社 光切断法による物体の立体形状検知装置
DE3938714A1 (de) 1989-11-23 1991-05-29 Bernd Dr Breuckmann Verfahren zur optischen erfassung von formen von objekten
US5251296A (en) * 1990-03-16 1993-10-05 Hewlett-Packard Company Methods and apparatus for generating arbitrarily addressed, arbitrarily shaped tiles in computer graphics systems
US5168528A (en) 1990-08-20 1992-12-01 Itt Corporation Differential electronic imaging system
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
AU8869191A (en) 1990-10-24 1992-05-26 Broken Hill Proprietary Company Limited, The Process and device for the opto-electronic measurement of objects
US5268996A (en) * 1990-12-20 1993-12-07 General Electric Company Computer image generation method for determination of total pixel illumination due to plural light sources
US5193120A (en) 1991-02-27 1993-03-09 Mechanical Technology Incorporated Machine vision three dimensional profiling system
US5264678A (en) * 1991-09-26 1993-11-23 Applied Research, Inc. Weld-bead profilometer
GB9127139D0 (en) 1991-12-20 1992-02-19 3D Scanners Ltd Scanning unit
FR2685764B1 (fr) 1991-12-30 1995-03-17 Kreon Ind Capteur optique compact et a haute resolution pour l'analyse de formes tridimensionnelles.
GB9127548D0 (en) 1991-12-31 1992-02-19 3D Scanners Ltd Scanning sensor
US5255096B1 (en) 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
US5357599A (en) * 1992-07-30 1994-10-18 International Business Machines Corporation Method and apparatus for rendering polygons
US5319445A (en) 1992-09-08 1994-06-07 Fitts John M Hidden change distribution grating and use in 3D moire measurement sensors and CMM applications
FR2696030B1 (fr) 1992-09-24 1994-11-10 Kreon Ind Procédé de traitement de données infographiques 3D, en particulier pour facettisation, segmentation et tri d'ensembles de points représentatifs de surfaces ou courbes.
JPH06186025A (ja) 1992-12-16 1994-07-08 Yunisun:Kk 三次元測定装置
US5349378A (en) 1992-12-21 1994-09-20 Robotic Vision Systems, Inc. Context independent fusion of range and intensity imagery
JP2786070B2 (ja) 1993-01-29 1998-08-13 セントラル硝子株式会社 透明板状体の検査方法およびその装置
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
US5611147A (en) * 1993-02-23 1997-03-18 Faro Technologies, Inc. Three dimensional coordinate measuring apparatus
FR2706345B1 (fr) 1993-06-11 1995-09-22 Bertin & Cie Procédé et dispositif de repérage dans l'espace d'un objet mobile tel qu'un capteur ou un outil porté par un robot.
US5413454A (en) 1993-07-09 1995-05-09 Movsesian; Peter Mobile robotic arm
DE4412073A1 (de) 1994-04-08 1995-10-12 Moeller J D Optik Operationsmikroskop-Einheit
GB2292605B (en) 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
GB2308186B (en) 1994-09-28 1999-06-09 William Richard Fright Arbitrary-geometry laser surface scanner
US5886703A (en) * 1995-02-01 1999-03-23 Virtus Corporation Perspective correct texture mapping system and methods with intelligent subdivision
US5594044A (en) * 1995-03-03 1997-01-14 Videojet Systems International, Inc. Ink jet ink which is rub resistant to alcohol
FR2735868B1 (fr) 1995-06-21 1997-08-08 Asulab Sa Dispositif de mesure d'une vitesse angulaire
FR2735859B1 (fr) 1995-06-23 1997-09-05 Kreon Ind Procede d'acquisition et de numerisation d'objets au travers d'une paroi transparente et systeme de mise en oeuvre d'un tel procede
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
JP3730299B2 (ja) 1996-02-07 2005-12-21 富士通株式会社 光等化増幅器および光等化増幅方法
WO2003069267A1 (en) 2002-02-14 2003-08-21 Faro Technologies, Inc. Portable coordinate measurement machine with articulated arm

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005016525A1 (de) * 2005-04-08 2006-10-19 Degudent Gmbh Verfahren zur dreidimensionalen Formerfassung eines Körpers
US7492470B2 (en) 2005-04-08 2009-02-17 Degudent Gmbh Method for three-dimensional shape measurement of a body
EP1710536A1 (de) 2005-04-08 2006-10-11 DeguDent GmbH Verfahren zur dreidimensionalen Formerfassung eines Körpers
DE102009018464B4 (de) * 2009-04-22 2014-10-30 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
DE102009018464A1 (de) * 2009-04-22 2010-11-11 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
DE102011018597B3 (de) * 2011-04-21 2012-10-25 Vrmagic Gmbh Verfahren zum synchronisierten Betrieb einer Kamera und eines Projektors
WO2012143554A2 (de) 2011-04-21 2012-10-26 Vrmagic Gmbh Verfahren zum synchronisierten betrieb einer kamera und eines projektors
US10045015B2 (en) 2011-04-21 2018-08-07 Vrmagic Gmbh Method for operating a camera and a projector in a synchronized manner
DE102011018597B9 (de) * 2011-04-21 2013-01-24 Vrmagic Gmbh Verfahren zum synchronisierten Betrieb einer Kamera und eines Projektors
DE102011104550B4 (de) * 2011-06-17 2014-04-30 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102011104550A1 (de) * 2011-06-17 2012-12-20 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
US10166630B2 (en) 2011-06-17 2019-01-01 Precitec Kg Optical measuring device for monitoring a joint seam, joining head and laser welding head with same
DE102015108389A1 (de) * 2015-05-27 2016-12-01 Carl Zeiss Industrielle Messtechnik Gmbh Beleuchtungssteuerung beim Einsatz von optischen Messgeräten
US10024652B2 (en) 2015-05-27 2018-07-17 Carl Zeiss Industrielle Messtechnik Gmbh Lighting control when using optical measuring devices
DE102015120380A1 (de) * 2015-11-25 2017-06-01 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Konstruieren und/oder Herstellen eines Fluidleitungssystems in einem Kraftfahrzeug
DE102015120380B4 (de) 2015-11-25 2023-08-10 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Konstruieren und/oder Herstellen eines Fluidleitungssystems in einem Kraftfahrzeug
EP3502614A1 (de) * 2017-12-21 2019-06-26 Weber Maschinenbau GmbH Breidenbach Optische messeinrichtung
DE102017130909A1 (de) * 2017-12-21 2019-06-27 Weber Maschinenbau Gmbh Breidenbach Optische Messeinrichtung
EP3872446A1 (de) * 2017-12-21 2021-09-01 Weber Maschinenbau GmbH Breidenbach Optische messeinrichtung

Also Published As

Publication number Publication date
EP0840880B1 (de) 2002-03-13
EP1355127A3 (de) 2003-11-19
DE69619826D1 (de) 2002-04-18
GB9515311D0 (en) 1995-09-20
DE69628956D1 (de) 2003-08-07
WO1997005449A1 (en) 1997-02-13
US6611617B1 (en) 2003-08-26
USRE43895E1 (en) 2013-01-01
EP1355127A2 (de) 2003-10-22
AU6626896A (en) 1997-02-26
EP0840880A1 (de) 1998-05-13
EP1160539A1 (de) 2001-12-05
EP1160539B1 (de) 2003-07-02
US7313264B2 (en) 2007-12-25
US20030231793A1 (en) 2003-12-18
JPH11509928A (ja) 1999-08-31

Similar Documents

Publication Publication Date Title
DE69628956T2 (de) Abtastvorrichtung und -verfahren
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE112007003293B4 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE60310226T2 (de) Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells
Boehler et al. The potential of non-contact close range laser scanners for cultural heritage recording
DE10344922B4 (de) Rundum-Scanner
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102013203312B4 (de) Extraoraler Dentalscanner
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
DE112007003284T5 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
WO2011160962A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE102008048963A1 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102013105828A1 (de) Hybrid sensor
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
D'Apuzzo Automated photogrammetric measurement of human faces
DE10195135B4 (de) Vorrichtung und Verfahren zur Aufnahme einer dreidimensionalen Figur auf einer zweidimensionalen Oberfläche, die die Herstellung von Kleidungsschnittmustern ermöglichen
WO2016202852A1 (de) Koordinatenmessgerät und verfahren zum kalibrieren desselben mit einer time-of-flight-kamera
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102018114480B3 (de) Abgleichverfahren für eine Strahlrichteinheit einer interferometrischen Messvorrichtung und Messvorrichtung zur Durchführung einer interferometrischen Messung mittels Laserstrahlung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3 D SCANNERS LTD., LONDON, GB