DE112009000093T5 - Hierarchische Verarbeitung unter Nutzung von Bildverformung - Google Patents
Hierarchische Verarbeitung unter Nutzung von Bildverformung Download PDFInfo
- Publication number
- DE112009000093T5 DE112009000093T5 DE112009000093T DE112009000093T DE112009000093T5 DE 112009000093 T5 DE112009000093 T5 DE 112009000093T5 DE 112009000093 T DE112009000093 T DE 112009000093T DE 112009000093 T DE112009000093 T DE 112009000093T DE 112009000093 T5 DE112009000093 T5 DE 112009000093T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- resolution
- disparity
- dimensional
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Abstract
Gewinnen eines ersten Bilds und eines zweiten Bilds eines Objekts aus zwei Kamerapositionen;
Erzeugen einer Hierarchie aus niedriger aufgelösten Darstellungen des ersten Bilds und des zweiten Bilds;
Gewinnen eines Disparitätsfelds, das die Bewegung zwischen einer niedriger aufgelösten Darstellung des ersten Bilds und einer entsprechenden der niedriger aufgelösten Darstellungen des zweiten Bilds kennzeichnet;
Überabtasten (Upsampling) des Disparitätsfelds auf eine höhere Auflösung der Hierarchie, um ein geschätztes Disparitätsfeld mit der höheren Auflösung bereitzustellen;
Verwölben einer höher aufgelösten Darstellung des ersten Bilds gemäß dem überabgetasteten Disparitätsfeld, um ein verwölbtes Bild bereitzustellen;
Korrelieren des verwölbten Bilds mit einer höher aufgelösten Darstellung des zweiten Bilds, um ein Disparitätsfehlerfeld zu erhalten;
Kombinieren des überabgetasteten Disparitätsfelds und des Disparitätsfehlerfelds, um ein höher aufgelöstes Disparitätsfeld zu erhalten.
Description
- Die vorliegende Anmeldung beansprucht Priorität aus der vorläufigen US-Patentanmeldung Nr. 61/019,159, eingereicht am 4. Januar 2008, die hierin insgesamt durch Verweis aufgenommen ist.
- Fachgebiet der Erfindung
- Die vorliegende Erfindung betrifft allgemein die dreidimensionale Bildgebung und insbesondere die die Verwendung hierarchischer Bilddaten, um dreidimensionale Messungen basierend auf mehreren Objektbildern zu verbessern.
- Hintergrund
- In einem Verfahren zur dreidimensionalen Bildrekonstruktion wird eine Anzahl von Bildern oder Bildsätzen eines Objekts von einer Kamera erfaßt, die auf einem Weg über die Oberfläche des Objekts fährt. Dieser Bildinformationskatalog kann dann verwendet werden, um basierend auf dem Kameraweg und einzelnen dreidimensionalen Messungen, die entlang des Kamerawegs erfaßt wurden, ein dreidimensionales Modell des Objekts zu rekonstruieren. In einem Aspekt verwendet die Kamera eine Anzahl von versetzten optischen Kanälen, die Bilder aus ein wenig unterschiedlichen optischen Achsen erfassen. Die Differenzen in diesen versetzten Bildern enthalten Tiefeninformationen, die verwendet werden können, um den Abstand von der Kamera zu berechnen und wiederum die dreidimensionalen Umrisse einer abgetasteten Oberfläche zu bestimmen. Ein rechenintensiver Teil dieser Technik umfaßt das Abgleichen von Merkmalen zwischen Bildpaaren in einem Bildsatz, das für jeden Bildsatz viele Male wiederholt werden muß, um entsprechende Merkmalsstellen in einem Bildpaar zu finden.
- Während es vielfältige Techniken zum Korrelieren von Merkmalen zwischen Bildern gibt, bleibt ein Bedarf an verbesserten Techniken, die für den Musterabgleich in der dreidimensionalen Rekonstruktion geeignet sind.
- Zusammenfassung
- Ein hierarchisches Musterabgleichsverfahren wird für die Verwendung in der dreidimensionalen Rekonstruktion verbessert durch Berechnen eines Disparitätsfelds für niedrig aufgelöste Daten und Verwenden dieses Niederauflösungsdisparitätsfelds, um das Disparitätsfeld für höher aufgelöste Bilder zu schätzen. Durch Pre-Warping (Vorverformen) bzw. Vorverwölben einer Vorlage entsprechend dem geschätzten Disparitätsfeld können verbesserte Korrelationsergebnisse erzielt werden.
- In einem Aspekt umfaßt ein hier offenbartes Verfahren das Gewinnen eines ersten Bilds und eines zweiten Bilds eines Objekts aus zwei Kamerapositionen; das Erzeugen einer Hierarchie aus niedriger aufgelösten Darstellungen des ersten Bilds und des zweiten Bilds; das Gewinnen eines Disparitätsfelds, das die Bewegung zwischen einer niedriger aufgelösten Darstellung des ersten Bilds und einer entsprechenden der niedriger aufgelösten Darstellungen des zweiten Bilds kennzeichnet; das Überabtasten (Upsampling) des Disparitätsfelds auf eine höhere Auflösung der Hierarchie, um ein geschätztes Disparitätsfeld mit der höheren Auflösung bereitzustellen; das Verwölben einer höher aufgelösten Darstellung des ersten Bilds gemäß dem überabgetasteten Disparitätsfeld, um ein verwölbtes Bild bereitzustellen; das Korrelieren des verwölbten Bilds mit einer höher aufgelösten Darstellung des zweiten Bilds, um ein Disparitätsfehlerfeld zu erhalten; das Kombinieren des überabgetasteten Disparitätsfelds und des Disparitätsfehlerfelds, um ein höher aufgelöstes Disparitätsfeld zu erhalten.
- Das Verfahren kann das Wiederholen der Verfahrensschritte für einen nächsthöheren Auflösungsgrad der Hierarchie aufweisen. Die höher aufgelöste Darstellung des ersten Bilds kann ein voll aufgelöstes Bild sein. Die niedriger aufgelöste Darstellung des ersten Bilds kann eine kleinste Größe in der Hierarchie haben. Das Verfahren kann das Anwenden des höher aufgelösten Disparitätsfelds auf ein Kameramodell umfassen, um eine dreidimensionale Oberflächenrekonstruktion des Objekts zu erhalten. Die Hierarchie kann eine dreistufige Pyramide und/oder eine vierstufige Pyramide und/oder eine fünfstufige Pyramide umfassen. Das erste Bild und das zweite Bild können in einer Dimension eine Größe von 96 Pixeln haben. Das erste Bild und das zweite Bild können in einer Dimension eine Größe von 128 Pixeln haben. Die zwei Kamerapositionen können zwei versetzten optischen Kanälen in einer dreidimensionalen Kamera mit mehreren Aperturen entsprechen. Die zwei Kamerapositionen können zwei unabhängigen Kamerapositionen entsprechen.
- In einem anderen Aspekt umfaßt ein hier offenbartes Computerprogrammprodukt computerausführbaren Code, der auf einem computerlesbaren Medium ausgeführt ist, das, wenn es auf einem oder mehreren Rechenvorrichtungen ausgeführt wird, die folgenden Schritte durchführt: Gewinnen eines ersten Bilds und eines zweiten Bilds eines Objekts aus zwei Kamerapositionen; Erzeugen einer Hierarchie aus niedriger aufgelösten Darstellungen des ersten Bilds und des zweiten Bilds; Gewinnen eines Disparitätsfelds, das die Bewegung zwischen einer niedriger aufgelösten Darstellung des ersten Bilds und einer entsprechenden der niedriger aufgelösten Darstellungen des zweiten Bilds kennzeichnet; Überabtasten (Upsampling) des Disparitätsfelds auf eine höhere Auflösung der Hierarchie, um ein geschätztes Disparitätsfeld mit der höheren Auflösung bereitzustellen; Verwölben einer höher aufgelösten Darstellung des ersten Bilds gemäß dem überabgetasteten Disparitätsfeld, um ein verwölbtes Bild bereitzustellen; Korrelieren des verwölbten Bilds mit einer höher aufgelösten Darstellung des zweiten Bilds, um ein Disparitätsfehlerfeld zu erhalten; und Kombinieren des überabgetasteten Disparitätsfelds und des Disparitätsfehlerfelds, um ein höher aufgelöstes Disparitätsfeld zu erhalten.
- Kurze Beschreibung der Zeichnungen
- Die Erfindung und die folgende detaillierte Beschreibung gewisser ihrer Ausführungsformen sind unter Bezug auf die folgenden Figuren zu verstehen.
-
1 zeigt ein dreidimensionales Abtastsystem. -
2 zeigt eine schematische Darstellung eines optischen Systems für eine dreidimensionale Kamera. -
3 zeigt eine Verarbeitungspipeline zum Gewinnen dreidimensionaler Daten von einer Videokamera. -
4 zeigt eine Bildhierarchie mit mehreren Auflösungen. -
5 zeigt ein Verfahren zur hierarchischen Verarbeitung in der dreidimensionalen Rekonstruktion. - Detaillierte Beschreibung
- Im folgenden Text sollten Verweise auf Elemente im Singular so verstanden werden, daß dazu auch Elemente im Plural und umgekehrt gehören, sofern nichts anderes ausdrücklich erklärt ist oder aus dem Text hervorgeht. Grammatikalische Konjunktionen sollen jede und alle disjunktiven und konjunktiven Kombinationen verknüpfter Teilsätze, Sätze, Wörter u. ä. zum Ausdruck bringen, sofern nichts anderes erklärt ist oder aus dem Kontext hervorgeht.
- Die folgende Beschreibung erklärt detailliert Abtasttechnologien und konzentriert sich auf zahnmedizinische Anwendungen dreidimensionaler Bildgebung; jedoch wird deutlich sein, daß Varianten, Anpassungen und Kombinationen der nachstehenden Verfahren und Systeme für Leute mit gewöhnlichen Kenntnissen der Technik offensichtlich werden. Während zum Beispiel ein dreidimensionales Datenerfassungssystem beschrieben wird, können die folgenden Techniken in jedem Verfahren verwendet werden, in dem Unterschiede zwischen Paaren von Bildern mit mehreren Auflösungen nutzbringend verarbeitet werden können. Während die digitale Zahnmedizin eine nutzbringende Anwendung der verbesserten Genauigkeit ist, die sich aus den hier beschriebenen Techniken ergibt, können diese Techniken auch nutzbringend verwendet werden, um drei dimensionale Animationsmodelle oder dreidimensionale Abtastungen für Anwendungen zum maschinellen Sehen. Alle derartigen Varianten, Anpassungen und Kombinationen sollen in den Schutzbereich dieser Offenbarung fallen.
- In der folgenden Beschreibung bezeichnet der Begriff ”Bild” allgemein einen zweidimensionalen Satz von Pixeln, die eine zweidimensionale Ansicht eines Gegenstands in einer Bildebene bilden. Der Begriff ”Bildsatz” bezeichnet allgemein einen Satz verwandter zweidimensionaler Bilder, die zu dreidimensionalen Daten aufgelöst werden könnten. Der Begriff ”Punktwolke” bezeichnet allgemein einen dreidimensionalen Satz von Punkten, die eine dreidimensionale Ansicht des Gegenstands bilden, die aus einer Anzahl zweidimensionaler Bilder rekonstruiert ist. In einem dreidimensionalen Bilderfassungssystem kann eine Anzahl solcher Punktwolken auch ausgerichtet und zu einer Gesamtpunktwolke kombiniert werden, die aus Bildern aufgebaut ist, die durch eine sich bewegende Kamera erfaßt sind. Somit wird verständlich sein, daß Pixel allgemein zweidimensionale Daten bezeichnen und Punkte allgemein dreidimensionale Daten bezeichnen, sofern keine andere Bedeutung speziell angegeben ist oder aus dem Kontext hervorgeht.
- Die Begriffe ”dreidimensionales Modell”, ”dreidimensionale Oberflächendarstellung”, ”digitale Oberflächendarstellung”, ”dreidimensionale Oberflächenkarte” u. ä. sollen im Gebrauch hierin jede dreidimensionale Rekonstruktion eines Objekts bezeichnen, z. B. eine Punktwolke von Oberflächendaten, einen Satz zweidimensionaler Polygone oder alle anderen alle oder einige Oberflächen eines Objekts darstellenden Daten, die man über die Erfassung und/oder Verarbeitung dreidimensionaler Abtastdaten erhalten könnte, sofern keine andere Bedeutung angegeben ist oder anderweitig aus dem Kontext hervorgeht. Eine ”dreidimensionale Darstellung” kann jede der zuvor beschriebenen dreidimensionalen Oberflächendarstellungen wie auch volumetrische und andere Darstellungen aufweisen, sofern keine andere Bedeutung angegeben ist oder anderweitig aus dem Kontext hervorgeht.
- Allgemein bezeichnen die Begriffe ”Rendern” oder ”Rendering” bzw. ”wiedergeben” oder ”Wiedergabe” eine zweidimensionale Visualisierung eines dreidimensionalen Objekts, z. B. zur Anzeige auf einem Monitor. Allerdings wird verständlich sein, daß vielfältige dreidimensionale Renderingtechnologien existieren und mit den hierin offenbarten Systemen und Verfahren nutzbringend zum Einsatz kommen können. Beispielsweise können die hierin beschriebenen Systeme und Verfahren eine holografische Anzeige, eine autostereoskopische Anzeige, eine Anaglyphenanzeige, eine am Kopf angeordnete Stereoanzeige oder jede andere zweidimensionale und/oder dreidimensionale Anzeige nutzbringend verwenden. Somit sollte Rendering in der Beschreibung hierin weitgefaßt interpretiert werden, sofern keine andere Bedeutung angegeben ist oder anderweitig aus dem Kontext hervorgeht.
- Im Gebrauch hierin soll der Begriff ”Dentalobjekt” allgemein Gegenstände bezeichnen, die mit der Zahnmedizin zusammenhängen. Dazu können intraorale Strukturen gehören, z. B. das Gebiß und noch typischer das menschliche Gebiß, z. B. einzelne Zähne, Quadranten, Vollbogen, Bogenpaare (die getrennt oder in Bißlagen verschiedener Typen liegen können), Weichteile u. ä. sowie Knochen und alle anderen stützenden oder umliegenden Strukturen. Im Gebrauch hierin bezeichnet der Begriff ”intraorale Strukturen” sowohl natürliche Strukturen in einem Mund gemäß der vorstehenden Beschreibung als auch künstliche Strukturen, z. B. jedes der nachstehend beschriebenen Dentalobjekte, die im Mund vorhanden sein könnten. Zu Dentalobjekten können ”Restaurationen” gehören, die allgemein so aufgefaßt werden können, daß dazu Komponenten gehören, die die Struktur oder Funktion des vorhandenen Gebisses wiederherstellen, z. B. Kronen, Brücken, Facetten, Inlays, Onlays, Amalgame, Komposite und verschiedene Teilstrukturen, z. B. Stumpfkappen u. ä., wie auch temporäre Restaurationen zum Gebrauch während der Fertigung einer permanenten Restauration. Zu Dentalobjekten kann auch eine ”Prothese” gehören, die Gebiß durch entfernbare oder permanente Strukturen ersetzt, z. B. Zahnersatz, Teilprothe sen, Implantate, gehaltene Prothesen u. ä. Ferner können zu Dentalobjekten auch ”Appliances” bzw. ”Apparaturen” zählen, die zum Korrigieren, Ausrichten oder anderweitigen temporären oder permanenten Einstellen des Gebisses verwendet werden, z. B. entfernbare kieferorthopädische Apparaturen, chirurgische Stents, Bruxismusapparaturen, Schnarchschienen, Apparaturen zur indirekten Bracketplazierung u. ä. Außerdem können zu Dentalobjekten ”Kleinteile” gehören, die am Gebiß längere Zeit befestigt werden, z. B. Implantathalterungen, Implantatabutments, kieferorthopädische Brackets und andere kieferorthopädische Komponenten. Zu Dentalobjekten können auch ”Übergangskomponenten” aus zahntechnischer Herstellung zählen, z. B. Zahnmodelle (vollständig und/oder partiell), Wax-ups, Ausschmelzformen u. ä. sowie Schalen, Unterlagen, Formen und andere Komponenten, die bei der Fertigung von Restaurationen, Prothesen u. ä. zum Einsatz kommen. Kategorisieren lassen sich Dentalobjekte auch als natürliche Dentalobjekte, z. B. die Zähne, Knochen und andere zuvor beschriebene intraorale Strukturen, oder als künstliche Dentalobjekte, z. B. Restaurationen, Prothesen, Apparaturen, Kleinteile und Übergangskomponenten aus zahntechnischer Herstellung wie zuvor beschrieben.
- Solche Begriffe wie z. B. ”digitales Dentalmodell”, ”digitaler Zahnabdruck” u. ä. sollen dreidimensionale Darstellungen von Dentalobjekten bezeichnen, die in verschiedenen Aspekten der Erfassung, Analyse, Verordnung und Herstellung verwendet werden können, sofern keine andere Bedeutung anderweitig angegeben ist oder aus dem Kontext hervorgeht. Solche Begriffe wie z. B. ”Dentalmodell” oder ”Zahnabdruck” sollen ein physisches Modell bezeichnen, z. B. eine gegossene, gedruckte oder anderweitig gefertigte physische Ausprägung eines Dentalobjekts. Sofern nicht anders angegeben, kann der Begriff ”Modell” in alleiniger Verwendung ein physisches Modell und/oder ein digitales Modell bezeichnen.
- Zudem wird ferner verständlich sein, daß solche Begriffe wie z. B. ”Tool” oder ”Steuerelement” in ihrer Verwendung zur Beschreibung von Aspekten einer Benutzeroberfläche allgemein vielfältige Techniken bezeichnen sollen, die auf einer grafischen Benutzeroberfläche oder anderen Benutzerschnittstelle zum Einsatz kommen können, um Benutzereingaben zu empfangen, die die Verarbeitung auslösen oder steuern, darunter z. B. Dropdownlisten, Optionsfelder, Cursor- und/oder Mausaktionen (Auswahl nach Punkt, Auswahl nach Bereich, Drag-and-Drop-Operationen usw.), Kontrollkästchen, Befehlszeilen, Texteingabefelder, Meldungen und Alarme, Fortschrittsanzeigen usw. Zu einem Tool oder Steuerelement kann auch jede physische Hardware im Zusammenhang mit der Benutzereingabe gehören, z. B. eine Maus, eine Tastatur, eine Anzeige, ein Tastenblock, ein Trackball und/oder jedes andere Gerät, das physische Eingaben von einem Benutzer empfängt und die physischen Eingaben in eine Eingabe zur Verwendung in einem computergestützten System umwandelt. Somit sollten in der folgenden Beschreibung die Begriffe ”Tool”, ”Steuerelement” u. ä. weitgefaßt interpretiert werden, sofern keine spezifischere Bedeutung anderweitig angegeben ist oder aus dem Kontext hervorgeht.
-
1 zeigt ein dreidimensionales Abtastsystem, das mit den hierin beschriebenen Systemen und Verfahren verwendet werden kann. Allgemein kann das System100 eine Kamera102 aufweisen, die Bilder von einer Oberfläche106 eines Objekts104 erfaßt, z. B. eines Dentalpatienten, und die Bilder zu einem Computer108 weiterleitet, der eine Anzeige110 sowie ein oder mehrere Benutzereingabegeräte112 ,114 aufweisen kann, z. B. eine Maus112 oder eine Tastatur114 . Die Kamera102 kann auch ein integriertes Ein- oder Ausgabegerät116 aufweisen, z. B. eine Steuereingabe (z. B. Taste, Touchpad, Rändelrad) oder eine Anzeige (z. B. LCD- oder LED-Anzeige), um Statusinformationen zu liefern. - Zur Kamera
102 kann jede Kamera oder jedes Kamerasystem gehören, die oder das zur Erfassung von Bildern geeignet ist, aus denen eine dreidimensionale Punktwolke oder andere dreidimensionale Daten rückgewonnen werden können. Beispielsweise kann die Kamera102 ein System mit mehreren Aperturen gemäß der Offenbarung in derUS-A-7372642 (Rohály et al.) nutzen, deren gesamter Inhalt hierin durch Verweis aufgenommen ist. Wenngleich Rohály ein System mit mehreren Aperturen offenbart, wird deutlich sein, daß jedes System mit mehreren Aperturen ähnlich verwendet werden kann, das zum Rekonstruieren einer dreidimensionalen Punktwolke aus einer Anzahl zweidimensionaler Bilder geeignet ist. In einer Ausführungsform mit mehreren Aperturen kann die Kamera102 mehrere Aperturen aufweisen, darunter eine Mittelapertur, die entlang einer optischen Mittelachse einer Linse positioniert ist, die einen Mittelkanal für die Kamera102 zusammen mit etwaiger zugeordneter Abbildungshardware bildet. In solchen Ausführungsformen kann der Mittelkanal ein herkömmliches Videobild des abgetasteten Gegenstands liefern, während eine Anzahl axial versetzter Kanäle Bildsätze ergibt, die Disparitätsinformationen enthalten, die bei der dreidimensionalen Rekonstruktion einer Oberfläche zum Einsatz kommen können. In anderen Ausführungsformen können eine separate Videokamera und/oder ein separater Kanal vorgesehen sein, um das gleiche Ergebnis zu erreichen, d. h. ein Video eines Objekts, das einer dreidimensionalen Abtastung des Objekts zeitlich entspricht, vorzugsweise aus derselben Perspektive oder aus einer Perspektive mit einer festen, bekannten Beziehung zur Perspektive der Kamera102 . Die Kamera102 kann auch oder statt dessen eine stereoskopische, trioskopische oder andere Mehrfachkamera oder andere Konfiguration aufweisen, in der eine Anzahl von Kameras oder optischen Wegen in fester Relation zueinander gehalten werden, um zweidimensionale Bilder eines Objekts aus einer Anzahl unterschiedlicher Perspektiven zu erhalten. Die Kamera102 kann eine geeignete Verarbeitung zum Ableiten einer dreidimensionalen Punktwolke aus einem Bildsatz oder einer Anzahl von Bildsätzen aufweisen, oder jeder zweidimensionale Bildsatz kann zu einem externen Prozessor gesendet werden, der z. B. im später beschriebenen Computer108 enthalten ist. In anderen Ausführungsformen kann die Kamera102 strukturiertes Licht, Laserabtastung, tachymetrische Streckenmessung oder jede andere Technologie nutzen, die zum Erfassen dreidimensionaler Daten oder zweidimensionaler Daten geeignet ist, die zu dreidimensionalen Daten aufgelöst werden können. Obwohl die später beschriebenen Techniken Videodaten nutzbringend verwenden können, die durch ein videobasiertes dreidimensionales Abtastsystem erfaßt werden, wird verständlich sein, daß jedes andere dreidimensionale Abtastsystem mit einem Videoerfassungssystem ergänzt werden kann, das geeignete Videodaten oder Bilddaten zeitgleich oder anderweitig synchronisiert mit der Erfassung dreidimensionaler Daten erfaßt. - In einer Ausführungsform ist die Kamera
102 eine frei positionierbare Handsonde mit mindestens einem Benutzereingabegerät116 , z. B. einer Taste, einem Hebel, einer Wählscheibe, einem Rändelrad, einem Schalter o. ä. zur Benutzersteuerung des Bilderfassungssystems100 , z. B. zum Starten und Stoppen von Abtastungen. In einer Ausführungsform kann die Kamera102 zur Dentalabtastung geformt und bemessen sein. Insbesondere kann die Kamera102 zur intraoralen Abtastung und Datenerfassung geformt und bemessen sein, z. B. durch Einführung in einen Mund eines Abbildungsobjekts und Führen über eine intraorale Oberfläche106 in einem geeigneten Abstand, um Oberflächendaten von Zähnen, Zahnfleisch usw. zu erfassen. Über ein solches kontinuierliches Datenerfassungsverfahren kann die Kamera102 eine Punktwolke von Oberflächendaten mit ausreichender räumlicher Auflösung und Genauigkeit erfassen, um Dentalobjekte, z. B. Prothetik, Kleinteile, Apparaturen u. ä. daraus herzustellen, entweder direkt oder über vielfältige Zwischenverarbeitungsschritte. In anderen Ausführungsformen können Oberflächendaten von einem Dentalmodell, z. B. einer Dentalprothese, erfaßt werden, um die richtige Anpassung mit Hilfe einer früheren Abtastung des entsprechenden Gebisses, z. B. einer für die Prothese präparierten Zahnoberfläche, zu gewährleisten. - Obwohl in
1 nicht gezeigt, wird deutlich sein, daß eine Anzahl ergänzender Beleuchtungssysteme während der Bilderfassung nutzbringend zum Einsatz kommen kann. Beispielsweise kann die Umgebungsbeleuchtung mit einer oder mehreren Punktleuchten verstärkt werden, die das Objekt104 beleuchten, um die Bilderfassung zu beschleunigen und die Schärfentiefe (oder räumliche Auslösungstiefe) zu verbessern. Zudem oder statt dessen kann die Kamera102 auch eine Stroboskop-, eine Blitz- oder irgendeine andere Lichtquelle aufweisen, um die Beleuchtung des Objekts104 während der Bilderfassung zu ergänzen. - Das Objekt
104 kann jedes Objekt, jede Ansammlung von Objekten, jeder Abschnitt eines Objekts oder jeder andere Gegenstand sein. Insbesondere kann im Hinblick auf die hierin diskutierten Dentaltechniken das Objekt104 ein menschliches Gebiß aufweisen, das aus einem Mund eines Dentalpatienten intraoral erfaßt wird. Eine Abtastung kann eine dreidimensionale Darstellung des Gebisses teilweise oder vollständig gemäß einem speziellen Zweck der Abtastung erfassen. Dadurch kann die Abtastung ein digitales Modell eines Zahns, eines Quadranten von Zähnen oder einer vollen Ansammlung von Zähnen mit zwei gegenüberliegenden Bogen sowie Weichteilen oder allen anderen relevanten intraoralen Strukturen erfassen. Die Abtastung kann mehrere Darstellungen erfassen, z. B. eine Zahnoberfläche vor und nach der Präparation für eine Restaurierung. Wie später erwähnt, können diese Daten für die anschließende Modellierung zum Einsatz kommen, z. B. die Gestaltung einer Restaurierung oder die Bestimmung einer Randlinie dafür. Während der Abtastung kann ein Mittelkanal der Kamera102 oder eines separaten Videosystems ein Video des Gebisses vom Standpunkt der Kamera102 aus erfassen. In anderen Ausführungsformen, in denen z. B. eine vervollständigte Anfertigung an eine Oberflächenpräparation virtuell testangepaßt wird, kann die Abtastung eine Dentalprothese aufweisen, z. B. ein Inlay, eine Krone oder jede andere Dentalprothese, dentale Kleinteile, eine dentale Apparatur o. ä. Das Objekt104 kann auch oder statt dessen ein Dentalmodell aufweisen, z. B. einen Gipsabguß, ein Wax-up, einen Abdruck oder einen Negativabdruck eines Zahns, von Zähnen, Weichteilen oder eine gewisse Kombination daraus. - Der Computer
108 kann z. B. einen Personalcomputer oder eine andere Verarbeitungsvorrichtung aufweisen. In ei ner Ausführungsform umfaßt der Computer108 einen Personalcomputer mit einer Dual-2,8-GHz-Opteron-Zentraleinheit, 2 Gigabyte Schreib-/Lesespeicher, einem TYAN-Thunder-K8WE-Motherboard und einer 250-Gigabyte-Festplatte mit 10.000 U/min. In einer derzeitigen Ausführungsform kann das System so betrieben werden, daß es mehr als fünftausend Punkte pro Bildsatz in Echtzeit mit Hilfe der hierin beschriebenen Techniken erfaßt und eine Gesamtpunktwolke aus mehreren Millionen Punkten speichert. Natürlich kann diese Punktwolke weiterverarbeitet werden, um der anschließenden Datenhandhabung Rechnung zu tragen, z. B. durch Dezimieren der Punktwolkendaten oder Erzeugen eines entsprechenden Gitters aus Oberflächendaten. Im Gebrauch hierin bedeutet der Begriff ”Echtzeit” allgemein eine Situation ohne beobachtbare Latenz zwischen Verarbeitung und Anzeige. In einem videobasierten Abtastsystem bezeichnet Echtzeit insbesondere die Verarbeitung in der Zeit zwischen Rahmen von Videodaten, die je nach spezifischen Videotechnologien zwischen etwa fünfzehn Rahmen pro Sekunde und etwa dreißig Rahmen pro Sekunde variieren kann. Allgemeiner können Verarbeitungsfähigkeiten des Computers108 je nach Größe des Objekts104 , Geschwindigkeit der Bilderfassung und gewünschter räumlicher Auflösung dreidimensionaler Punkte variieren. Der Computer108 kann auch Peripheriegeräte aufweisen, z. B. eine Tastatur114 , Anzeige110 und Maus112 zum Nutzerdialog mit dem Kamerasystem100 . Die Anzeige110 kann eine Touchscreenanzeige sein, die Benutzereingaben über direkten physischen Dialog mit der Anzeige110 empfangen kann. In einem weiteren Aspekt kann die Anzeige eine autostereoskopische Anzeige o. ä. aufweisen, die Stereobilder anzeigen kann. - Kommunikationsabläufe zwischen dem Computer
108 und der Kamera102 können jede geeignete Kommunikationsverbindung verwenden, z. B. eine Drahtverbindung oder eine drahtlose Verbindung, z. B. auf der Grundlage von IEEE 802.11 (auch als drahtloses Ethernet bekannt), BlueTooth oder jedes anderen geeigneten drahtlosen Standards, z. B. mit Hilfe eines Hochfrequenz, Infrarot- oder anderen drahtlosen Kommuni kationsmediums. Bei der medizinischen Bildgebung oder anderen sensiblen Anwendungen kann die drahtlose Bildübertragung von der Kamera102 zum Computer108 geschützt sein. Der Computer108 kann Steuersignale für die Kamera102 erzeugen, die zusätzlich zu Bilderfassungsbefehlen herkömmliche Kamerabedienungen aufweisen können, z. B. Fokus oder Zoom. - In einem Beispiel für den allgemeinen Betrieb eines dreidimensionalen Bilderfassungssystems
100 kann die Kamera102 zweidimensionale Bildsätze mit einer Videofrequenz erfassen, während die Kamera102 über eine Oberfläche des Gegenstands geführt wird. Die zweidimensionalen Bildsätze können zum Computer108 zur Ableitung dreidimensionaler Punktwolken weitergeleitet werden. Die dreidimensionalen Daten für jeden neu erfaßten zweidimensionalen Bildsatz können abgeleitet und mit Hilfe einer Anzahl unterschiedlicher Techniken an vorhandene dreidimensionale Daten angepaßt oder ”angesetzt” werden. Ein solches System kann eine Kamerabewegungsabschätzung nutzen, damit die Position der Kamera102 nicht unabhängig nachverfolgt werden muß. Ein nützliches Beispiel für eine solche Technik ist in der gemeinsamen US-Anmeldung Nr. 11/270,135, eingereicht am 9. November 2005, beschrieben, deren gesamter Inhalt hierin durch Verweis aufgenommen ist. Allerdings wird deutlich sein, daß dieses Beispiel keine Einschränkung darstellt und daß die hierin beschriebenen Grundsätze auf einen breiten Bereich dreidimensionaler Bilderfassungssysteme anwendbar sind. - Die Anzeige
110 kann jede Anzeige aufweisen, die zum Videorendering- oder Rendering mit anderen Raten mit einer Detailstufe geeignet ist, die den erfaßten Daten entspricht. Zu geeigneten Anzeigen zählen Kathodenstrahlanzeigen, Flüssigkristallanzeigen, Leuchtdiodenanzeigen u. ä. Allgemein kann die Anzeige110 mit dem Computer108 betrieblich gekoppelt und fähig sein, Anzeigesignale von ihm zu empfangen. Diese Anzeige kann eine Bildröhre oder einen Flachbildschirm, eine dreidimensionale Anzeige (z. B. eine Anaglyphenanzeige), eine autostereoskopische dreidimensionale Anzeige oder jede andere geeignete zweidimensionale oder dreidimen sionale Renderinghardware aufweisen. In einigen Ausführungsformen kann die Anzeige eine Touchscreenschnittstelle aufweisen, die z. B. kapazitive, resistive oder akustische Oberflächenwellen-(auch Dispersivsignal genannt)Touchscreentechnologien oder jede andere geeignete Technologie zum Erfassen physischer Interaktionen mit der Anzeige110 verwendet. - Das System
100 kann ein computernutzbares oder computerlesbares Medium aufweisen. Das computernutzbare Medium118 kann einen oder mehrere Speicherchips (oder andere Chips, z. B. einen Prozessor, der Speicher aufweist), optische Platten, magnetische Platten oder andere magnetische Medien usw. aufweisen. In verschiedenen Ausführungsformen kann das computernutzbare Medium118 entfernbaren Speicher (z. B. ein USB-Bauelement, ein Bandlaufwerk, eine externe Festplatte usw.), abgesetzten Speicher (z. B. netzwerkangebundenen Speicher), flüchtigen oder nichtflüchtigen Computerspeicher usw. aufweisen. Das computernutzbare Medium118 kann computerlesbare Befehle zur Ausführung durch den Computer108 enthalten, um die hierin beschriebenen verschiedenen Verfahren durchzuführen. Ferner oder statt dessen kann das computernutzbare Medium118 Daten speichern, die von der Kamera102 empfangen werden, ein dreidimensionales Modell des Objekts104 speichern, Computercode zum Rendering und zur Anzeige usw. speichern. -
2 veranschaulicht ein optisches System200 für eine dreidimensionale Kamera, das mit den hierin beschriebenen Systemen und Verfahren verwendet werden kann, z. B. für die zuvor anhand von1 beschriebene Kamera102 . - Das optische System
200 kann eine primäre optische Einrichtung202 aufweisen, die in jeder Art von Bildverarbeitungssystem zum Einsatz kommen kann. Allgemein bezeichnet eine primäre optische Einrichtung hierin ein optisches System mit einem optischen Kanal. Normalerweise benutzt dieser optische Kanal mindestens eine Linse gemeinsam und hat eine gemeinsam benutzte Bildebene im optischen System, obwohl in der folgenden Beschreibung Varianten davon ausdrücklich be schrieben werden oder anderweitig aus dem Kontext hervorgehen können. Das optische System200 kann eine einzelne Primärlinse, eine Gruppe von Linsen, eine Objektivlinse, Spiegelsysteme (u. a. traditionelle Spiegel, digitale Spiegelsysteme, digitale Lichtprozessoren o. ä.), Konfokalspiegel und alle anderen optischen Einrichtungen aufweisen, die zur Verwendung mit den hierin beschriebenen Systemen geeignet sind. Das optische System200 kann z. B. in einem stereoskopischen oder anderen Mehrfachbilder-Kamerasystem verwendet werden. Zu anderen optischen Einrichtungen können holografische optische Elemente o. ä. gehören. In verschiedenen Konfigurationen kann die primäre optische Einrichtung202 eine oder mehrere Linsen aufweisen, z. B. eine Objektivlinse (oder Linsengruppe)202b , eine Feldlinse202d , eine Relaislinse202f usw. Die Objektivlinse202b kann an oder nahe der Eintrittspupille202a des optischen Systems200 liegen. Die Feldlinse202d kann an oder nahe einer ersten Bildebene202c des optischen Systems200 liegen. Die Relaislinse202f kann Lichtstrahlenbündel im optischen System200 weiterleiten. Ferner kann das optische System200 solche Komponenten wie z. B. Aperturelemente208 mit einer oder mehreren Aperturen212 , eine Refokussiereinrichtung210 mit einem oder mehreren Refokussierelementen204 , eine oder mehrere Samplingeinrichtungen218 und/oder eine Anzahl von Sensoren214a ,214b ,214c aufweisen. - Das optische System
200 kann zum Active Wavefront Sampling gestaltet sein, was so zu verstehen ist, daß es jede Technik umfaßt, die zum Sampling einer Folge oder Ansammlung optischer Daten von einem Objekt220 oder Objekten verwendet wird, darunter optische Daten, die dazu beitragen, zweidimensionale oder dreidimensionale Kennwerte des Objekts220 zu detektieren, wobei optische Daten zur Detektion von Bewegung verwendet werden, optische Daten zur Geschwindigkeitsmessung oder Objektverfolgung o. ä. verwendet werden. Nähere Einzelheiten eines optischen Systems, das als optisches System200 von2 zum Einsatz kommen kann, liefert dieUS-A-7372642 , deren gesamter Inhalt hierin durch Verweis aufgenommen ist. Allgemeiner wird verständlich sein, daß2 zwar eine Ausführungsform eines optischen Systems200 darstellt, aber zahlreiche Varianten möglich sind. -
3 zeigt ein dreidimensionales Rekonstruktionssystem300 , das eine Hochgeschwindigkeitspipeline und eine Hochgenauigkeitspipeline verwendet. Im allgemeinen zielt die Hochgeschwindigkeitsverarbeitungspipeline330 darauf ab, dreidimensionale Daten in Echtzeit, wie etwa mit einer Videobildrate, die von einer zugehörigen Anzeige verwendet wird, bereitzustellen, während die Hochgenauigkeitsverarbeitungspipeline350 darauf abzielt, die höchstmögliche Genauigkeit aus Kameramessungen in Abhängigkeit von allen externen Berechnungs- oder Zeitbeschränkungen, die von der Systemhardware oder einer beabsichtigten Verwendung der Ergebnisse auferlegt werden, bereitzustellen. Eine Datenquelle310 , wie etwa die vorstehend beschriebene Kamera102 , stellt Bilddaten oder ähnliches an das System300 bereit. Die Datenquelle310 kann zum Beispiel Hardware, wie etwa LED-Ringlichter, Wandsensoren, einen Bilddigitalisierer (Framegrabber), einen Computer, ein Betriebssystem und jede andere geeignete Hardware und/oder Software zum Gewinnen von Daten, die in einer dreidimensionalen Rekonstruktion verwendet werden, umfassen. Bilder von der Datenquelle310 , wie etwa Mittelkanalbilder, die herkömmliche Videobilder enthalten, und Seitenkanäle, die Disparitätsdaten enthalten, die verwendet werden, um Tiefeninformationen wiederzugewinnen, können an den Echtzeit-Verarbeitungskontroller316 weitergeleitet werden. Der Echtzeitverarbeitungskontroller316 kann auch Kamerasteuerinformationen oder andere Rückmeldungen an die Datenquelle310 bereitstellen, die in der anschließenden Datenerfassung verwendet werden sollen, oder zum Spezifizieren von Daten, die bereits in der Datenquelle310 erhalten wurden, die von dem Echtzeitverarbeitungskontroller316 benötigt werden. Bilder mit voller Auflösung und zugehörige Bilddaten können in einem Vollauflösungsbildspeicher322 gehalten werden. Die gespeicherten Bilder können zum Beispiel während der Verarbeitung an den Hochgenauigkeitsverar beitungskontroller324 bereitgestellt oder für die Bildüberprüfung durch einen menschlichen Benutzer während nachfolgenden Verarbeitungsschritten gespeichert werden. - Der Echtzeitverarbeitungskontroller
316 kann in Echtzeit Bilder oder Rahmen zur Rekonstruktion von dreidimensionalen Oberflächen aus den zweidimensionalen Quelldaten an die Hochgeschwindigkeits-(Videoraten-)Verarbeitungspipeline330 bereitstellen. In einer beispielhaften Ausführungsform können zweidimensionale Bilder aus einem Bildsatz, wie etwa Seitenkanalbildern, von einem zweidimensionalen Bildausrichtungsmodul332 ausgerichtet werden. Basierend auf den Ergebnissen der zweidimensionalen Bildausrichtung kann ein dreidimensionales Punktwolken-Generierungsmodul334 eine dreidimensionale Punktwolke oder eine andere dreidimensionale Darstellung erzeugen. Die dreidimensionalen Punktwolken von einzelnen Bildsätzen können von einem dreidimensionalen Anfügungsmodul336 kombiniert werden. Schließlich können die angesetzten Messungen von einem dreidimensionalen Erzeugungsmodul338 zu einem dreidimensionalen Modell kombiniert werden. Das sich ergebende Modell kann als ein dreidimensionales Hochgeschwindigkeitsmodell340 gespeichert werden. - Der Hochgenauigkeitsverarbeitungskontroller
324 kann Bilder oder Rahmen an die Hochgenauigkeitsverarbeitungspipeline350 bereitstellen. Separate Bildsätze können eine zweidimensionale Bildausrichtung haben, die von einem zweidimensionalen Bildausrichtungsmodul352 durchgeführt wird. Basierend auf den Ergebnissen der zweidimensionalen Bildausrichtung kann von einem dreidimensionalen Punktwolkengenerierungsmodul354 eine dreidimensionale Punktwolke oder eine andere dreidimensionale Darstellung erzeugt werden. Die dreidimensionalen Punktwolken von einzelnen Bildsätzen können unter Verwendung eines dreidimensionalen Anfügungsmoduls356 verbunden werden. Die globale Bewegungsoptimierung, auf die hier auch als globale Wegoptimierung oder globale Kamerawegoptimierung Bezug genommen wird, kann von einem globalen Bewegungsoptimierungsmodul357 durchgeführt werden, um Fehler in dem sich ergebenden dreidimensionalen Modell358 zu verringern. Im allgemeinen kann der Weg der Kamera, während sie die Rahmen gewinnt, als ein Teil des dreidimensionalen Rekonstruktionsverfahrens berechnet werden. In einem Nachverarbeitungsverfeinerungsverfahren kann die Berechnung des Kamerawegs optimiert werden, das heißt, die Akkumulation von Fehlern entlang der Länge des Kamerawegs kann durch ergänzende Rahmen-Rahmen-Bewegungsschätzung mit einigen oder der gesamten globalen Weginformationen minimiert werden. Basierend auf globalen Informationen, wie etwa einzelnen Rahmen aus Daten in dem Bildspeicher322 , dem dreidimensionalen Hochgeschwindigkeitsmodell340 und Zwischenergebnissen in der Hochgenauigkeitsverarbeitungspipeline350 kann das Hochgenauigkeitsmodell370 verarbeitet werden, um Fehler in dem Kameraweg und sich ergebende Bildfehler in dem rekonstruierten Modell zu verringern. Als eine weitere Verfeinerung kann von einem Gitterprojektionsmodul360 ein Gitter auf das Hochgeschwindigkeitsmodell projiziert werden. Die sich ergebenden Bilder können durch ein Verwölbungsmodul362 verwölbt oder verformt werden. Verwölbte Bilder können verwendet werden, um die Ausrichtung und das Anfügen zwischen Bildern, zum Beispiel durch Verringern des Anfangsfehlers in einer Bewegungsschätzung, zu erleichtern. Die verwölbten Bilder können an das zweidimensionale Bildausrichtungsmodul352 bereitgestellt werden. Die Rückmeldung des dreidimensionalen Hochgenauigkeitsmodells370 in die Pipeline kann wiederholt werden, bis eine Metrik, wie etwa eine Anfügungsgenauigkeit oder eine minimale Fehlerschwelle, erhalten wird. -
4 zeigt eine Bildhierarchie mit mehreren Auflösungen. Im allgemeinen wird eine Hierarchie400 (auch als Pyramide bezeichnet) aus Bildern mit verschiedener Auflösung aus einem Quellbild402 mit voller Auflösung erstellt, welches eine beliebige Anzahl von Bildern404 mit niedrigerer Auflösung und ein Bild406 mit niedrigster Auflösung umfaßt. In einem System mit mehreren Aperturen, wie etwa jedem der vorstehend beschriebenen, kann jedes vollaufgelöste Quellbild402 (z. B. von einem Seitenkanal der Kamera) ein oder mehrere entsprechende vollaufgelöste Quellbilder408 haben, die von einem festen bekannten Ort relativ zu dem vollaufgelösten Bild402 erfaßt werden. Dieses entsprechende vollaufgelöste Quellbild408 kann auch in jede Anzahl von niedriger aufgelösten Bildern410 und ein niedrigst aufgelöstes Bild412 vorverarbeitet werden. Wie vorstehend allgemein beschrieben, kann ein Disparitätsfeldbild418 für die Bilder406 ,412 mit niedrigster Auflösung erhalten werden, das Unterschiede zwischen dem Bildinhalt der Bilder406 ,412 codiert. Dieses Disparitätsfeldbild418 kann verwendet werden, um höher aufgelöste Disparitätsfelder416 ,414 zu schätzen, was die Übereinstimmungs- und Disparitätsbestimmungen für den höher aufgelösten Inhalt vereinfachen und/oder verfeinern kann. -
5 zeigt ein Verfahren zur hierarchischen Verarbeitung in der dreidimensionalen Rekonstruktion. Wie in Schritt502 gezeigt, kann das Verfahren500 mit dem Erfassen von Rahmen von Bilddaten entlang eines Kamerawegs zum Beispiel unter Verwendung einer Kamera mit mehreren Aperturen, wie zum Beispiel der vorstehend beschriebenen, beginnen. Dies kann Bildpaare von zwei versetzten Kanälen der Kamera zusammen mit einem Mittelkanal, der herkömmliche unverwölbte Bilder, alle mit der vollen Kameraauflösung, codiert, umfassen. Beispielhaft und nicht einschränkend kann dies 128×128-Quadratpixelbilder (d. h. 128 Pixel in jeder Dimension) oder jegliche anderen Abmessungen umfassen, die gemäß Verarbeitungsbedingungen, Bildgebungshardware oder ähnlichem ausgewählt werden. Die Kamerapositionen für zwei versetzte Kanäle einer Kamera mit mehreren Aperturen sind voneinander abhängig. Das heißt, diese Positionen haben eine feste räumliche Beziehung miteinander. Während hier beschriebene hierarchische Techniken in diesem Zusammenhang nutzbringend verwendet werden können, versteht sich, daß diese Technik umfassender auf jede bewegungsbasierte Rückgewinnung dreidimensionaler Daten anwendbar ist. Zum Beispiel können zwei Bilder, die aus unabhängigen Kamerapositionen, wie zum Beispiel einer Kamera mit einer einzigen Apertur in zwei Positionen erfaßt wurden, verarbeitet werden, um Disparitäten für jeden ge meinsamen Gegenstand zwischen den Bildern herauszufinden, und das hier beschriebene Verfahren500 kann nutzbringend verwendet werden, um ein Disparitätsfeld aus derartigen Bilder rückzugewinnen. - Wie in Schritt
504 gezeigt, kann basierend auf den vollaufgelösten Bildern eine Hierarchie niedriger aufgelöster Bilder erhalten werden. Dies kann jede geeignete Technik umfassen, die in der Technik für die Kompression, die Auflösungsanpassung mit verringerter Abtastfrequenz und ähnliches bekannt ist, die zweidimensionale räumliche Informationen ausreichend bewahrt, um dem Vergleich der niedriger aufgelösten Bilder Rechnung zu tragen. Beispielhaft und nicht einschränkend kann die Hierarchie drei bis fünf Stufen fortschreitend niedriger aufgelöster Bilder oder einer niedrigsten Auflösung von 32 Pixeln, 16 Pixeln oder 8 Pixeln umfassen. - Wie in Fig.
506 gezeigt, kann ein Disparitätsfeld für die niedrigst aufgelösten Bilder in der Hierarchie bestimmt werden. Das Disparitätsfeld kann Unterschiede, wie etwa die Verschiebung von Merkmalen, zwischen den zwei versetzten Bildern der Kamera basierend auf den niedrig aufgelösten Daten codieren. Zahlreiche Techniken sind für das Ausfindigmachen und Kennzeichnen von Disparitäten in zweidimensionalen Bildern bekannt, von denen jede für die Verwendung in Schritt506 geeignet ist. - Wie in Schritt
508 gezeigt, kann das niedrigst aufgelöste Disparitätsfeld unter Verwendung jeder geeigneten Technik auf die nächste Hierarchiestufe, z. B. eine Stufe mit der doppelten Auflösung, überabgetastet werden. Dies kann eine Schätzung des höher aufgelösten Disparitätsfelds bereitstellen. Während die Verdoppelung der Auflösung eine nützliche Schrittgröße zur Verarbeitung, wie hier beschrieben, ist, versteht sich, daß das Upsampling bzw. Überabtasten auf andere Bildgrößen ebenfalls verwendet werden kann, ohne vom Schutzbereich dieser Offenbarung abzuweichen. - Wie in Schritt
510 gezeigt, kann die Disparitätsfeldschätzung angewendet werden, um eines der höher aufge lösten zweidimensionalen Bilder von der Kamera zu verwölben. Im allgemeinen wendet dieser Schritt Bewegungsinformation von der niedrigeren Stufe auf ein höher aufgelöstes Bild an. Dies kann zum Beispiel als eine lineare Interpolation des Disparitätsfelds mit der höheren Auflösung implementiert werden. - Wie in Schritt
512 gezeigt, kann das Disparitätsfeld auf der überabgetasteten Auflösungsstufe erhalten werden, indem das verwölbe Bild von einem Kanal der Kamera mit einem unverwölbten Bild eines entsprechenden versetzten Kanals verglichen wird. Als ein erheblicher Vorteil kann dieser Ansatz das Verarbeitungsgitter für die zwei Bilder in einem Bildpaar ausrichten und kann eine Verarbeitung mit höherer Auflösung für Disparitätsdaten auf dieser Stufe bereitstellen. Das verwölbte bild von einem Kanal und das unverwölbte Bild von dem anderen Kanal können unter Verwendung jeglicher geeigneter Techniken korreliert werden, um ein Disparitätsfeld rückzugewinnen, das die Bewegung zwischen den zwei Bildern beschreibt. Wenn das Disparitätsfeld bei der höheren Auflösung nicht vollkommen genau ist, wird eine Restbewegung vorhanden sein, nachdem eines der Bilder entsprechend der Schätzung verwölbt wurde. Dieser Unterschied kann unter Verwendung jeder geeigneten Technik für die Rückgewinnung der Bewegung aus mehreren zweidimensionalen Bildern auf einer pixelweisen Basis für das Verarbeitungsgitter rückgewonnen werden, und das Ergebnis kann als ein Disparitätsfehlerfeld verwendet werden, um die Disparitätsschätzung aus dem niedriger aufgelösten Bild zu verfeinern. - Wie in Schritt
514 gezeigt, kann das Disparitätsfeld bei der aktuellen Verarbeitungsauflösung bestimmt werden, indem das geschätzte Disparitätsfeld und der Disparitätsfeldfehler kombiniert werden. Da die Beziehung zwischen Werten in dem geschätzten Disparitätsfeld und dem Disparitätsfeldfehler komplex und über einen bestimmten Bildsatz uneinheitlich sein kann, kann der Disparitätsbildfehler indirekt in die Disparitätsfeldschätzung eingearbeitet werden, indem z. B. die Fehlerwerte verwendet werden, um eine Halbpixelver feinerung von Schätzwerten bereitzustellen, oder unter Verwendung jeder anderen geeigneten Technik. Dieser Ansatz kann den Bedarf an einer genauen Spitzenschätzung (Form oder Position) verringern, um Subpixelkorrelationsergebnisse zu erzielen. Das sich ergebende Disparitätsfeld bei voller Auflösung kann zum Beispiel verwendet werden, um eine dreidimensionale Messung von einer aktuellen Kamerastelle rückzugewinnen. Zum Beispiel kann ein Kameramodell verwendet werden, um die Disparitätswerte in dem Disparitätsfeld mit Tiefenmessungen an entsprechenden Stellen in dem Verarbeitungsgitter in Verbindung zu bringen. - Es versteht sich, daß das Verfahren
500 für jede Anzahl von Stufen in einer Hierarchie von Bildern wiederholt werden kann. Zum Beispiel kann das Verfahren500 für jede hierarchische Stufe, beginnend bei dem niedrigst aufgelösten Bild und endend mit einem verfeinerten Disparitätsfeld für ein Bild mit höchster Auflösung wiederholt werden. Als ein erheblicher Vorteil verringert dieser Ansatz den Bedarf, die voll aufgelöste Korrelation durchzuführen, um das Disparitätsfeld für Bilder mit voller Auflösung direkt rückzugewinnen. Es versteht sich ferner, daß das Verfahren500 über einen Katalog von Bildsätzen in einer dreidimensionalen Abtastung jede beliebige Anzahl von Malen wiederholt werden kann und insbesondere für jeden Bildsatz durchgeführt werden kann, aus dem dreidimensionale Daten rückgewonnen werden. In gewissen Ausführungsformen kann das Verfahren500 verwendet werden, um ein hochgenaues dreidimensionales Modell zu verfeinern. In anderen Ausführungsformen kann das Verfahren500 in einer dreidimensionalen Echtzeit-Bildgebungspipeline implementiert werden. Es versteht sich ferner, daß zahlreiche Variationen, Hinzufügungen, Streichungen und andere Modifizierungen von Schritten möglich sind, einschließlich von Änderungen der Anzahl von Stufen der Hierarchie, der Auflösung von Bildern, des Hinzufügens von Mittelkanalinformationen und so weiter, ohne vom Schutzbereich dieser Offenbarung abzuweichen. - Es wird deutlich sein, daß jedes, das vorstehende System und/oder die Verfahren, in Hardware, Software oder jeder Kombination aus diesen, die für die hier beschriebenen Datenerfassungs- und Modellierungstechnologien geeignet sind, realisiert werden kann. Dies umfaßt die Realisierung in einem oder mehreren Mikroprozessoren, Mikrokontrollern, eingebetteten Mikrokontrollern, programmierbaren digitalen Signalprozessoren oder anderen programmierbaren Vorrichtungen zusammen mit internem und/oder externem Speicher. Dies kann auch oder statt dessen eine oder mehrere anwendungsspezifische integrierte Schaltungen, programmierbare Gate-Arrays, programmierbare logische Anordnungskomponenten oder jede andere Vorrichtung oder Vorrichtungen umfassen, die konfiguriert werden können, um elektronische Signale zu verarbeiten. Es wird ferner deutlich sein, daß eine Realisierung computerausführbaren Code umfassen kann, der unter Verwendung einer strukturierten Programmiersprache, wie etwa C, einer objektorientierten Programmiersprache, wie etwa C++ oder jeder anderen höheren oder niedrigeren Programmiersprache (einschließlich Assemblersprachen, Hardwarebeschreibungssprachen und Datenbankprogrammiersprachen und Technologien), erzeugt wird, der gespeichert, kompiliert oder übersetzt werden kann, um auf einer der vorstehenden Vorrichtungen ebenso wie heterogenen Kombinationen von Prozessoren, Prozessorarchitekturen oder Kombinationen unterschiedlicher Hardware und Software zu laufen. Folglich wird hier in einem Aspekt ein Verfahren offenbart, das computerausführbaren Code aufweist, der, wenn er auf einem oder mehreren Rechenvorrichtungen ausgeführt wird, irgendwelche und/oder alle der vorstehend beschriebenen Schritte ausführt. Gleichzeitig kann die Verarbeitung über Vorrichtungen, wie etwa eine Kamera und/oder einen Computer und/oder eine Fertigungseinrichtung und/oder ein Dentallabor und/oder einen Server in einer Anzahl von Weisen verteilt werden, oder die gesamte Funktionalität kann in eine dedizierte unabhängige Vorrichtung integriert werden. Alle derartigen Permutationen und Kombinationen sollen innerhalb den Schutzbereich der vorliegenden Offenbarung fallen.
- Während die Erfindung in Verbindung mit den gezeigten und im Detail beschriebenen bevorzugten Ausführungsformen offenbart wurde, werden für Fachleute der Technik verschiedene Modifikationen und Verbesserungen daran ohne weiteres offensichtlich. Folglich sind der Geist und Schutzbereich der vorliegenden Erfindung nicht auf die vorangehenden Beispiele beschränkt, sondern sind im weitesten rechtlich erlaubten Sinn zu verstehen.
- Zusammenfassung
- Hierarchische Verarbeitung unter Nutzung von Bildverformung
- Ein hierarchisches Musterabgleichsverfahren wird für die Verwendung in der dreidimensionalen Rekonstruktion verbessert, indem ein Disparitätsfeld für niedrig aufgelöste Daten berechnet wird und dieses Niederauflösungs-Disparitätsfeld verwendet wird, um das Disparitätsfeld für höher aufgelöste Bilder zu schätzen. Durch Pre-Warping bzw. Vorverwölben einer Vorlage können gemäß dem geschätzten Disparitätsfeld verbesserte Korrelationsergebnisse erzielt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 7372642 A [0024, 0035]
- Zitierte Nicht-Patentliteratur
-
- - IEEE 802.11 [0029]
Claims (20)
- Verfahren, das die folgenden Schritte aufweist: Gewinnen eines ersten Bilds und eines zweiten Bilds eines Objekts aus zwei Kamerapositionen; Erzeugen einer Hierarchie aus niedriger aufgelösten Darstellungen des ersten Bilds und des zweiten Bilds; Gewinnen eines Disparitätsfelds, das die Bewegung zwischen einer niedriger aufgelösten Darstellung des ersten Bilds und einer entsprechenden der niedriger aufgelösten Darstellungen des zweiten Bilds kennzeichnet; Überabtasten (Upsampling) des Disparitätsfelds auf eine höhere Auflösung der Hierarchie, um ein geschätztes Disparitätsfeld mit der höheren Auflösung bereitzustellen; Verwölben einer höher aufgelösten Darstellung des ersten Bilds gemäß dem überabgetasteten Disparitätsfeld, um ein verwölbtes Bild bereitzustellen; Korrelieren des verwölbten Bilds mit einer höher aufgelösten Darstellung des zweiten Bilds, um ein Disparitätsfehlerfeld zu erhalten; Kombinieren des überabgetasteten Disparitätsfelds und des Disparitätsfehlerfelds, um ein höher aufgelöstes Disparitätsfeld zu erhalten.
- Verfahren nach Anspruch 1, das ferner das Wiederholen der Verfahrensschritte für eine nächsthöher aufgelöste Stufe der Hierarchie aufweist.
- Verfahren nach Anspruch 1, wobei die höher aufgelöste Darstellung des ersten Bilds ein Bild mit voller Auflösung ist.
- Verfahren nach Anspruch 1, wobei die niedrigst aufgelöste Darstellung des ersten Bilds eine kleinste Größe in der Hierarchie hat.
- Verfahren nach Anspruch 1, das ferner das Anwenden des höher aufgelösten Disparitätsfelds auf ein Kameramodell aufweist, um eine dreidimensionale Oberflächenrekonstruktion des Objekts zu erhalten.
- Verfahren nach Anspruch 1, wobei die Hierarchie eine dreistufige Pyramide und/oder eine vierstufige Pyramide und/oder eine fünfstufige Pyramide aufweist.
- Verfahren nach Anspruch 1, wobei das erste Bild und das zweite Bild in einer Dimension eine Größe von 96 Pixeln haben.
- Verfahren nach Anspruch 1, wobei das erste Bild und das zweite Bild in einer Dimension eine Größe von 128 Pixeln haben.
- Verfahren nach Anspruch 1, wobei die zwei Kamerapositionen zwei versetzten optischen Kanälen in einer dreidimensionalen Kamera mit mehreren Aperturen entsprechen.
- Verfahren nach Anspruch 1, wobei die zwei Kamerapositionen zwei unabhängigen Kamerapositionen entsprechen.
- Computerprogrammprodukt, das computerausführbaren Code aufweist, der auf einem computerlesbaren Medium ausgeführt ist, das, wenn es auf einem oder mehreren Rechenvorrichtungen ausgeführt wird, die folgenden Schritte durchführt: Gewinnen eines ersten Bilds und eines zweiten Bilds eines Objekts aus zwei Kamerapositionen; Erzeugen einer Hierarchie aus niedriger aufgelösten Darstellungen des ersten Bilds und des zweiten Bilds; Gewinnen eines Disparitätsfelds, das die Bewegung zwischen einer niedriger aufgelösten Darstellung des ersten Bilds und einer entsprechenden der niedriger aufgelösten Darstellungen des zweiten Bilds kennzeichnet; Überabtasten (Upsampling) des Disparitätsfelds auf eine höhere Auflösung der Hierarchie, um ein geschätztes Disparitätsfeld mit der höheren Auflösung bereitzustellen; Verwölben einer höher aufgelösten Darstellung des ersten Bilds gemäß dem überabgetasteten Disparitätsfeld, um ein verwölbtes Bild bereitzustellen; Korrelieren des verwölbten Bilds mit einer höher aufgelösten Darstellung des zweiten Bilds, um ein Disparitätsfehlerfeld zu erhalten; und Kombinieren des überabgetasteten Disparitätsfelds und des Disparitätsfehlerfelds, um ein höher aufgelösten Disparitätsfeld zu erhalten.
- Computerprogrammprodukt nach Anspruch 11, das ferner Code zum Wiederholen der Schritte für eine nächsthöher aufgelöste Stufe der Hierarchie aufweist.
- Computerprogrammprodukt nach Anspruch 11, wobei die höher aufgelöste Darstellung des ersten Bilds ein Bild mit voller Auflösung ist.
- Computerprogrammprodukt nach Anspruch 11, wobei die niedriger aufgelöste Darstellung des ersten Bilds eine kleinste Größe in der Hierarchie hat.
- Computerprogrammprodukt nach Anspruch 11, das ferner Code zum Durchführen des Anwendungsschritts des höher aufgelösten Disparitätsfelds auf ein Kameramodell aufweist, um eine dreidimensionale Oberflächenrekonstruktion des Objekts zu erhalten.
- Computerprogrammprodukt nach Anspruch 11, wobei die Hierarchie eine dreistufige Pyramide und/oder eine vier stufige Pyramide und/oder eine fünfstufige Pyramide aufweist.
- Computerprogrammprodukt nach Anspruch 11, wobei das erste Bild und das zweite Bild in einer Dimension eine Größe von 96 Pixeln haben.
- Computerprogrammprodukt nach Anspruch 11, wobei das erste Bild und das zweite Bild in einer Dimension eine Größe von 128 Pixeln haben.
- Computerprogrammprodukt nach Anspruch 11, wobei die zwei Kamerapositionen zwei versetzten optischen Kanälen in einer dreidimensionalen Kamera mit mehreren Aperturen entsprechen.
- Computerprogrammprodukt nach Anspruch 11, wobei die zwei Kamerapositionen zwei unabhängigen Kamerapositionen entsprechen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US1915908P | 2008-01-04 | 2008-01-04 | |
US61/019,159 | 2008-01-04 | ||
PCT/US2009/030067 WO2009089128A1 (en) | 2008-01-04 | 2009-01-04 | Hierarchical processing using image deformation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112009000093T5 true DE112009000093T5 (de) | 2010-12-09 |
Family
ID=40853423
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000093T Pending DE112009000093T5 (de) | 2008-01-04 | 2009-01-04 | Hierarchische Verarbeitung unter Nutzung von Bildverformung |
DE112009000100T Pending DE112009000100T5 (de) | 2008-01-04 | 2009-01-04 | Navigieren zwischen Bildern eines Objekts im 3D-Raum |
DE112009000094T Pending DE112009000094T5 (de) | 2008-01-04 | 2009-01-04 | Verfeinerung dreidimensionaler Modelle |
DE112009000101T Pending DE112009000101T5 (de) | 2008-01-04 | 2009-01-04 | Globale Kamerawegoptimierung |
DE112009000099T Pending DE112009000099T5 (de) | 2008-01-04 | 2009-01-04 | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000100T Pending DE112009000100T5 (de) | 2008-01-04 | 2009-01-04 | Navigieren zwischen Bildern eines Objekts im 3D-Raum |
DE112009000094T Pending DE112009000094T5 (de) | 2008-01-04 | 2009-01-04 | Verfeinerung dreidimensionaler Modelle |
DE112009000101T Pending DE112009000101T5 (de) | 2008-01-04 | 2009-01-04 | Globale Kamerawegoptimierung |
DE112009000099T Pending DE112009000099T5 (de) | 2008-01-04 | 2009-01-04 | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion |
Country Status (3)
Country | Link |
---|---|
US (7) | US9418474B2 (de) |
DE (5) | DE112009000093T5 (de) |
WO (5) | WO2009089126A1 (de) |
Families Citing this family (246)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11026768B2 (en) | 1998-10-08 | 2021-06-08 | Align Technology, Inc. | Dental appliance reinforcement |
WO2006092800A2 (en) * | 2005-03-03 | 2006-09-08 | Cadent Ltd. | System and method for scanning an intraoral cavity |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US20160321253A1 (en) | 2005-10-26 | 2016-11-03 | Cortica, Ltd. | System and method for providing recommendations based on user profiles |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US11216498B2 (en) * | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
US9418474B2 (en) | 2008-01-04 | 2016-08-16 | 3M Innovative Properties Company | Three-dimensional model refinement |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
US8108189B2 (en) | 2008-03-25 | 2012-01-31 | Align Technologies, Inc. | Reconstruction of non-visible part of tooth |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8092215B2 (en) | 2008-05-23 | 2012-01-10 | Align Technology, Inc. | Smile designer |
US9492243B2 (en) | 2008-05-23 | 2016-11-15 | Align Technology, Inc. | Dental implant positioning |
US8172569B2 (en) | 2008-06-12 | 2012-05-08 | Align Technology, Inc. | Dental appliance |
US8152518B2 (en) | 2008-10-08 | 2012-04-10 | Align Technology, Inc. | Dental positioning appliance having metallic portion |
US8640338B2 (en) | 2009-02-02 | 2014-02-04 | Viax Dental Technologies, LLC | Method of preparation for restoring tooth structure |
US20100192375A1 (en) | 2009-02-02 | 2010-08-05 | Remedent Nv | Method for producing a dentist tool |
US8292617B2 (en) | 2009-03-19 | 2012-10-23 | Align Technology, Inc. | Dental wire attachment |
CN102802520B (zh) | 2009-06-17 | 2015-04-01 | 3形状股份有限公司 | 聚焦扫描设备 |
US8765031B2 (en) | 2009-08-13 | 2014-07-01 | Align Technology, Inc. | Method of forming a dental appliance |
WO2011034780A1 (en) | 2009-09-15 | 2011-03-24 | 3M Innovative Properties Company | Dental implant abutments and methods of use |
WO2011034781A2 (en) | 2009-09-15 | 2011-03-24 | 3M Innovative Properties Company | Method of making dental implant model and articles |
AT508563B1 (de) | 2009-10-07 | 2011-02-15 | Ait Austrian Inst Technology | Verfahren zur aufnahme dreidimensionaler abbilder |
DE102009048834A1 (de) * | 2009-10-09 | 2011-04-14 | Volkswagen Ag | Verfahren und Anzeigeeinrichtung zum Anzeigen von Informationen |
US8566020B2 (en) * | 2009-12-01 | 2013-10-22 | Nokia Corporation | Method and apparatus for transforming three-dimensional map objects to present navigation information |
US8773424B2 (en) | 2010-02-04 | 2014-07-08 | Microsoft Corporation | User interfaces for interacting with top-down maps of reconstructed 3-D scences |
US8624902B2 (en) | 2010-02-04 | 2014-01-07 | Microsoft Corporation | Transitioning between top-down maps and local navigation of reconstructed 3-D scenes |
US9241774B2 (en) | 2010-04-30 | 2016-01-26 | Align Technology, Inc. | Patterned dental positioning appliance |
US9211166B2 (en) | 2010-04-30 | 2015-12-15 | Align Technology, Inc. | Individualized orthodontic treatment index |
US8295589B2 (en) | 2010-05-20 | 2012-10-23 | Microsoft Corporation | Spatially registering user photographs |
JP2012053268A (ja) * | 2010-09-01 | 2012-03-15 | Canon Inc | レンチキュラーレンズ、画像生成装置および画像生成方法 |
WO2012061549A2 (en) * | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
KR101791590B1 (ko) * | 2010-11-05 | 2017-10-30 | 삼성전자주식회사 | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 |
USRE48221E1 (en) | 2010-12-06 | 2020-09-22 | 3Shape A/S | System with 3D user interface integration |
ES2705531T3 (es) | 2010-12-06 | 2019-03-25 | 3Shape As | Sistema con integración de interfaz de usuario 3D |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012083968A1 (en) * | 2010-12-21 | 2012-06-28 | 3Shape A/S | Motion blur compensation |
US20120162394A1 (en) * | 2010-12-23 | 2012-06-28 | Tektronix, Inc. | Displays for easy visualizing of 3d disparity data |
EP3712857A1 (de) * | 2011-02-22 | 2020-09-23 | Midmark Corporation | Hybrides heften zur 3d-rekonstruktion |
US8774455B2 (en) | 2011-03-02 | 2014-07-08 | Raf Technology, Inc. | Document fingerprinting |
US9443298B2 (en) | 2012-03-02 | 2016-09-13 | Authentect, Inc. | Digital fingerprinting object authentication and anti-counterfeiting system |
JP5144784B2 (ja) * | 2011-04-11 | 2013-02-13 | ファナック株式会社 | 工作機械の工具軌跡表示装置 |
US9433795B2 (en) | 2011-04-13 | 2016-09-06 | Boston Scientific Neuromodulation Corporation | User interface with view finder for localizing anatomical region |
US8963998B2 (en) * | 2011-04-15 | 2015-02-24 | Tektronix, Inc. | Full reference system for predicting subjective quality of three-dimensional video |
BR122020013944B1 (pt) | 2011-05-26 | 2021-06-08 | Viax Dental Technologies, LLC | sistema dental, revestimento dental, e, método para produzir um revestimento dental |
US8648919B2 (en) * | 2011-06-06 | 2014-02-11 | Apple Inc. | Methods and systems for image stabilization |
US8823813B2 (en) | 2011-06-06 | 2014-09-02 | Apple Inc. | Correcting rolling shutter using image stabilization |
EP2719160A2 (de) | 2011-06-06 | 2014-04-16 | 3Shape A/S | 3d-scanner mit dualer auflösung |
US20120329008A1 (en) * | 2011-06-22 | 2012-12-27 | Trident Labs, Inc. d/b/a Trident Dental Laboratories | Process for making a dental restoration model |
US9486141B2 (en) * | 2011-08-09 | 2016-11-08 | Carestream Health, Inc. | Identification of dental caries in live video images |
US9403238B2 (en) | 2011-09-21 | 2016-08-02 | Align Technology, Inc. | Laser cutting |
EP2761534B1 (de) | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systeme zur kodierung von lichtfeldbilddateien |
GB2497517B (en) * | 2011-12-06 | 2016-05-25 | Toshiba Res Europe Ltd | A reconstruction system and method |
US8767040B2 (en) | 2012-01-11 | 2014-07-01 | Google Inc. | Method and system for displaying panoramic imagery |
US9375300B2 (en) | 2012-02-02 | 2016-06-28 | Align Technology, Inc. | Identifying forces on a tooth |
US9220580B2 (en) | 2012-03-01 | 2015-12-29 | Align Technology, Inc. | Determining a dental treatment difficulty |
US9083945B2 (en) | 2012-04-06 | 2015-07-14 | Adobe Systems Incorporated | Keyframe selection for robust video-based structure from motion |
US9317928B2 (en) | 2012-04-06 | 2016-04-19 | Adobe Systems Incorporated | Detecting and tracking point features with primary colors |
US9414897B2 (en) | 2012-05-22 | 2016-08-16 | Align Technology, Inc. | Adjustment of tooth position in a virtual dental model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
US10163261B2 (en) * | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
CN107346061B (zh) | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US9154805B2 (en) * | 2012-09-12 | 2015-10-06 | Advanced Micro Devices, Inc. | Video and image compression based on position of the image generating device |
US20140100995A1 (en) * | 2012-10-05 | 2014-04-10 | Sanu Koshy | Collection and Use of Consumer Data Associated with Augmented-Reality Window Shopping |
US8948482B2 (en) * | 2012-11-01 | 2015-02-03 | Align Technology, Inc. | Motion compensation in a three dimensional scan |
KR102307530B1 (ko) * | 2012-11-23 | 2021-09-30 | 카덴스 메디컬 이미징 아이엔씨 | 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 |
US20140172392A1 (en) * | 2012-12-18 | 2014-06-19 | Palo Alto Research Center Incorporated | Simultaneous mapping and registering thermal images |
AU2012268846A1 (en) * | 2012-12-21 | 2014-07-10 | Canon Kabushiki Kaisha | Optimal patch ranking for coordinate transform estimation of microscope images from sparse patch shift estimates |
WO2014106823A2 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US9224368B2 (en) * | 2013-02-20 | 2015-12-29 | Google Inc. | Merging three-dimensional models of varying resolution |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
CN105164549B (zh) * | 2013-03-15 | 2019-07-02 | 优步技术公司 | 用于机器人的多传感立体视觉的方法、系统和设备 |
US9445003B1 (en) * | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9196084B2 (en) * | 2013-03-15 | 2015-11-24 | Urc Ventures Inc. | Determining object volume from mobile device images |
JP6304242B2 (ja) * | 2013-04-04 | 2018-04-04 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN105264436B (zh) | 2013-04-05 | 2019-03-08 | 安德拉运动技术股份有限公司 | 用于控制与图像捕捉有关的设备的系统和方法 |
US9479709B2 (en) | 2013-10-10 | 2016-10-25 | Nvidia Corporation | Method and apparatus for long term image exposure with image stabilization on a mobile device |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
EP3075140B1 (de) | 2013-11-26 | 2018-06-13 | FotoNation Cayman Limited | Zeilenkamerakonfigurationen mit mehreren zeilenkameras |
EP2884364B1 (de) * | 2013-12-12 | 2018-09-26 | Hexagon Technology Center GmbH | Autonomes Gartenarbeitsfahrzeug mit Kamera |
CA2936465C (en) * | 2014-01-21 | 2020-06-09 | Vorum Research Corporation | Method and system for generating a three-dimensional scan of an object |
US10010387B2 (en) | 2014-02-07 | 2018-07-03 | 3Shape A/S | Detecting tooth shade |
CN103796004B (zh) * | 2014-02-13 | 2015-09-30 | 西安交通大学 | 一种主动结构光的双目深度感知方法 |
CN104065954B (zh) * | 2014-07-03 | 2016-05-18 | 中国传媒大学 | 一种高清立体视频的视差范围快速检测方法 |
US10772506B2 (en) | 2014-07-07 | 2020-09-15 | Align Technology, Inc. | Apparatus for dental confocal imaging |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
US9724177B2 (en) | 2014-08-19 | 2017-08-08 | Align Technology, Inc. | Viewfinder with real-time tracking for intraoral scanning |
US10449016B2 (en) | 2014-09-19 | 2019-10-22 | Align Technology, Inc. | Arch adjustment appliance |
US9610141B2 (en) | 2014-09-19 | 2017-04-04 | Align Technology, Inc. | Arch expanding appliance |
US11205305B2 (en) | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
US10257494B2 (en) | 2014-09-22 | 2019-04-09 | Samsung Electronics Co., Ltd. | Reconstruction of three-dimensional video |
CN113256730B (zh) | 2014-09-29 | 2023-09-05 | 快图有限公司 | 用于阵列相机的动态校准的系统和方法 |
US9744001B2 (en) | 2014-11-13 | 2017-08-29 | Align Technology, Inc. | Dental appliance with cavity for an unerupted or erupting tooth |
US10504386B2 (en) | 2015-01-27 | 2019-12-10 | Align Technology, Inc. | Training method and system for oral-cavity-imaging-and-modeling equipment |
KR102264591B1 (ko) * | 2015-02-27 | 2021-06-15 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
AU2016228125B2 (en) * | 2015-03-05 | 2019-11-28 | Commonwealth Scientific And Industrial Research Organisation | Structure modelling |
WO2017001356A2 (en) | 2015-06-30 | 2017-01-05 | Mapillary Ab | Method in constructing a model of a scenery and device therefor |
US10248883B2 (en) | 2015-08-20 | 2019-04-02 | Align Technology, Inc. | Photograph-based assessment of dental treatments and procedures |
TWI567364B (zh) | 2015-09-08 | 2017-01-21 | 財團法人工業技術研究院 | 結構光產生裝置、量測系統及其方法 |
US11931222B2 (en) | 2015-11-12 | 2024-03-19 | Align Technology, Inc. | Dental attachment formation structures |
US11554000B2 (en) | 2015-11-12 | 2023-01-17 | Align Technology, Inc. | Dental attachment formation structure |
US11596502B2 (en) | 2015-12-09 | 2023-03-07 | Align Technology, Inc. | Dental attachment placement structure |
US11103330B2 (en) | 2015-12-09 | 2021-08-31 | Align Technology, Inc. | Dental attachment placement structure |
US20170171525A1 (en) * | 2015-12-14 | 2017-06-15 | Sony Corporation | Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
WO2017105641A1 (en) | 2015-12-15 | 2017-06-22 | Cortica, Ltd. | Identification of key points in multimedia data elements |
US10621433B1 (en) | 2015-12-18 | 2020-04-14 | EControls Holdings, KKC | Multiscopic whitetail scoring game camera systems and methods |
US10037537B2 (en) | 2016-02-19 | 2018-07-31 | Alitheon, Inc. | Personal history in track and trace system |
EP3236401A1 (de) | 2016-04-18 | 2017-10-25 | Alitheon, Inc. | Durch authentifizierung ausgelöste verfahren |
EP3463258A1 (de) | 2016-05-27 | 2019-04-10 | 3M Innovative Properties Company | Beschichtungszusammensetzungen mit teilchen mit unterschiedlichen brechungsindizes zur verwendung in intraoralen abtastverfahren |
WO2017205095A1 (en) | 2016-05-27 | 2017-11-30 | 3M Innovative Properties Company | Coating compositions having hydrophilic and hydrophobic particles for use in intraoral scanning methods |
US10383705B2 (en) | 2016-06-17 | 2019-08-20 | Align Technology, Inc. | Orthodontic appliance performance monitor |
WO2017218947A1 (en) | 2016-06-17 | 2017-12-21 | Align Technology, Inc. | Intraoral appliances with sensing |
US10740767B2 (en) | 2016-06-28 | 2020-08-11 | Alitheon, Inc. | Centralized databases storing digital fingerprints of objects for collaborative authentication |
US10915612B2 (en) | 2016-07-05 | 2021-02-09 | Alitheon, Inc. | Authenticated production |
US10416836B2 (en) * | 2016-07-11 | 2019-09-17 | The Boeing Company | Viewpoint navigation control for three-dimensional visualization using two-dimensional layouts |
KR102546050B1 (ko) | 2016-07-27 | 2023-06-22 | 얼라인 테크널러지, 인크. | 치아 진단 기능이 있는 구강 내 스캐너 |
US10507087B2 (en) | 2016-07-27 | 2019-12-17 | Align Technology, Inc. | Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth |
US10902540B2 (en) | 2016-08-12 | 2021-01-26 | Alitheon, Inc. | Event-driven authentication of physical objects |
US10839528B2 (en) | 2016-08-19 | 2020-11-17 | Alitheon, Inc. | Authentication-based tracking |
GB2553148A (en) * | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
CN109922754B (zh) | 2016-11-04 | 2021-10-01 | 阿莱恩技术有限公司 | 用于牙齿图像的方法和装置 |
TWI651513B (zh) | 2016-11-15 | 2019-02-21 | 財團法人工業技術研究院 | 三維量測系統及其方法 |
US11003305B2 (en) * | 2016-11-18 | 2021-05-11 | Zspace, Inc. | 3D user interface |
CN106776996B (zh) * | 2016-12-02 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于测试高精度地图的准确性的方法和装置 |
EP3824843A1 (de) | 2016-12-02 | 2021-05-26 | Align Technology, Inc. | Palatale expander und verfahren zur erweiterung des gaumens |
US11376101B2 (en) | 2016-12-02 | 2022-07-05 | Align Technology, Inc. | Force control, stop mechanism, regulating structure of removable arch adjustment appliance |
WO2018102702A1 (en) | 2016-12-02 | 2018-06-07 | Align Technology, Inc. | Dental appliance features for speech enhancement |
AU2017366755B2 (en) | 2016-12-02 | 2022-07-28 | Align Technology, Inc. | Methods and apparatuses for customizing rapid palatal expanders using digital models |
KR102534875B1 (ko) * | 2016-12-08 | 2023-05-22 | 한국전자통신연구원 | 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치 |
US10548700B2 (en) | 2016-12-16 | 2020-02-04 | Align Technology, Inc. | Dental appliance etch template |
EP3340023B1 (de) * | 2016-12-22 | 2020-02-12 | Dassault Systèmes | Schnelle manipulation von objekten in einer dreidimensionalen szene |
EP3565259A1 (de) * | 2016-12-28 | 2019-11-06 | Panasonic Intellectual Property Corporation of America | Verteilungsverfahren für dreidimensionales modell, empfangsverfahren für dreidimensionales modell, verteilungsvorrichtung für dreidimensionales modell und empfangsvorrichtung für dreidimensionales modell |
US10456043B2 (en) | 2017-01-12 | 2019-10-29 | Align Technology, Inc. | Compact confocal dental scanning apparatus |
US10779718B2 (en) | 2017-02-13 | 2020-09-22 | Align Technology, Inc. | Cheek retractor and mobile device holder |
US11007035B2 (en) | 2017-03-16 | 2021-05-18 | Viax Dental Technologies Llc | System for preparing teeth for the placement of veneers |
US10613515B2 (en) | 2017-03-31 | 2020-04-07 | Align Technology, Inc. | Orthodontic appliances including at least partially un-erupted teeth and method of forming them |
GB2546459B (en) * | 2017-05-10 | 2018-02-28 | Tomlinson Martin | Data verification |
GB201708520D0 (en) * | 2017-05-27 | 2017-07-12 | Dawood Andrew | A method for reducing artefact in intra oral scans |
US11045283B2 (en) | 2017-06-09 | 2021-06-29 | Align Technology, Inc. | Palatal expander with skeletal anchorage devices |
US10639134B2 (en) | 2017-06-26 | 2020-05-05 | Align Technology, Inc. | Biosensor performance indicator for intraoral appliances |
WO2019008581A1 (en) | 2017-07-05 | 2019-01-10 | Cortica Ltd. | DETERMINATION OF DRIVING POLICIES |
WO2019012527A1 (en) | 2017-07-09 | 2019-01-17 | Cortica Ltd. | ORGANIZATION OF DEPTH LEARNING NETWORKS |
US10885521B2 (en) | 2017-07-17 | 2021-01-05 | Align Technology, Inc. | Method and apparatuses for interactive ordering of dental aligners |
US10431000B2 (en) * | 2017-07-18 | 2019-10-01 | Sony Corporation | Robust mesh tracking and fusion by using part-based key frames and priori model |
WO2019018784A1 (en) | 2017-07-21 | 2019-01-24 | Align Technology, Inc. | ANCHOR OF CONTOUR PALATIN |
EP3435287A3 (de) * | 2017-07-25 | 2019-05-01 | Alitheon, Inc. | Modellbasierte digitale fingerabdrucknahme |
US11633268B2 (en) | 2017-07-27 | 2023-04-25 | Align Technology, Inc. | Tooth shading, transparency and glazing |
EP3658067B1 (de) | 2017-07-27 | 2023-10-25 | Align Technology, Inc. | System und verfahren zur verarbeitung eines orthodontischen ausrichters mittels optischer kohärenztomographie |
WO2019032923A2 (en) | 2017-08-10 | 2019-02-14 | D4D Technologies, Llc | INTRAORAL SCANNING DEVICE |
US11116605B2 (en) | 2017-08-15 | 2021-09-14 | Align Technology, Inc. | Buccal corridor assessment and computation |
WO2019036677A1 (en) | 2017-08-17 | 2019-02-21 | Align Technology, Inc. | SURVEILLANCE OF CONFORMITY OF DENTAL DEVICE |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
JP6822929B2 (ja) * | 2017-09-19 | 2021-01-27 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
US10813720B2 (en) | 2017-10-05 | 2020-10-27 | Align Technology, Inc. | Interproximal reduction templates |
CN111386551A (zh) * | 2017-10-19 | 2020-07-07 | 交互数字Vc控股公司 | 点云的预测编码、解码的方法和设备 |
CN111565668B (zh) | 2017-10-27 | 2022-06-07 | 阿莱恩技术有限公司 | 替代咬合调整结构 |
EP3703608B1 (de) | 2017-10-31 | 2023-08-30 | Align Technology, Inc. | Ermittlung eines zahnärztlichen gerätes mit selektiver okklusaler belastung und kontrollierter interkuspidation |
CN111315315B (zh) | 2017-11-01 | 2022-08-23 | 阿莱恩技术有限公司 | 自动治疗规划 |
WO2019100022A1 (en) | 2017-11-17 | 2019-05-23 | Align Technology, Inc. | Orthodontic retainers |
EP3716885B1 (de) | 2017-11-30 | 2023-08-30 | Align Technology, Inc. | Sensoren umfassende orthodontische intraorale geräte |
JP6932205B2 (ja) * | 2017-11-30 | 2021-09-08 | 三菱電機株式会社 | 三次元地図生成システム、三次元地図生成方法および三次元地図生成プログラム |
WO2019118876A1 (en) | 2017-12-15 | 2019-06-20 | Align Technology, Inc. | Closed loop adaptive orthodontic treatment methods and apparatuses |
US10469250B2 (en) * | 2017-12-22 | 2019-11-05 | Max Adel Rady | Physical item mapping to blockchain framework |
US10980613B2 (en) | 2017-12-29 | 2021-04-20 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
EP3514715A1 (de) | 2018-01-22 | 2019-07-24 | Alitheon, Inc. | Sichere digitale fingerabdruck-schlüsselobjektdatenbank |
CA3086553A1 (en) | 2018-01-26 | 2019-08-01 | Align Technology, Inc. | Diagnostic intraoral scanning and tracking |
US10521970B2 (en) * | 2018-02-21 | 2019-12-31 | Adobe Inc. | Refining local parameterizations for applying two-dimensional images to three-dimensional models |
US11937991B2 (en) | 2018-03-27 | 2024-03-26 | Align Technology, Inc. | Dental attachment placement structure |
KR102068489B1 (ko) * | 2018-03-30 | 2020-01-22 | (주)온넷시스템즈코리아 | 3차원 객체 생성 장치 |
KR20200141498A (ko) | 2018-04-11 | 2020-12-18 | 얼라인 테크널러지, 인크. | 해제 가능한 구개 확장기 |
US11127203B2 (en) * | 2018-05-16 | 2021-09-21 | Samsung Electronics Co., Ltd. | Leveraging crowdsourced data for localization and mapping within an environment |
CN112584793A (zh) * | 2018-06-21 | 2021-03-30 | 3 形状股份有限公司 | 将至少一个附加的2d图像与牙齿的至少一部分的3d表示相关联的方法、装置和系统 |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US20200068197A1 (en) * | 2018-08-27 | 2020-02-27 | Ati Technologies Ulc | Benefit-based bitrate distribution for video encoding |
US11689707B2 (en) * | 2018-09-20 | 2023-06-27 | Shoppertrak Rct Llc | Techniques for calibrating a stereoscopic camera in a device |
CN112714926A (zh) * | 2018-09-28 | 2021-04-27 | 英特尔公司 | 用于生成拍摄环境的照片般真实的三维模型的方法和装置 |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11700356B2 (en) | 2018-10-26 | 2023-07-11 | AutoBrains Technologies Ltd. | Control transfer of a vehicle |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US10963670B2 (en) | 2019-02-06 | 2021-03-30 | Alitheon, Inc. | Object change detection and measurement using digital fingerprints |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
JP6936826B2 (ja) * | 2019-03-18 | 2021-09-22 | 株式会社モリタ製作所 | 画像処理装置、表示システム、画像処理方法、および画像処理プログラム |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
US11488290B2 (en) | 2019-03-31 | 2022-11-01 | Cortica Ltd. | Hybrid representation of a media unit |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
EP3734506A1 (de) | 2019-05-02 | 2020-11-04 | Alitheon, Inc. | Automatisierte lokalisierung und erfassung von authentifizierungsbereichen |
EP3736717A1 (de) | 2019-05-10 | 2020-11-11 | Alitheon, Inc. | Verfahren und system für digitale fingerabdrücke in einer schleifenkette |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
US11410275B2 (en) * | 2019-09-23 | 2022-08-09 | Tencent America LLC | Video coding for machine (VCM) based system and method for video super resolution (SR) |
EP4042366A4 (de) | 2019-10-07 | 2023-11-15 | Boston Polarimetrics, Inc. | Systeme und verfahren zur erweiterung von sensorsystemen und bildgebungssystemen mit polarisation |
US11238146B2 (en) | 2019-10-17 | 2022-02-01 | Alitheon, Inc. | Securing composite objects using digital fingerprints |
KR20230116068A (ko) | 2019-11-30 | 2023-08-03 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법 |
GB201918006D0 (en) * | 2019-12-09 | 2020-01-22 | Univ Leeds Innovations Ltd | Determining spatial relationship between upper and lower teeth |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
EP3859603A1 (de) | 2020-01-28 | 2021-08-04 | Alitheon, Inc. | Tiefenbasierte digitale fingerabdruckerstellung |
CN115552486A (zh) | 2020-01-29 | 2022-12-30 | 因思创新有限责任公司 | 用于表征物体姿态检测和测量系统的系统和方法 |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11568683B2 (en) | 2020-03-23 | 2023-01-31 | Alitheon, Inc. | Facial biometrics system and method using digital fingerprints |
EP3885982A3 (de) | 2020-03-23 | 2021-12-22 | Alitheon, Inc. | Handbiometriksystem und verfahren unter verwendung von digitalen fingerabdrücken |
US11538573B2 (en) * | 2020-03-30 | 2022-12-27 | James R. Glidewell Dental Ceramics, Inc. | Virtual dental restoration insertion verification |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
EP3929806A3 (de) | 2020-04-06 | 2022-03-09 | Alitheon, Inc. | Lokale codierung von intrinsischen authentifizierungsdaten |
US11663849B1 (en) | 2020-04-23 | 2023-05-30 | Alitheon, Inc. | Transform pyramiding for fingerprint matching system and method |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11700123B2 (en) | 2020-06-17 | 2023-07-11 | Alitheon, Inc. | Asset-backed digital security tokens |
CN111862305A (zh) * | 2020-06-30 | 2020-10-30 | 北京百度网讯科技有限公司 | 处理图像的方法、装置和计算机存储介质 |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
US11445165B1 (en) * | 2021-02-19 | 2022-09-13 | Dentsply Sirona Inc. | Method, system and computer readable storage media for visualizing a magnified dental treatment site |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7372642B2 (en) | 2006-02-13 | 2008-05-13 | 3M Innovative Properties Company | Three-channel camera systems with non-collinear apertures |
Family Cites Families (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5276785A (en) * | 1990-08-02 | 1994-01-04 | Xerox Corporation | Moving viewpoint with respect to a target in a three-dimensional workspace |
US5359703A (en) * | 1990-08-02 | 1994-10-25 | Xerox Corporation | Moving an object in a three-dimensional workspace |
US5390108A (en) * | 1991-05-24 | 1995-02-14 | Forensic Technology Wai Inc. | Computer automated bullet analysis apparatus |
FR2700654B1 (fr) * | 1993-01-19 | 1995-02-17 | Thomson Csf | Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques. |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US7819807B2 (en) * | 1996-06-28 | 2010-10-26 | Sonosite, Inc. | Balance body ultrasound system |
US6396941B1 (en) * | 1996-08-23 | 2002-05-28 | Bacus Research Laboratories, Inc. | Method and apparatus for internet, intranet, and local viewing of virtual microscope slides |
US6272235B1 (en) * | 1997-03-03 | 2001-08-07 | Bacus Research Laboratories, Inc. | Method and apparatus for creating a virtual microscope slide |
IL119831A (en) | 1996-12-15 | 2002-12-01 | Cognitens Ltd | A device and method for three-dimensional reconstruction of the surface geometry of an object |
US6346940B1 (en) * | 1997-02-27 | 2002-02-12 | Kabushiki Kaisha Toshiba | Virtualized endoscope system |
US6208347B1 (en) | 1997-06-23 | 2001-03-27 | Real-Time Geometry Corporation | System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US6477268B1 (en) * | 1998-11-17 | 2002-11-05 | Industrial Technology Research Institute | Producing transitions between vistas |
US8248457B2 (en) * | 1999-02-25 | 2012-08-21 | Visionsense, Ltd. | Optical device |
US7068825B2 (en) * | 1999-03-08 | 2006-06-27 | Orametrix, Inc. | Scanning system and calibration method for capturing precise three-dimensional information of objects |
US6614452B1 (en) * | 1999-11-15 | 2003-09-02 | Xenogen Corporation | Graphical user interface for in-vivo imaging |
US7234937B2 (en) * | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
US6525732B1 (en) * | 2000-02-17 | 2003-02-25 | Wisconsin Alumni Research Foundation | Network-based viewing of images of three-dimensional objects |
US6826299B2 (en) | 2000-07-31 | 2004-11-30 | Geodetic Services, Inc. | Photogrammetric image correlation and measurement system and method |
US7260274B2 (en) * | 2000-12-01 | 2007-08-21 | Imax Corporation | Techniques and systems for developing high-resolution imagery |
US6633317B2 (en) * | 2001-01-02 | 2003-10-14 | Microsoft Corporation | Image-based walkthrough system and process employing spatial video streaming |
US6987512B2 (en) * | 2001-03-29 | 2006-01-17 | Microsoft Corporation | 3D navigation techniques |
JP3842080B2 (ja) * | 2001-07-06 | 2006-11-08 | グローリー工業株式会社 | 署名照合装置、署名照合方法および署名照合プログラム |
FR2831014B1 (fr) * | 2001-10-16 | 2004-02-13 | Oreal | Procede et dispositif pour determiner le degre souhaite et/ou effectif d'au moins une caracteristique d'un produit |
US7046840B2 (en) * | 2001-11-09 | 2006-05-16 | Arcsoft, Inc. | 3-D reconstruction engine |
US20050169507A1 (en) * | 2001-11-21 | 2005-08-04 | Kevin Kreeger | Registration of scanning data acquired from different patient positions |
US7085323B2 (en) * | 2002-04-03 | 2006-08-01 | Stmicroelectronics, Inc. | Enhanced resolution video construction method and apparatus |
US7184071B2 (en) | 2002-08-23 | 2007-02-27 | University Of Maryland | Method of three-dimensional object reconstruction from a video sequence using a generic model |
US20040197728A1 (en) * | 2002-09-10 | 2004-10-07 | Amir Abolfathi | Architecture for treating teeth |
US7589732B2 (en) * | 2002-11-05 | 2009-09-15 | Autodesk, Inc. | System and method of integrated spatial and temporal navigation |
EP1890261B1 (de) * | 2006-08-14 | 2009-02-18 | BrainLAB AG | Registrierung von MR-Daten anhand generischer Modelle |
US7695278B2 (en) * | 2005-05-20 | 2010-04-13 | Orametrix, Inc. | Method and system for finding tooth features on a virtual three-dimensional model |
US6968973B2 (en) * | 2003-05-31 | 2005-11-29 | Microsoft Corporation | System and process for viewing and navigating through an interactive video tour |
US7349563B2 (en) * | 2003-06-25 | 2008-03-25 | Siemens Medical Solutions Usa, Inc. | System and method for polyp visualization |
US7990384B2 (en) * | 2003-09-15 | 2011-08-02 | At&T Intellectual Property Ii, L.P. | Audio-visual selection process for the synthesis of photo-realistic talking-head animations |
US20050089213A1 (en) | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
US7474932B2 (en) | 2003-10-23 | 2009-01-06 | Technest Holdings, Inc. | Dental computer-aided design (CAD) methods and systems |
US7901348B2 (en) | 2003-12-12 | 2011-03-08 | University Of Washington | Catheterscope 3D guidance and interface system |
DE602004017058D1 (de) * | 2003-12-18 | 2008-11-20 | Matsushita Electric Ind Co Ltd | Aufzeichnungsvorrichtung, integrierte schaltung für eine aufzeichnungsvorrichtung, aufzeichnungsverfahren, computerprogramm und computeraufzeichnungsmedium zur ermöglichung der inhaltsaufzeichnung |
US7693325B2 (en) * | 2004-01-14 | 2010-04-06 | Hexagon Metrology, Inc. | Transprojection of geometry data |
KR100519782B1 (ko) * | 2004-03-04 | 2005-10-07 | 삼성전자주식회사 | 스테레오 카메라를 이용한 사람 검출 방법 및 장치 |
US7502505B2 (en) | 2004-03-15 | 2009-03-10 | Microsoft Corporation | High-quality gradient-corrected linear interpolation for demosaicing of color images |
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US7015926B2 (en) | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
US7230620B2 (en) * | 2004-08-05 | 2007-06-12 | Mitsubishi Electric Research Laboratories, Inc. | Rendering deformable and animated surface reflectance fields |
CA2511040A1 (en) | 2004-09-23 | 2006-03-23 | The Governors Of The University Of Alberta | Method and system for real time image rendering |
EP1820159A1 (de) * | 2004-11-12 | 2007-08-22 | MOK3, Inc. | Verfahren für übergänge zwischen szenen |
US7610560B2 (en) * | 2004-11-16 | 2009-10-27 | Microsoft Corporation | Methods for automated and semiautomated composition of visual sequences, flows, and flyovers based on content and context |
US20060103678A1 (en) * | 2004-11-18 | 2006-05-18 | Pascal Cathier | Method and system for interactive visualization of locally oriented structures |
US7365747B2 (en) * | 2004-12-07 | 2008-04-29 | The Boeing Company | Methods and systems for controlling an image generator to define, generate, and view geometric images of an object |
US20060127852A1 (en) | 2004-12-14 | 2006-06-15 | Huafeng Wen | Image based orthodontic treatment viewing system |
US7494338B2 (en) * | 2005-01-11 | 2009-02-24 | Duane Durbin | 3D dental scanner |
WO2006085266A1 (en) * | 2005-02-08 | 2006-08-17 | Philips Intellectual Property & Standard Gmbh | Medical image viewing protocols |
US7508430B1 (en) | 2005-02-18 | 2009-03-24 | Magnachip Semiconductor, Ltd. | Method for locally reducing row noise |
US7522755B2 (en) * | 2005-03-01 | 2009-04-21 | General Electric Company | Systems, methods and apparatus for filtered back-projection reconstruction in digital tomosynthesis |
US7495582B2 (en) | 2005-03-08 | 2009-02-24 | Northrop Grumman Corporation | Geographic information storage, transmission and display system |
US8228994B2 (en) | 2005-05-20 | 2012-07-24 | Microsoft Corporation | Multi-view video coding based on temporal and view decomposition |
TW200708091A (en) * | 2005-08-03 | 2007-02-16 | Coretronic Corp | Projection display apparatus and method thereof |
US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
US7978192B2 (en) * | 2005-10-04 | 2011-07-12 | Rdv Systems Ltd. | Method and apparatus for evaluating sight distance |
KR20070039641A (ko) | 2005-10-10 | 2007-04-13 | 주식회사 팬택 | 하나의 카메라를 이용하여 3차원 이미지를 생성하는 방법및 그 장치 |
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
US7860308B2 (en) | 2005-12-01 | 2010-12-28 | Yahoo! Inc. | Approach for near duplicate image detection |
US7813591B2 (en) | 2006-01-20 | 2010-10-12 | 3M Innovative Properties Company | Visual feedback of 3D scan parameters |
US7819591B2 (en) | 2006-02-13 | 2010-10-26 | 3M Innovative Properties Company | Monocular three-dimensional imaging |
KR101195942B1 (ko) | 2006-03-20 | 2012-10-29 | 삼성전자주식회사 | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 |
US20070247454A1 (en) * | 2006-04-19 | 2007-10-25 | Norbert Rahn | 3D visualization with synchronous X-ray image display |
US7764849B2 (en) * | 2006-07-31 | 2010-07-27 | Microsoft Corporation | User interface for navigating through images |
CN101606182B (zh) * | 2006-08-11 | 2012-11-28 | 皇家飞利浦电子股份有限公司 | 从3d绘制中选择供查看的数据集 |
US7581186B2 (en) * | 2006-09-11 | 2009-08-25 | Apple Inc. | Media manager with integrated browsers |
US20080165195A1 (en) * | 2007-01-06 | 2008-07-10 | Outland Research, Llc | Method, apparatus, and software for animated self-portraits |
US9037215B2 (en) * | 2007-01-31 | 2015-05-19 | The Penn State Research Foundation | Methods and apparatus for 3D route planning through hollow organs |
GB0704319D0 (en) * | 2007-03-06 | 2007-04-11 | Areograph Ltd | Image capture and playback |
US7782319B2 (en) | 2007-03-28 | 2010-08-24 | Autodesk, Inc. | Three-dimensional orientation indicator and controller |
US8467628B2 (en) * | 2007-04-24 | 2013-06-18 | 21 Ct, Inc. | Method and system for fast dense stereoscopic ranging |
US7843454B1 (en) * | 2007-04-25 | 2010-11-30 | Adobe Systems Incorporated | Animated preview of images |
WO2009003225A1 (en) * | 2007-06-29 | 2009-01-08 | Adelaide Research & Innovation Pty Ltd | Method and system for generating a 3d model from images |
US8686991B2 (en) * | 2007-09-26 | 2014-04-01 | Autodesk, Inc. | Navigation system for a 3D virtual scene |
US8466913B2 (en) * | 2007-11-16 | 2013-06-18 | Sportvision, Inc. | User interface for accessing virtual viewpoint animations |
US8073190B2 (en) * | 2007-11-16 | 2011-12-06 | Sportvision, Inc. | 3D textured objects for virtual viewpoint animations |
WO2009066285A2 (en) * | 2007-11-19 | 2009-05-28 | Dekel Shlomi | A dynamic method and system for representing a three dimensional object navigated from within |
US8531449B2 (en) * | 2007-12-18 | 2013-09-10 | Navteq B.V. | System and method for producing multi-angle views of an object-of-interest from images in an image dataset |
US9418474B2 (en) | 2008-01-04 | 2016-08-16 | 3M Innovative Properties Company | Three-dimensional model refinement |
US8072448B2 (en) * | 2008-01-15 | 2011-12-06 | Google Inc. | Three-dimensional annotations for street view data |
IL202460A (en) * | 2009-12-01 | 2013-08-29 | Rafael Advanced Defense Sys | Method and system for creating a 3D view of real arena for military planning and operations |
US20110310088A1 (en) * | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
-
2009
- 2009-01-04 US US12/811,237 patent/US9418474B2/en active Active
- 2009-01-04 DE DE112009000093T patent/DE112009000093T5/de active Pending
- 2009-01-04 DE DE112009000100T patent/DE112009000100T5/de active Pending
- 2009-01-04 US US12/811,268 patent/US9937022B2/en active Active
- 2009-01-04 DE DE112009000094T patent/DE112009000094T5/de active Pending
- 2009-01-04 DE DE112009000101T patent/DE112009000101T5/de active Pending
- 2009-01-04 US US12/811,239 patent/US8803958B2/en active Active
- 2009-01-04 WO PCT/US2009/030065 patent/WO2009089126A1/en active Application Filing
- 2009-01-04 WO PCT/US2009/030067 patent/WO2009089128A1/en active Application Filing
- 2009-01-04 US US12/811,236 patent/US8830309B2/en active Active
- 2009-01-04 WO PCT/US2009/030066 patent/WO2009089127A1/en active Application Filing
- 2009-01-04 DE DE112009000099T patent/DE112009000099T5/de active Pending
- 2009-01-04 WO PCT/US2009/030064 patent/WO2009089125A2/en active Application Filing
- 2009-01-04 US US12/811,242 patent/US8503763B2/en active Active
- 2009-01-04 WO PCT/US2009/030068 patent/WO2009089129A1/en active Application Filing
-
2018
- 2018-03-02 US US15/910,124 patent/US10503962B2/en active Active
-
2019
- 2019-11-01 US US16/671,753 patent/US11163976B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7372642B2 (en) | 2006-02-13 | 2008-05-13 | 3M Innovative Properties Company | Three-channel camera systems with non-collinear apertures |
Non-Patent Citations (1)
Title |
---|
IEEE 802.11 |
Also Published As
Publication number | Publication date |
---|---|
US9418474B2 (en) | 2016-08-16 |
US9937022B2 (en) | 2018-04-10 |
US20110043613A1 (en) | 2011-02-24 |
US20200065558A1 (en) | 2020-02-27 |
US8803958B2 (en) | 2014-08-12 |
US10503962B2 (en) | 2019-12-10 |
WO2009089128A1 (en) | 2009-07-16 |
WO2009089127A1 (en) | 2009-07-16 |
WO2009089129A1 (en) | 2009-07-16 |
DE112009000101T5 (de) | 2010-11-11 |
US20110007138A1 (en) | 2011-01-13 |
US20110007137A1 (en) | 2011-01-13 |
DE112009000100T5 (de) | 2010-11-11 |
DE112009000094T5 (de) | 2010-11-11 |
US20180196995A1 (en) | 2018-07-12 |
US8503763B2 (en) | 2013-08-06 |
WO2009089125A3 (en) | 2009-09-24 |
WO2009089125A2 (en) | 2009-07-16 |
US20100283781A1 (en) | 2010-11-11 |
DE112009000099T5 (de) | 2010-11-11 |
WO2009089126A1 (en) | 2009-07-16 |
US8830309B2 (en) | 2014-09-09 |
US11163976B2 (en) | 2021-11-02 |
US20110164810A1 (en) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112009000093T5 (de) | Hierarchische Verarbeitung unter Nutzung von Bildverformung | |
US10667887B2 (en) | Video-assisted margin marking for dental models | |
US9191648B2 (en) | Hybrid stitching | |
DE112009004276T5 (de) | Globale Kamerawegoptimierung | |
US9262864B2 (en) | Synchronized views of video data and three-dimensional model data | |
EP0250993B1 (de) | Verfahren und Vorrichtung zur Bestimmung und Darstellung der dreidimensionalen Gestalt von präparierten Zähnen | |
DE102019106666A1 (de) | Dentale CAD-Automatisierung unter Verwendung von tiefem Lernen | |
DE102007033998A1 (de) | System und Verfahren zur dreidimensionalen vollständigen Zahnmodellierung | |
WO2017102782A1 (de) | Verfahren zur kalibrierung einer röntgenaufnahme | |
DE102014102111A1 (de) | Verfahren zur Visualisierung zahnmedizinisch relevanter anatomischer Relationen und/oder Strukturen | |
AT516002B1 (de) | Verfahren zum Erstellen eines digitalen Gebissmodells | |
WO2020074204A1 (de) | Dentales fuehrungssystem zur zahnpraeparation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: MEDIT CORP., KR Free format text: FORMER OWNER: 3M INNOVATIVE PROPERTIES CO., ST. PAUL, MINN., US Owner name: MIDMARK CORP., VERSAILLES, US Free format text: FORMER OWNER: 3M INNOVATIVE PROPERTIES CO., ST. PAUL, MINN., US |
|
R082 | Change of representative |
Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE |
|
R081 | Change of applicant/patentee |
Owner name: MEDIT CORP., KR Free format text: FORMER OWNER: MIDMARK CORP., VERSAILLES, OHIO, US |
|
R082 | Change of representative |
Representative=s name: MAIWALD GMBH, DE Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE |