DE102007001684A1 - Bildregistrierung - Google Patents
Bildregistrierung Download PDFInfo
- Publication number
- DE102007001684A1 DE102007001684A1 DE102007001684A DE102007001684A DE102007001684A1 DE 102007001684 A1 DE102007001684 A1 DE 102007001684A1 DE 102007001684 A DE102007001684 A DE 102007001684A DE 102007001684 A DE102007001684 A DE 102007001684A DE 102007001684 A1 DE102007001684 A1 DE 102007001684A1
- Authority
- DE
- Germany
- Prior art keywords
- volume
- data
- points
- transformation
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000009466 transformation Effects 0.000 claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims abstract description 3
- 238000012360 testing method Methods 0.000 claims description 30
- 230000003287 optical effect Effects 0.000 claims description 18
- 238000004441 surface measurement Methods 0.000 abstract 1
- 238000002591 computed tomography Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000004400 mucous membrane Anatomy 0.000 description 3
- 239000011505 plaster Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 210000004513 dentition Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000004877 mucosa Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000036346 tooth eruption Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Abstract
Verfahren zur Definition eines gemeinsamen Bezugssystems in einem Satz von Volumendaten, die einen Bereich des Kiefers eines Patienten repräsentieren und die mit einem durchleuchtenden bildgebenden Veendaten, die zumindest zum Teil denselben Bereich des Kiefers des Patienten repräsentieren und die mit einem Verfahren zur Vermessung sichtbarer Oberflächen aufgenommen sind, - wobei Volumendaten und Oberflächendaten auf einem Bildschirm eingeblendet werden, - wobei in einer Vorpositionierung ein sowohl in den Volumendaten als auch in den Oberflächendaten erkennbares Objekt, insbesondere ein Zahn, möglichst deckungsgleich übereinander gelegt wird, - wobei aus den Volumendaten eine das Objekt charakterisierende Volumenstruktur, insbesondere in der Art eines Kantenbildes, extrahiert wird, die mittels einer Transformationsfunktion mit einer entsprechenden Oberflächenstruktur der Oberflächendaten möglichst weitgehend in Deckung gebracht wird, - wobei die Überdeckung der Volumenstruktur unter Optimierung eines vorgegebenen Gütemaßes in iterativen Schritten an die Oberflächenstruktur angepasst wird.
Description
- Die vorliegende Erfindung betrifft ein Verfahren zur Definition eines gemeinsamen Bezugsystems in einem Satz von Volumendaten, die einen Bereich des Kiefers eines Patienten repräsentieren und die mit einem durchleuchtenden bildgebenden Verfahren aufgenommen sind, und einem Satz Oberflächendaten, die zumindest zum Teil denselben Bereich des Kiefers des Patienten repräsentieren und die mit einem Verfahren zur Aufnahme sichtbarer Oberflächen aufgenommen sind.
- Eine solche „Registrierung" zweier Datensätze ist immer dann nötig, wenn diese mit verschiedenen Systemen und/oder zu unterschiedlichen Zeiten erstellt wurden und sich aus der Überlagerung der Datensätze für die Behandlung relevante Informationen ergeben. So werden beispielsweise zur Planung einer Operationen, beispielsweise einer Implantation, computertomographische (CT) oder Cone-Beam Röntgen-Aufnahmen vom Kiefer eines Patienten angefertigt, die detaillierte anatomische Information enthalten. Andererseits werden zur Planung und Fertigung der dentalen prothetischen Versorgungen unmittelbar vom Kiefer oder von einem Abdruck des Kiefers 3D Oberflächen Aufnahmen mit einer optischen Aufnahmeeinheit, beispielsweise einer CEREC Messkamera der Firma Sirona Dental Systems GmbH, angefertigt. Im Gegensatz zu den tomographischen Aufnahmen enthalten diese Oberflächendaten genaue Information über den Verlauf der sichtbaren Oberfläche des Kiefers, insbesondere der Oberfläche der Zähne und der Schleimhaut. Durch diese Verfahren wird somit die sichtbare Oberfläche exakt erfasst.
- Die Kombination (Fusion) dieser beiden Datensätze erbringt wertvolle Zusatzinformation, die sowohl bei der Planung und Umsetzung der Operation als auch bei der Planung und Fertigung der prothetischen Versorgungen genutzt werden kann. Es sind bislang nur Verfahren zur Registrierung solcher Datensätze bekannt, die sich der Hilfe von Modellen, Markern oder ähnlicher mechanischer Hilfsmittel bedienen.
- Aus einer Veröffentlichung (Nkenke E., Zachow, S. et al.: Fusion of computer tomography data and optical 3D images of the dentition for streck artefact correction in the simulation of orthognathic surgery. Dentomaxillofacial Radiology (2004), 33, 226–232) ist ein Prototyp der Registrierung eines Röntgendatensatzes des Kiefers und des Oberflächendatensatz eines entsprechenden Gipsmodells bekannt. Dabei wird zunächst aus der Röntgenaufnahme des Gipsmodells die sichtbare Oberfläche, also die Oberfläche der Zähne und der Schleimhaut, extrahiert, bevor diese anschließend mit der Oberfläche aus der optischen Aufnahme mit Hilfe eines ICP-Algorithmus („Iterative Closest Point") registriert wird. Dieses Verfahren ist in der Praxis jedoch kaum einsetzbar, weil die Extraktion der Oberfläche aus dem Röntgendatensatz eines realen Patienten ungenau ist, so dass die Anforderungen an eine präzise Registrierung der Oberflächen nicht erfüllt sind.
- Zudem ist die Verwendung von Referenzkörpern (Markern) bekannt. Allerdings werden Marker wegen der damit verbundenen Probleme der Befestigung und der Unannehmlichkeiten für den Patienten nur eingesetzt, wenn keine einfachere Möglichkeit gegeben ist. So offenbart beispielsweise das
US 5,842,858 ein Verfahren, bei dem der Patient während der Röntgenaufnahme eine Schablone mit Markern trägt, die anschließend auf das Modell, an das ein Sensor zur 3D-Lageerfassung angebracht ist, gesetzt wird. Nach der Bestimmung der Lagebeziehung zwischen dem Sensor und den Markern kann die Schablone abgenommen und eine optische Aufnahme durchgeführt werden. Dabei ermöglicht der 3D-Sensor die Registrierung im Verhältnis zur Patientenaufnahme. - Aufgabe der Erfindung ist es nunmehr, ein Verfahren zur Registrierung eines Satzes von Volumendaten eines realen Patienten und einem Satz entsprechender Oberflächendaten zu schaffen, das sich einfach und komfortabel ohne weitere Hilfsmittel auch unmittelbar vom behandelnden Arzt umsetzen lässt.
- Diese Aufgabe wird durch das Verfahren nach Anspruch 1 gelöst. Vorteilhafte Ausführungsformen sind in den Unteransprüchen genannt.
- Der wesentliche Grundgedanke der Erfindung lässt sich folgendermaßen umschreiben: Ausgehend von den tomographisch aufgenommenen Volumendaten und den Oberflächendaten werden beide Datensätze vorteilhafterweise gemeinsam in einem Bild oder gegebenenfalls auch in zwei getrennten Bildern auf einem Bildschirm dargestellt, wobei die gegenseitige Orientierung der darin ersichtlichen Objekte zunächst noch relativ unerheblich ist. Bei den Objekten handelt es sich idealerweise um Zähne, die in beiden Darstellungen gut erkennbar sind. Am Bildschirm wird in einer Art Vorpositionierung eine Darstellung eines markantes Objektes „manuell", beispielsweise durch Führen mittels eines Cursers, so gut wie möglich über die andere Darstellung des Objektes gelegt. Daraufhin wird mittels einer Transformationsfunktion eine aus den Volumendaten extrahierte markante Volumenstruktur, die beispielsweise von Kanten des Objektes gebildet wird, mit der entsprechenden Struktur der Oberflächendaten, nachfolgend Oberflächenstruktur genannt, möglichst weitgehend in Deckung gebracht, wobei ein Maß für die Güte der Deckungsgleichheit definiert wird und wobei die extrahierte Struktur in iterativen Schritten unter Optimierung des Gütemaßes an die in den Oberflächendaten ersichtliche Oberflächenstruktur angepasst wird.
- Der erfindungswesentliche Gedanke liegt somit darin, die komplette relevante Information aus dem Röntgen Volumen-Datensatz zu behalten und in eine andere Volumen-Form, nämlich die der markanten Volumenstruktur, zu wandeln. Diese ermöglicht dann den direkten Vergleich mit der entsprechenden Stelle auf der Oberfläche der optischen Aufnahme. Auf die erfindungsgemäße Weise werden die Koordinaten der optischen Aufnahme mit den Koordinaten der Röntgenaufnahme automatisch durch Iteration zur Deckung gebracht. Die Erfindung stellt damit ein Verfahren dar, das eine präzise und automatisierte Registrierung einer optischen Aufnahme mit einer Röntgen-Aufnahme eines Patienten ermöglicht. Mit diesem Verfahren kann die Registrierung, bei der die optische Aufnahme mit der tomographischen Aufnahme räumlich in Deckung gebracht wird, ohne Verwendung von jeglichen externen Referenzkörpern, physikalischen Modellen, wie Gipsmodellen, oder mechanischen Vorrichtungen durchgeführt werden. Diese Registrierung ist weitgehend automatisiert und kann mit einem Zeitaufwand in der Größenordnung von etwa 15–30 Sekunden durchgeführt werden.
- Die solchermaßen durchgeführte Fusion der beiden Datensätze ist hilfreich sowohl für die Planung als auch für die Durchführung der Operation und kann ebenso bei prothetischen Versorgungen genutzt werden. So kann beispielsweise bei Implantatplanung zusätzlich zu der anatomischen Information aus dem Röntgen-Datensatz auch der genaue Verlauf der Oberfläche der Schleimhaut berücksichtigt werden, der, wie schon gesagt, in den mit Röntgen Strahlen aufgenommenen Volumendaten nicht in dem gewünschten Maß erkennbar ist. Eine andere Anwendung liegt darin, beim Einsatz des CEREC Systems auch die prothetische Information einzublenden und eine sowohl anatomie- als auch prothetikbasierte Implantatplanung durchzuführen. Außerdem können Artefakte in Röntgen-Datensätzen reduziert werden, die beispielsweise durch metallische Füllungen verursacht werden. Durch die Fusion des Datensatzes mit einer optischen Aufnahme des Kiefers die komplett frei von jeglichen metallischen Artefakten ist können die äußeren Konturen des Patientendatensatzes bei gleichzeitiger Darstellung der relevanten Volumeninformation korrekt wiedergegeben werden.
- Für eine weitgehend automatische Vorpositionierung ist es besonders vorteilhaft, wenn der Nutzer in der ersten Darstellung der beiden Datensätze Referenzpunkte auf dem oder den Objekten definiert. Diese können dann durch das Grafikprogramm übereinandergelegt werden, so dass schon eine erste Nährung einer Überdeckung der Datensätze gegeben ist. Die Genauigkeit braucht in diesem Stadium noch nicht sonderliche genau sein, sondern muss nur innerhalb einer gewissen Toleranz liegen. Für diese automatische Vorpositionierung wird mindestens ein erster Referenzpunkt auf der Oberfläche des in den Volumendaten dargestellten Objektes, insbesondere auf der Oberfläche eines Zahnes, und mindestens ein zweiter Referenzpunkt an zumindest nahezu derselben Stelle auf der Oberfläche desselben auch in den Oberflächendaten sichtbaren Objektes, insbesondere desselben Zahnes, definiert. Wie dargelegt, werden in der automatischen Vorpositionierung die sich auf dem Objekt entsprechenden Referenzpunkte mittels einer automatisch berechneten Transformation möglichst weitgehend übereinander gelegt. Je nach Anzahl der Referenzpunkte entspricht diese Transformation vorteilhafterwise einer analytisch ermittelten Verschiebung (ein Referenzpunkt) oder Verschiebung mit Rotation (zwei Referenzpunkte) oder einer mittels eines Least-Square-Minimierungsverfahren (auch als "Punkt-basierte Registrierung" bekannt) ermittelten Verschiebung mit Rotation (drei und mehr Referenzpunkte). Vorteilhafterweise werden die Referenzpunkte vom betrachtenden Nutzer am Bildschirm mittels eines über den Bildschirm beweglichen Cursors, insbesondere mittels Maus-Klicks, definiert.
- Der Nutzer kann beim Setzen der Referenzpunkte von der Software unterstützt werden. So können beispielsweise geeignete Referenzpunkte in den Oberflächendaten automatisch von der Software vorschlagen werden, wobei es dann die Aufgabe des Nutzers ist, die korrespondierende Referenzpunkte in dem Volumendatensatz zu markieren.
- Nachfolgend wird die erfindungsgemäße Vorgehensweise anhand der
1 bis9 näher erläutert. Dabei zeigen -
1 die initiale Position der optischen Oberflächen-Aufnahme und der Röntgen-Aufnahme im Raum, -
2 das Markieren der Position der Nachbarzähne auf der Oberfläche der optischen Aufnahme und im Volumen der Röntgen-Aufnahme, -
3 die Extraktion der 3D Test-Punkte aus der optischen Oberflächen-Aufnahme, -
4 die Extraktion des 3D Test-Volumens aus der tomographischen Aufnahme, -
5 die Generierung eines optional geglätteten 3D Kantenbildes aus dem 3D Test-Volumen, -
6 die Übertragung der extrahierten Test-Punkten in das Test-Volumen, -
7 die Automatische Suche nach einer geeigneten Transformation (Verschiebung in 3D + Rotation in 3D), die die extrahierten Punkte mit den Kanten im Test-Volumen in Deckung bringt, -
8 das Ergebnis der automatischen Optimierung und -
9 die Übertragung der berechneten Transformation auf die komplette optische Aufnahme. -
1 zeigt die anfängliche Situation. Auf einem Bildschirm sind tomographisch aufgenommene Volumendaten des Kieferbereiches eines Patienten dargestellt. In diese Darstellung sind mit einem optischen Verfahren aufgenommene Oberflächendaten eines Teilbereiches eingeblendet, wobei diese Oberflächendaten ersichtlich an der „falschen" Stelle sitzen, da sie zwei Zahnfragmente aus dem Unterkiefer zeigen. Die Daten werden mittels eines Programms eingelesen, die es auch ermöglicht, beide Datensätze in einer 3D Ansicht in deren ursprünglichen Position interaktiv aus verschiedenen Blickwinkeln zu betrachten. - In
2 wird der nächste Schritt dargestellt: Der Benutzer markiert in beiden Datensätzen die jeweilige Darstellung des jeweils gleichen Zahnes. Dabei erfolgt die Markierung durch einen Mausklick in der 3D Ansicht und ist durch einen Punkt dargestellt. Die markierten Punkte (Pfeile) bilden Referenzpunkte, die zu einer groben Vorpositionierung der Datensätze dienen und dabei helfen, die Menge an Information, die in den Datensätzen vorhanden ist, auf das Wesentliche zu reduzieren. Mit Hilfe der Referenzpunkte wird eine initiale Transformation als Vorpositionierung durchgeführt, bei der die beiden Datensätze grob in Deckung gebracht werden. Diese Vorpositionierung ist nicht sonderlich genau. Sie liegt aber in einem „Fangbereich" der nachfolgenden automatischen Optimierung. - In
3 ist die Extraktion von 3D Test-Punkten aus den Oberflächendaten gezeigt. Dazu werden aus den Oberflächendaten für jeden Referenzpunkt alle Punkte extrahiert, deren Entfernung zu dem jeweiligen Referenzpunkt kleiner ist als ein vorgegebener Schwellwert, der hier bei etwa einem cm liegt. Diese Punkte bilden die „Test-Punkte", die in diesem Fall den einen vollständigen der beiden markierten unteren Backenzähne beschreiben. Die Gesamtheit der Testpunkte bildet die Oberflächenstruktur, die später zum Vergleich mit der Volumenstruktur herhält. - Ähnlich wird in dem nächsten, in
4 dargestellten Schritt vorgegangen, bei dem zunächst für jeden Referenzpunkt ein 3D Test-Volumen aus der tomographischen Aufnahme extrahiert wird. Dazu wird um jeden der in den Volumendaten gesetzten Referenzpunkte ein kleiner quaderförmiger Bereich, das Test-Volumen, extrahiert, das hier axial a) und sagittal b) dargestellt ist. Dieses Test-Volumen wird durch eine Convolution mit mehreren geeigneten Convolutionsfiltern in 3D-Kantenbilder umgewandelt, wobei in diesen Kantendarstellungen deutlich die Ränder der fraglichen Zähne zu erkennen sind (5 ). Diese Kantendarstellungen bilden die das Objekt charakterisierende geometrische Volumenstruktur, die mit der Oberflächenstruktur verglichen wird. - Da das Rauschen im originalen Bild eine solche Kantendetektion beeinflusst, kann anschließend eine 3D Glättung mit einem geeigneten Glättungsfilter, wie einem Gauss-Filter oder einem Median-Filter, vorgenommen werden. Dadurch vergrößert sich der Fangbereich des Optimierungs-Algorithmus. Die hellsten Bereiche in der folgenden Abbildung entsprechen den markantesten Kanten im Test-Volumen.
- Im nächsten Schritt nach
6 werden die extrahierten Test-Punkte in das Test-Volumen übertragen, bevor eine Transformation gesucht wird, welche die Test-Punkte so transformiert, dass sie mit den Kanten in den Kantenbildern übereinstimmen (7 ). Die automatische Suche nach einer geeigneten Transformation geschieht durch eine dreidimensionale Verschiebung und eine dreidimensionale Rotation, die die extrahierten Punkte mit den Kanten im Test-Volumen in Deckung bringt. - Dann wird eine Kostenfunktion definiert, die angibt, wie gut die Test-Punkte aus den Oberflächendaten mit dem entsprechenden Kantenbild übereinstimmen. Die Kostenfunktion ist eine Funktion der sechs Parameter einer Starrkörper-Transformation, wobei drei Parameter für die Verschiebung und drei Parameter für die Rotation benötigt werden. Die Kostenfunktion wird in diesem Fall für eine bestimmte Transformation T wie folgt definiert und berechnet: Zuerst werden alle extrahierten Punkte mit der Transformation T in das entsprechende extrahierte Volumen transformiert. Für jeden Punkt aus der optischen Aufnahme wird der entsprechende Wert („Helligkeit") im Kantenbild durch Interpolation bestimmt. Die Summe der Werte von allen Test-Punkten, gemittelt durch die Anzahl der Punkte, gibt den Gesamtwert der Kostenfunktion für die Transformation T.
- Die Kostenfunktion kann auch andere Formen haben, die die Robustheit, Geschwindigkeit oder Präzision der Optimierung verbessern respektive die Optimierung unempfindlich gegen Ausreißer in den Daten machen. So kann beispielsweise nur ein Teil der Punkte mit in die Berechnung einbezogen werden, die die höchsten Helligkeitswerten aufweisen.
- Im nächsten Schritt wird die Transformation gesucht, für die die Kostenfunktion ihren maximalen Wert einnimmt. Die Suche erfolgt mit Hilfe eines iterativen Optimierungs-Algorithmus.
8 zeigt das Ergebnis der automatischen Optimierung. -
9 zeigt die Übertragung der berechneten Transformation auf die komplette optische Aufnahme und damit das Ergebnis der Bildregistrierung eines realen Patientendatensatzes: Wie die mit der weißen Linie gezeigten Konturen nach a), c) und d) zeigen, wurde der Oberflächen-Datensatz mit den Zähnen in Deckung gebracht. Ebenfalls ersichtlich ist, dass der Verlauf der sichtbaren Oberfläche, der von der Schleimhaut gebildet wird, eine zusätzliche Information darstellt. Gerade in9c) ist zu sehen, dass die weiße Linie im Bereich des Zahnes ausgezeichnet „passt", wobei sich am Zahnhals die Schleimhaut abhebt. - Die automatischen Schritte dauern dabei unter Nutzung eines handelsüblichen PC nicht länger als wenige Sekunden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 5842858 [0005]
- Zitierte Nicht-Patentliteratur
-
- - Nkenke E., Zachow, S. et al.: Fusion of computer tomography data and optical 3D images of the dentition for streck artefact correction in the simulation of orthognathic surgery. Dentomaxillofacial Radiology (2004), 33, 226–232 [0004]
Claims (15)
- Verfahren zur Definition eines gemeinsamen Bezugsystems in einem Satz von Volumendaten, die einen Bereich des Kiefers eines Patienten repräsentieren und die mit einem durchleuchtenden bildgebenden Verfahren aufgenommen sind, und einem Satz Oberflächendaten, die zumindest zum Teil denselben Bereich des Kiefers des Patienten repräsentieren und die mit einem Verfahren zur Vermessung sichtbarer Oberflächen aufgenommen sind, dadurch gekennzeichnet, – dass Volumendaten und Oberflächendaten auf einem Bildschirm eingeblendet werden, – dass in einer Vorpositionierung ein sowohl in den Volumendaten als auch in den Oberflächendaten erkennbares Objekt, insbesondere ein Zahn, möglichst deckungsgleich übereinander gelegt wird, – dass aus den Volumendaten eine das Objekt charakterisierende Volumenstruktur, insbesondere in der Art eines Kantenbildes, extrahiert wird, die mittels einer Transformationsfunktion mit einer entsprechenden Oberflächenstruktur der Oberflächendaten möglichst weitgehend in Deckung gebracht wird, – dass die Überdeckung der Volumenstruktur unter Optimierung eines vorgegebenen Gütemaßes in iterativen Schritten an die Oberflächenstruktur angepasst wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die Vorpositionierung mindestens ein erster Referenzpunkt auf der Oberfläche des in den 3D-Volumendaten dargestellten Objektes, insbesondere auf einem Zahn, und mindestens ein zweiter Referenzpunkt an zumindest nahezu derselben Steile auf der Oberfläche des auch in den 3D-Oberflächendaten sichtbaren Objektes definiert wird, wobei in der Vorpositionierung die entsprechenden Referenzpunkte der Volumendaten und der Oberflächendaten mittels einer automatisch berechneten Transformation möglichst weitgehend übereinander gelegt werden.
- Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass Referenzpunkte in den Oberflächendaten automatisch von der Software vorgeschlagen werden und die korrespondierende Referenzpunkte in den Volumendaten vom Benutzer markiert werden.
- Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Referenzpunkte vom Betrachter am Bildschirm mittels eines über den Bildschirm beweglichen Cursors, insbesondere mittels Maus-Klicks, definiert werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach der Vorpositionierung bezüglich mindestens eines Referenzpunktes der Oberflächendaten Test-Punkte extrahiert werden, deren Entfernung zum jeweiligen Referenzpunkt kleiner ist als ein vorgegebener Schwellwert, wobei die Test-Punkte die Oberflächenstruktur bilden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach der Vorpositionierung für mindestens einen Referenzpunkt der Volumendaten ein Test-Volumen extrahiert wird.
- Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass ein extrahiertes Test-Volumen durch eine mathematische Operation, insbesondere eine Convolution, mit geeigneten Filtern, insbesondere mit Convolutionsfiltern, in ein 3D-Kantenbilder umgewandelt wird, das die Volumenstruktur bildet.
- Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Kanteninformation verschmiert wird, um eine höhere Toleranz zu gewährleisten.
- Verfahren nach einem der vorherigen Ansprüche, gekennzeichnet durch eine Transformation, die die Test-Punkte so transformiert, dass sie mit den Kantenbildern übereinstimmen, wobei die Güter der Übereinstimmung durch eine Kostenfunktion bestimmt wird.
- Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Transformation mehrfach in iterativen Schritten unter Optimierung der Kostenfunktion durchgeführt wird.
- Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass alle Test Punkte in das entsprechende extrahierte Test Volumen transformiert werden und für jeden Punkt aus der optischen Aufnahme der entsprechende Wert („Helligkeit") im Kantenbild durch Interpolation bestimmt wird.
- Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass aus allen Test-Punkten oder einem Teil der Test-Punkte eine Kostenfunktion für die Transformation T berechnet wird.
- Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass aus der Summe der Werten von einem Teil der Test-Punkten, die die höchsten Helligkeitswerte aufweisen, gemittelt durch die Anzahl der Punkte, der Gesamtwert der Kostenfunktion für die Transformation T ermittelt wird.
- Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass aus der Summe der Werte von allen Test-Punkten, gemittelt durch die Anzahl der Punkte, der Gesamtwert der Kostenfunktion für die Transformation T ermittelt wird.
- Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Oberflächendaten unmittelbar am Patienten aufgenommen werden.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007001684.2A DE102007001684B4 (de) | 2007-01-11 | 2007-01-11 | Bildregistrierung |
US12/522,575 US8798346B2 (en) | 2007-01-11 | 2007-11-19 | Image registration |
PCT/EP2007/062510 WO2008083874A2 (de) | 2007-01-11 | 2007-11-19 | Bildregistrierung |
JP2009545120A JP5426400B2 (ja) | 2007-01-11 | 2007-11-19 | イメージレジストレーション |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007001684.2A DE102007001684B4 (de) | 2007-01-11 | 2007-01-11 | Bildregistrierung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102007001684A1 true DE102007001684A1 (de) | 2008-08-28 |
DE102007001684B4 DE102007001684B4 (de) | 2023-01-26 |
Family
ID=39106289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007001684.2A Active DE102007001684B4 (de) | 2007-01-11 | 2007-01-11 | Bildregistrierung |
Country Status (4)
Country | Link |
---|---|
US (1) | US8798346B2 (de) |
JP (1) | JP5426400B2 (de) |
DE (1) | DE102007001684B4 (de) |
WO (1) | WO2008083874A2 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010053121A1 (de) * | 2010-12-01 | 2012-06-06 | Sicat Gmbh & Co. Kg | Symmetriebasierte Visualisierung radiologischer Daten |
WO2013175018A1 (de) | 2012-05-25 | 2013-11-28 | Sicat Gmbh & Co Kg | Verfahren zum erstellen eines virtuellen kieferabbildes |
DE102012210758A1 (de) * | 2012-06-25 | 2014-01-02 | Sirona Dental Systems Gmbh | Verfahren zur Überprüfung von Zahnstellungen |
DE102015222821A1 (de) | 2015-11-19 | 2017-05-24 | Sirona Dental Systems Gmbh | Verfahren und Vorrichtung zum Betreiben eines dentaldiagnostischen Bilderzeugungssystems |
WO2019052915A1 (de) | 2017-09-15 | 2019-03-21 | Sicat Gmbh & Co. Kg | Verfahren zur ermittlung und visualisierung von zahnbewegungen und geplanten zahnumstellungen |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2254068B1 (de) | 2009-05-18 | 2020-08-19 | Nobel Biocare Services AG | Verfahren und System, die einen verbesserten Datenabgleich zur virtuellen Planung bereitstellen |
US9730776B2 (en) | 2010-02-24 | 2017-08-15 | D4D Technologies, Llc | Display method and system for enabling an operator to visualize and correct alignment errors in imaged data sets |
US9684952B2 (en) | 2010-04-20 | 2017-06-20 | Dental Imaging Technologies Corporation | Alignment of mixed-modality data sets for reduction and removal of imaging artifacts |
CN102858266B (zh) | 2010-04-20 | 2015-07-22 | 登塔尔图像科技公司 | 使用表面扫描信息从三维牙科x射线数据集减少并去除伪影 |
JP2013530028A (ja) * | 2010-05-04 | 2013-07-25 | パスファインダー セラピューティクス,インコーポレイテッド | 擬似特徴を使用する腹部表面マッチングのためのシステムおよび方法 |
JP2012165951A (ja) * | 2011-02-16 | 2012-09-06 | Shimadzu Corp | 医療用データ処理装置およびそれを備えた診断装置 |
US9135498B2 (en) | 2012-12-14 | 2015-09-15 | Ormco Corporation | Integration of intra-oral imagery and volumetric imagery |
US20140227655A1 (en) * | 2013-02-12 | 2014-08-14 | Ormco Corporation | Integration of model data, surface data, and volumetric data |
KR102137544B1 (ko) * | 2013-11-18 | 2020-07-24 | 주식회사바텍 | 치과용 3차원 표면영상 생성 장치 및 방법 |
JP6392192B2 (ja) * | 2015-09-29 | 2018-09-19 | 富士フイルム株式会社 | 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム |
KR101849705B1 (ko) * | 2015-11-13 | 2018-05-30 | 한국전기연구원 | 다중 에너지 엑스선 촬영 및 광학 영상을 이용한 입체 영상 생성 방법 및 시스템 |
KR101877895B1 (ko) | 2016-10-06 | 2018-07-12 | 주식회사 메가젠임플란트 | 임플란트 진단용 영상 생성 시스템 및 그 생성방법 |
KR101913586B1 (ko) | 2017-05-24 | 2018-11-01 | 오스템임플란트 주식회사 | 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체 |
US10410363B2 (en) | 2017-07-18 | 2019-09-10 | Claronav Inc. | Jaw surface based registration |
DE102017124580B3 (de) * | 2017-10-20 | 2019-01-31 | Sicat Gmbh & Co. Kg | Verfahren zur Ermittlung und Visualisierung von Zahnstellungen unter Einwirkung von Beißkräften |
KR102161880B1 (ko) * | 2018-06-28 | 2020-10-05 | 주식회사 힐세리온 | 초음파 영상의 디스플레이 장치와 시스템 및 이를 이용한 생체조직의 사이즈 검출방법 |
JP2022521066A (ja) * | 2019-02-15 | 2022-04-05 | ネオシス・インコーポレイテッド | 撮像スキャンを座標系にレジストレーションする方法、および関連するシステム |
KR102234425B1 (ko) * | 2019-02-18 | 2021-04-01 | 오스템임플란트 주식회사 | 의료영상 정합 방법 및 그 장치 |
WO2020197109A1 (ko) * | 2019-03-28 | 2020-10-01 | 주식회사 디오 | 치아 영상 정합 장치 및 방법 |
KR102311388B1 (ko) * | 2019-09-26 | 2021-10-13 | 주식회사 메디트 | 3차원 데이터 정렬 장치 및 3차원 데이터 정렬 방법 |
US11723614B2 (en) | 2019-12-31 | 2023-08-15 | Jerry Chi Hu | Dynamic 3-D anatomical mapping and visualization |
WO2023204509A1 (ko) * | 2022-04-20 | 2023-10-26 | 주식회사 메디트 | 3차원 스캐너의 3차원 이미지 모델의 생성과 정렬을 위한 전자 장치, 방법 및 기록 매체 |
CN115156087B (zh) * | 2022-09-02 | 2022-12-13 | 深圳云甲科技有限公司 | 义齿分拣辅助方法、装置、计算机设备及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5842858A (en) | 1995-05-11 | 1998-12-01 | Artma Biomedical, Inc. | Method of imaging a person's jaw and a model therefor |
EP1018709A2 (de) * | 1999-01-06 | 2000-07-12 | Mitsubishi Denki Kabushiki Kaisha | Oberflächenmodelerzeugung zum Anzeigen von drei-dimensionalen Objekten mit mehreren elastischen Oberflächennetzen |
DE10049942A1 (de) * | 2000-10-06 | 2002-04-18 | Henning Wolf | Verfahren zur Volumen- und Oberflächenvermessung eines Objekts |
DE19963440C2 (de) * | 1999-12-28 | 2003-02-20 | Siemens Ag | Verfahren und System zur Visualisierung eines Gegenstandes |
DE10250006A1 (de) * | 2002-10-25 | 2004-05-19 | Sirona Dental Systems Gmbh | Verfahren zur lagerichtigen Herstellung einer Kavität, insbesondere einer Knochenkavität und Instrument hierfür |
DE10149795B4 (de) * | 2001-10-09 | 2006-04-06 | Siemens Ag | Semiautomatische Registrierung zur Überlagerung zweier medizinischer Bilddatensätze |
DE102005024949A1 (de) * | 2005-05-31 | 2006-12-07 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Verfahren zur Darstellung von Strukturen innerhalb von Volumendatensätzen |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568384A (en) * | 1992-10-13 | 1996-10-22 | Mayo Foundation For Medical Education And Research | Biomedical imaging and analysis |
JPH08131403A (ja) * | 1994-11-09 | 1996-05-28 | Toshiba Medical Eng Co Ltd | 医用画像処理装置 |
IL126838A (en) | 1998-11-01 | 2003-04-10 | Cadent Ltd | Dental image processing method and system |
US7234937B2 (en) | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
US6563941B1 (en) * | 1999-12-14 | 2003-05-13 | Siemens Corporate Research, Inc. | Model-based registration of cardiac CTA and MR acquisitions |
JP2004504077A (ja) | 2000-04-19 | 2004-02-12 | オラメトリックス インコーポレイテッド | 歯の口内走査に基づいたインタラクティブな歯列矯正ケアシステム |
AU2001251606A1 (en) * | 2000-04-28 | 2001-11-12 | Orametirix, Inc. | Method and system for scanning a surface and generating a three-dimensional object |
JP2005521502A (ja) | 2002-04-03 | 2005-07-21 | セガミ エス.エー.アール.エル. | 胸部および腹部の画像モダリティの重ね合わせ |
US20050031176A1 (en) | 2003-08-08 | 2005-02-10 | Hertel Sarah R. | Method and apparatus of multi-modality image fusion |
JP2006204330A (ja) * | 2005-01-25 | 2006-08-10 | Hitachi Medical Corp | 画像表示装置 |
US7813591B2 (en) * | 2006-01-20 | 2010-10-12 | 3M Innovative Properties Company | Visual feedback of 3D scan parameters |
-
2007
- 2007-01-11 DE DE102007001684.2A patent/DE102007001684B4/de active Active
- 2007-11-19 JP JP2009545120A patent/JP5426400B2/ja active Active
- 2007-11-19 US US12/522,575 patent/US8798346B2/en active Active
- 2007-11-19 WO PCT/EP2007/062510 patent/WO2008083874A2/de active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5842858A (en) | 1995-05-11 | 1998-12-01 | Artma Biomedical, Inc. | Method of imaging a person's jaw and a model therefor |
EP1018709A2 (de) * | 1999-01-06 | 2000-07-12 | Mitsubishi Denki Kabushiki Kaisha | Oberflächenmodelerzeugung zum Anzeigen von drei-dimensionalen Objekten mit mehreren elastischen Oberflächennetzen |
DE19963440C2 (de) * | 1999-12-28 | 2003-02-20 | Siemens Ag | Verfahren und System zur Visualisierung eines Gegenstandes |
DE10049942A1 (de) * | 2000-10-06 | 2002-04-18 | Henning Wolf | Verfahren zur Volumen- und Oberflächenvermessung eines Objekts |
DE10149795B4 (de) * | 2001-10-09 | 2006-04-06 | Siemens Ag | Semiautomatische Registrierung zur Überlagerung zweier medizinischer Bilddatensätze |
DE10250006A1 (de) * | 2002-10-25 | 2004-05-19 | Sirona Dental Systems Gmbh | Verfahren zur lagerichtigen Herstellung einer Kavität, insbesondere einer Knochenkavität und Instrument hierfür |
DE102005024949A1 (de) * | 2005-05-31 | 2006-12-07 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Verfahren zur Darstellung von Strukturen innerhalb von Volumendatensätzen |
Non-Patent Citations (3)
Title |
---|
CIZEK,J.,JANEBA,D.,et.al.:Brain studies - image co-registration and template creation Nuc Med Cent East Eur.2001,4(1),S.43-45; * |
Nkenke E., Zachow, S. et al.: Fusion of computer tomography data and optical 3D images of the dentition for streck artefact correction in the simulation of orthognathic surgery. Dentomaxillofacial Radiology (2004), 33, 226-232 |
NKIENKE,E.,ZACHOW,et.al.:Fusion of computed tomography data optical 3D images of the dentition for streak artefact correction in the simulation of orthognathic surgery.Dentomaxiollofacial Radiology,2004,33,S.226-232; * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010053121A1 (de) * | 2010-12-01 | 2012-06-06 | Sicat Gmbh & Co. Kg | Symmetriebasierte Visualisierung radiologischer Daten |
WO2013175018A1 (de) | 2012-05-25 | 2013-11-28 | Sicat Gmbh & Co Kg | Verfahren zum erstellen eines virtuellen kieferabbildes |
DE102012104912A1 (de) | 2012-05-25 | 2013-11-28 | Sicat Gmbh & Co. Kg | Verfahren zum Erstellen eines virtuellen Kieferabbildes |
US9999487B2 (en) | 2012-05-25 | 2018-06-19 | Sicat Gmbh & Co. Kg | Method for creating a virtual jaw image |
DE102012210758A1 (de) * | 2012-06-25 | 2014-01-02 | Sirona Dental Systems Gmbh | Verfahren zur Überprüfung von Zahnstellungen |
US10111595B2 (en) | 2012-06-25 | 2018-10-30 | Sirona Dental Systems Gmbh | Method for checking tooth positions |
DE102015222821A1 (de) | 2015-11-19 | 2017-05-24 | Sirona Dental Systems Gmbh | Verfahren und Vorrichtung zum Betreiben eines dentaldiagnostischen Bilderzeugungssystems |
WO2019052915A1 (de) | 2017-09-15 | 2019-03-21 | Sicat Gmbh & Co. Kg | Verfahren zur ermittlung und visualisierung von zahnbewegungen und geplanten zahnumstellungen |
DE102017121451A1 (de) * | 2017-09-15 | 2019-03-21 | Sicat Gmbh & Co. Kg | Verfahren zur Ermittlung und Visualisierung von Zahnbewegungen und geplanten Zahnumstellungen |
DE102017121451B4 (de) | 2017-09-15 | 2023-05-11 | Sicat Gmbh & Co. Kg | Verfahren zur Ermittlung und Visualisierung von Zahnbewegungen und geplanten Zahnumstellungen |
US11654002B2 (en) | 2017-09-15 | 2023-05-23 | Sicat Gmbh & Co. Kg | Method for determining and visualizing tooth movements and planned instances of tooth repositioning |
Also Published As
Publication number | Publication date |
---|---|
US8798346B2 (en) | 2014-08-05 |
US20100124367A1 (en) | 2010-05-20 |
DE102007001684B4 (de) | 2023-01-26 |
WO2008083874A2 (de) | 2008-07-17 |
JP2010515502A (ja) | 2010-05-13 |
WO2008083874A3 (de) | 2008-09-04 |
JP5426400B2 (ja) | 2014-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007001684A1 (de) | Bildregistrierung | |
DE69936145T2 (de) | Verfahren und vorrichtung zur verarbeitung von dentalbildern | |
EP2863831B1 (de) | Verfahren zur überprüfung von zahnstellungen | |
DE10357206B4 (de) | Verfahren und Bildbearbeitungssystem zur Segmentierung von Schnittbilddaten | |
DE102006012945B4 (de) | Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem | |
EP2914203A1 (de) | Verfahren und vorrichtung zur kosmetischen zahnanalyse | |
DE102011008074A1 (de) | Verfahren und Zahnrestaurationsermittlungssystem zur Ermittlung von Zahnrestaurationen | |
DE10309268A1 (de) | Automatische Belichtungssteuerung für ein digitales Bilderfassungssystem | |
DE102011010975A1 (de) | Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen | |
DE102004056095A1 (de) | Verfahren zur Registrierung eines zur digitalen Subtraktionsangiographie verwendeten Bildes | |
EP3389496B1 (de) | Verfahren zur kalibrierung einer röntgenaufnahme | |
AT507887A4 (de) | Vorrichtung zum scannen eines dentalmodellabbilds mit artikulator | |
DE102020131786A1 (de) | Method for metal artifact avoidance in x-ray imaging | |
DE102017201164B3 (de) | Verfahren zur Vermessung einer Röntgenaufnahme eines medizinischen Untersuchungsbereichs nebst zugehöriger Vorrichtung und Computerprogramm | |
DE102016215831A1 (de) | Automatische Generierung synthetischer Projektionen | |
DE102006037423B4 (de) | Verfahren und System zum Bestimmen eines aus einer Gruppe von Projektionsbildern konstruierten scharfen panoramischen Bildes | |
DE102011075917A1 (de) | Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph | |
DE10163813A1 (de) | Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes | |
EP3682453B1 (de) | Verfahren zur ermittlung und visualisierung von zahnbewegungen und geplanten zahnumstellungen | |
DE102005037019A1 (de) | Verfahren für eine bildgebende Einrichtung zur anatomischen Zuordnung eines von der bildgebenden Einrichtung erzeugten Bildes und Computerprogrammprodukt, welches zur Ausführung eines derartigen Verfahrens eingerichtet ist | |
DE102019126111A1 (de) | Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses | |
DE10210644A1 (de) | Verfahren zum Erstellen einer Sequenz | |
DE102012219836A1 (de) | Verfahren und Bildbearbeitungssystem zur Segmentierung einer Wirbelstruktur | |
DE102022100438B3 (de) | Präoperative planung einer einbringung eines dentalen implantates | |
DE102005037374A1 (de) | Verfahren zur Durchführung von Bildaufnahmen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
R012 | Request for examination validly filed |
Effective date: 20121120 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |