DE19936364A1 - Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz - Google Patents

Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz

Info

Publication number
DE19936364A1
DE19936364A1 DE19936364A DE19936364A DE19936364A1 DE 19936364 A1 DE19936364 A1 DE 19936364A1 DE 19936364 A DE19936364 A DE 19936364A DE 19936364 A DE19936364 A DE 19936364A DE 19936364 A1 DE19936364 A1 DE 19936364A1
Authority
DE
Germany
Prior art keywords
projection
projections
marks
mark
brand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19936364A
Other languages
English (en)
Inventor
Eric Wahl
Uwe Weber
Norbert Rahn
Rainer Graumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19936364A priority Critical patent/DE19936364A1/de
Priority to JP2000230712A priority patent/JP4662514B2/ja
Priority to US09/630,968 priority patent/US6359960B1/en
Publication of DE19936364A1 publication Critical patent/DE19936364A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

Die Erfindung betrifft ein Verfahren zur automatischen und zuverlässigen Ermittlung der Koordinaten von in einem 3-D-Volumendatensatz von einem mit Marken (6' bis 9') versehenen Objekt (1) enthaltenen Marken (6 bis 9, 20, 21) bezüglich eines Referenzkoordinatensystems (R). Das Verfahren beruht auf der Detektion von in 2-D-Projektionen des 3-D-Volumendatensatzes abgebildeten Marken (6.1 bis 9.4, 20.1 bis 21.4), der Ermittlung der Schwerpunkte der abgebildeten Marken (6.1 bis 9.4, 20.1 bis 21.4), der Aufstellung von Rückprojektionsgeraden (G8.1 bis G9.4, G20.1 bis G21.4) durch die Marken (6 bis 9, 20, 21), der Ermittlung der Schnittpunkte der Rückprojektionsgeraden (G8.1 bis G9.4, G20.1 bis G21.4) bzw. bei windschiefen Rückprojektionsgeraden der Ermittlung der Punkte mit dem kleinsten Abstand voneinander auf verschiedenen Rückprojektionsgeraden, der Bildung räumlich begrenzter, eine Anhäufung von Schnittpunkten von Rückprojektionsgeraden (G8.1 bis G9.4, G20.1 bis G21.4) bzw. von Punkten mit kleinstem Abstand voneinander aufweisender Bereiche (B8, B9, B20, B21) und der Berechnung der Koordinaten der Schwerpunkte der räumlich begrenzten Bereiche (B8, B9, B20, B21).

Description

Die Erfindung betrifft ein Verfahren zur Ermittlung der Koor­ dinaten von in einem 3D-Volumendatensatz von einem mit Marken versehenen Objekt enthaltenen Marken bezüglich eines Refe­ renzkoordinatensystems.
In der Bildverarbeitung besteht für unterschiedliche Applika­ tionen, welche auf einem 3D-Volumendatensatz eines Meßobjek­ tes arbeiten, das Problem, die dreidimensionalen Koordinaten der in dem 3D-Volumendatensatz enthaltenen Marken zuverlässig zu bestimmen, z. B. um in der Medizintechnik Navigation von Instrumenten relativ zu dem Meßobjekt oder Multi Modality Bildfusion, also die Überlagerung mehrerer mit verschiedenen Bildsystemen gewonnener Bilder, mit den Marken als Anhalts­ punkten betreiben zu können.
Das bevorzugte Verfahren zur Bestimmung der 3D-Koordinaten der Marken in einem 3D-Volumendatensatz ist eine interaktive, also eine durch Eingriffe eines Benutzers gekennzeichnete Identifizierung und Lokalisierung der Marken, welche sich je­ doch als zeitaufwendig und fehleranfällig erweist.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren anzugeben, mit dem die Koordinaten von in einem 3D-Volumen­ datensatz enthaltenen Marken in zuverlässiger Weise automa­ tisch, d. h. ohne Eingriffe eines Benutzers, ermittelbar sind.
Nach der Erfindung wird diese Aufgabe gelöst durch ein Ver­ fahren zur Ermittlung der Koordinaten von in einem 3D-Volu­ mendatensatz von einem mit Marken versehenen Objekt enthalte­ nen Marken bezüglich eines Referenzkoordinatensystems aufwei­ send folgende Verfahrensschritte:
  • a) Bereitstellung einer Serie von mit einem eine Röntgen­ strahlenquelle und einen flächigen Röntgenstrahlendetek­ tor umfassenden Röntgensystem aufgenommenen 2D-Projek­ tionen, aus denen der 3D-Volumendatensatz erzeugt wurde bzw. Erzeugung einer Serie von 2D-Zentral- oder 2D-Paral­ lelprojektionen aus einem 3D-Volumendatensatz des Objek­ tes,
  • b) Detektion von in den aufgenommenen bzw. erzeugten 2D-Pro­ jektionen abgebildeten Marken,
  • c) Bestimmung jeweils eines für eine detektierte Marke ste­ henden Bezugspunktes in den 2D-Projektionen,
  • d) Aufstellung von durch die Bezugspunkte verlaufenden Rück­ projektionsgeraden derart, daß im Falle der mit dem Rönt­ gensystem aufgenommenen 2D-Projektionen jede Rückprojek­ tionsgerade durch den Fokus der Röntgenstrahlenquelle verläuft bzw. daß im Falle der erzeugten 2D-Zentralpro­ jektionen jede Rückprojektionsgerade durch den Projekti­ onspunkt der jeweiligen 2D-Zentralprojektion oder daß im Falle der erzeugten 2D-Parallelprojektionen jede Rückpro­ jektionsgerade die die Marke bzw. den entsprechenden Be­ zugspunkt aufweisende ebene 2D-Projektion rechtwinklig in dem Bezugspunkt schneidet,
  • e) Ermittlung der Schnittpunkte der Rückprojektionsgeraden bzw. bei windschief zueinander liegenden Rückprojektions­ geraden Ermittlung der auf verschiedenen Rückprojektions­ geraden liegenden Punkte, welche den kleinsten Abstand voneinander aufweisen,
  • f) Bildung von räumlich begrenzten Bereichen, welche eine Anhäufung von Schnittpunkten bzw. von Punkten mit klein­ stem Abstand voneinander aufweisen, und
  • g) Berechnung der Koordinaten des Schwerpunktes eines jeden der räumlich begrenzten Bereiche.
Das Verfahren ermöglicht es erfindungsgemäße ohne Eingriffe eines Benutzers die Koordinaten von in einem 3D-Volu­ mendatensatz enthaltenen Marken in gewünschter Weise vollau­ tomatisch zu ermitteln. Sollten dabei in einer zur Gesamtzahl der untersuchten 2D-Projektionen vergleichsweise geringen An­ zahl von 2D-Projektionen, beispielsweise Inhalte der 2D- Projektionen, die eigentlich keine abgebildeten Marken sind, fälschlicherweise in einer oder in einigen 2D-Projektionen in Schritt b) als Marken identifiziert worden sein, so werden diese Marken in Schritt f) eliminiert, da die Anzahl der Schnittpunkte der Rückprojektionsgeraden und/oder die räumli­ che Dichte der Punkte auf den Rückprojektionsgeraden mit kleinstem Abstand voneinander zu gering ist, um in einem räumlich begrenzten Bereich zusammengefaßt zu werden. Sollten dagegen Marken in einer zur Gesamtzahl der untersuchten 2D- Projektionen vergleichsweise geringen Anzahl von 2D- Projektionen in Schritt b) nicht als solche erkannt worden sein, werden diese Marken aufgrund ihrer Erkennung in anderen 2D-Projektionen, in welchen die Marken ebenfalls abgebildet sind, dennoch in Schritt f) als räumlich begrenzter Bereich erfaßt, da eine ausreichende Anzahl von Schnittpunkten von Rückprojektionsgeraden und/oder von auf verschiedenen Rück­ projektionsgeraden liegenden Punkten mit kleinstem Abstand voneinander, welche entsprechend dicht beieinanderliegen, auftritt. Das erfindungsgemäße Verfahren arbeitet also bei der Ermittlung der Koordinaten von in einem 3D- Volumendatensatz enthaltenen Marken nicht nur vollautoma­ tisch, sondern auch sehr zuverlässig, so daß Fehler bei der Identifizierung und Lokalisierung der Marken praktisch ausge­ schlossen sind.
Unter einem 3D-Volumendatensatz wird im Falle der vorliegen­ den Erfindung im übrigen ein Datensatz von Bilddaten von ei­ nem Objekt verständen, aus dem verschiedene 3D-Bilder, in de­ nen unterschiedliche Ansichten und Ausschnitte des Objektes dargestellt sein können, rekonstruierbar sind.
Nach einer Variante der Erfindung ist der Bezugspunkt, durch den eine Rückprojektionsgerade verläuft, der Schwerpunkt der Marke. Der Schwerpunkt als Bezugspunkt erweist sich dahinge­ hend als vorteilhaft, daß er in einfacher und definierter Weise für jede detektierte Marke ermittelbar ist. Es bedarf daher keiner besonderen Vereinbarung, wie Bezugspunkte fest­ zulegen sind.
Eine Ausführungsform der Erfindung sieht vor, daß die Detek­ tion einer oder mehrerer in einer aufgenommenen bzw. erzeug­ ten 2D-Projektion abgebildeten bzw. abgebildeter Marken fol­ gende Verfahrensschritte umfaßt:
  • a) Unterteilung einer 2D-Projektion in erste Flächenelemen­ te,
  • b) Bestimmung des Bildpunktes mit der maximalen oder minima­ len Lichtintensität in jedem der ersten Flächenelemente,
  • c) bei Überschreitung bzw. Unterschreitung eines ersten Schwellwertes der Lichtintensität eines derartigen Bild­ punktes Bestimmung des lokalen Maximums und Minimums der Lichtintensität in einem um den entsprechenden Bildpunkt gelegten zweiten Flächenelement definierter Größe,
  • d) Bildung einer gewichteten Differenz aus lokalem Maximum und Minimum,
  • e) bei Überschreitung eines zweiten Schwellwertes durch die gewichtete Differenz Entwicklung der Form einer Marke, und
  • f) Zuordnung der Marke zu einem Typ von Marken.
Gemäß einer Variante der Erfindung werden dabei bei der Ent­ wicklung der Form einer Marke
  • a) ausgehend von dem jeweiligen lokalen Maximum oder Minimum in einem iterativen Prozeß die Varianz und/oder die Kova­ rianz und/oder die Korrelationskoeffizienten zu benach­ barten Bildpunkten in der Ebene der 2D-Projektion und/oder die Anzahl der Bildpunkte bestimmt,
  • b) falls die ermittelten Werte der Varianz und/oder der Ko­ varianz und/oder der Korrelationskoeffizienten und/oder die Anzahl der Bildpunkte in einem vorgegebenen Wertebe­ reich liegen, die Hauptträgheitsachsen einer potentiellen Marke berechnet,
  • c) die Lage der Hauptträgheitsachsen der potentiellen Marke relativ zueinander in der Ebene der jeweiligen 2D- Projektion mit der Lage der Hauptträgheitsachsen von Mar­ ken bekannten Typs relativen zueinander verglichen, und
  • d) bei wenigstens im wesentlicher Übereinstimmung der rela­ tiven Lage der Hauptträgheitsachsen die Randlinien für die potentiellen Marken gebildet.
Auf diese Weise werden in den 2D-Projektionen die Marken, insbesondere die Formen von Marken, verhältnismäßig zuverläs­ sig detektiert bzw. identifiziert, so daß deren Schwerpunkte problemlos ermittelbar sind.
Ausführungsbeispiele der Erfindung sind in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 in schematischer Darstellung die Aufnahme von Zen­ tralprojektionen,
Fig. 2 die Lokalisierung von Marken in einem 3D-Volumenda­ tensatz anhand gewonnener Zentralprojektionen,
Fig. 3 die Identifikation von Marken in 2D-Projektionen,
Fig. 4 die Signatur einer quadratischen Marke und
Fig. 5 die Lokalisierung von Marken in einem 3D-Volumenda­ tensatz anhand von Parallelprojektionen.
In Fig. 1 ist in schematischer Darstellung die Aufnahme von Zentralprojektionen von einem Objekt gezeigt. Im Falle des vorliegenden Ausführungsbeispiels handelt es sich bei dem Ob­ jekt um den Kopf 1 eines nicht näher dargestellten Patienten.
Zur Aufnahme von Zentralprojektionen vom Kopf 1 des Patienten wird ein eine Röntgenstrahlenquelle 2 und einen flächigen Röntgenstrahlendetektor 3 aufweisendes Röntgensystem idealer­ weise auf einer Kreisbahn K um den Kopf 1 des Patienten be­ wegt, wobei sequentiell aus verschiedenen Winkeln 2D- Projektionen vom Kopf 1 des Patienten aufgenommen werden. Das Röntgensystem kann beispielsweise in nicht dargestellter, aber an sich bekannter Weise an einem C-Bogen eines mobilen oder eines ortsfest installierten Röntgengerätes angeordnet sein, welcher längs seines Umfanges zur Aufnahme derartiger 2D-Projektionen vom Kopf 1 des Patienten in einem bestimmten Winkelbereich verstellbar ist. In Fig. 1 ist die Verstellbewe­ gung des Röntgensystems durch den Pfeil a auf der Kreisbahn K gekennzeichnet. Die Lagen des Fokus 4 der Röntgenstrahlen­ quelle 2 für verschiedene 2D-Projektionen sind durch Kreuze KR entlang der Kreisbahn K angedeutet.
Aus der Serie von 2D-Projektionen vom Kopf 1 des Patienten, welche unter Drehung des Röntgensystems aufgenommen wurden, kann in an sich bekannter Weise, beispielsweise mittels eines in der Fig. 1 nicht dargestellten Bildrechners, ein 3D- Volumendatensatz vom Kopf 1 des Patienten gewonnen werden, aus dessen Daten verschiedene 3D-Bilder vom Kopf 1 des Pati­ enten, welche unterschiedliche Ansichten und Ausschnitte vom Kopf 1 zeigen können, rekonstruierbar sind. Als rekonstruier­ bares Volumen ist in Fig. 1 exemplarisch ein Quader 5 gezeigt.
Am Kopf 1 des Patienten sind im Falle des vorliegenden Aus­ führungsbeispiels röntgenpositive Marken 6' bis 9' angeord­ net, welche in den 2D-Projektionen vom Kopf 1 mit abgebildet werden und somit auch im 3D-Volumendatensatz vom Kopf 1 des Patienten als Marken 6 bis 9 enthalten sind. Die Marken 6 bis 9 sind jedoch nicht notwendigerweise in jedem rekonstruierten 3D-Bild vom Kopf 1 enthalten. Beispielsweise ist in dem in Fig. 1 gezeigten rekonstruierbaren Quader 5 nur die Marke 6 abgebildet.
Die im 3D-Volumendatensatz sowie in 3D-Bildern vom Kopf 1 des Patienten enthaltenen Marken 6 bis 9 dienen an sich als An­ haltspunkte bzw. Fixpunkte um Navigation von Instrumenten re­ lativ zum Kopf 1 während eines operativen Eingriffs am Kopf 1 des Patienten oder auch um eine Multi Modality Bildfusion be­ treiben zu können. Für diese Applikationen ist die Kenntnis der Koordinaten der in den hierfür relevanten 3D-Bildern vom Kopf 1 des Patienten enthaltenen Marken erforderlich, deren automatische Identifizierung und Lokalisierung, beispielswei­ se mit Hilfe eines nicht dargestellten Rechners, im folgenden erläutert ist.
Zur Ermittlung der Koordinaten der in dem 3D-Volumendatensatz enthaltenen Marken 6 bis 9 werden die im Zuge des Meßvorgan­ ges ermittelten und gespeicherten 2D-Projektionen herangezo­ gen, in denen die Marken zumindest zum überwiegenden Teil ab­ gebildet sind. Fig. 2 zeigt exemplarisch vier unter verschie­ denen Projektionswinkeln mit dem Röntgensystem aufgenommene 2D-Projektionen P1 bis P4, in denen die Marken abgebildet sind.
Zunächst werden die in den 2D-Projektionen P1 bis P4 abgebil­ deten Marken 6.1 bis 9.4 detektiert. In Fig. 3 ist an der 2D- Projektion P1 anhand der in der 2D-Projektion P1 abgebildeten Marke 8.1 exemplarisch für die in den 2D-Projektionen P1 bis P4 abgebildeten Marken 6.1 bis 9.4 die Detektion einer Marke veranschaulicht.
Die Projektion P1 ist hierzu vollständig in Flächenelemente 10, vorzugsweise gleicher Größe, unterteilt. In jedem der Flächenelemente 10 wird derjenige Bildpunkt mit der maximalen oder der minimalen, im Falle des vorliegenden Ausführungsbei­ spiels aufgrund der radiologisch ermittelten 2D-Projektionen mit der maximalen Lichtintensität bestimmt, wobei die Flä­ chenelemente 10, beispielsweise sequentiell, durchlaufen wer­ den. Die in jedem Flächenelement 10 ermittelte maximale Lichtintensität eines Bildpunktes wird mit einem ersten vor­ gebbaren Schwellwert verglichen. Im Falle des vorliegenden Ausführungsbeispiels wird bei Unterschreitung des Schwellwer­ tes zum nächsten Flächenelement 10 gewechselt. Liegt die er­ mittelte Lichtintensität jedoch über dem Schwellwert, wird vorzugsweise zentral um den Bildpunkt mit der maximalen Lichtintensität eines Flächenelementes 10 ein zweites Flä­ chenelement 11 definierter, durch die maximale Ausdehnung ei­ ner Marke vorgegebener Größe gelegt, wie dies in Fig. 3 für die abgebildete, zu detektierende Marke 8.1 gezeigt ist. In dem Flächenelement 11 werden das lokale Maximum und das loka­ le Minimum der Lichtintensität ermittelt und eine gewichtete Differenz aus lokalem Maximum und Minimum gebildet. Die Maxi­ ma bzw. Minima in derartigen Flächenelementen 11 werden je­ weils bezüglich eines einer jeden 2D-Projektion einbeschrie­ benen Koordinatensystems, dessen Lage gegenüber einem Refe­ renzkoordinatensystem R des 3D-Volumendatensatzes bekannt ist, bestimmt. Im Falle des vorliegenden Ausführungsbei­ spiels werden das Maximum und das Minimum in der Ebene der Projektion P1 bezüglich eines kartesischen x-y- Koordinatensystems angegeben. Die gewichtete Differenz be­ stimmt sich im Falle des vorliegenden Ausführungsbeispiels nach der Gleichung
K = n . (M - m) + m
mit
M Maximum
m Minimum und
n adaptiv wählbares Gewicht.
Liegt der Wert der gewichteten Differenz über einem zweiten Schwellwert, so könnte das Flächenelement 11 eine Marke ein­ schließen, weshalb die Untersuchung fortgesetzt wird.
Ausgehend von dem lokalen Maximum werden daher in einem ite­ rativen Prozeß die Varianz und/oder die Kovarianz und/oder die Korrelationskoeffizienten zu zu dem Maximum benachbarten Bildpunkten in der Ebene der 2D-Projektion sowie die Anzahl der Bildpunkte, welche einen vorgebbaren Wert der Lichtinten­ sität überschreiten, bestimmt. Liegen die Werte der Varianz und/oder der Kovarianz und/oder der Korrelationskoeffizienten sowie die Anzahl der Bildpunkte in einem für eine abgebildete Marke zu erwartenden Wertebereich, wird auf das Vorliegen ei­ ner Marke geschlossen und es werden in Abhängigkeit der er­ mittelten Werte der Varianz und/oder der Kovarianz und/oder der Korrelationskoeffizienten sowie der Anzahl der Bildpunkte die Hauptträgheitsachsen 12, 13 der potentiellen Marke 8.1 in der x-y-Ebene berechnet. Anschließend wird die Lage der er­ mittelten Hauptträgheitsachsen 12, 13 der potentiellen Marke 8.1 relative zueinander mit der Lage der Hauptträgheitsachsen von Marken bekannten Typs relativen zueinander verglichen, wobei die Hauptträgheitsachsen 12, 13 beispielsweise um ihren Schnittpunkt um einen bestimmten Winkel rotiert werden, so daß Lageinvarianzen der potentiellen Marken aufgehoben wer­ den. Derartige Lageinvarianzen bei potentiellen Marken treten durch die Projektionen der Marken aus unterschiedlichen Pro­ jektionswinkeln auf. In Fig. 3 sind exemplarisch die Haupt­ trägheitsachsen 14, 15 einer bekannten Marke eingetragen, de­ ren Lage relative zueinander wenigstens im wesentlichen der Lage der Hauptträgheitsachsen 12, 13 der potentiellen Marke 8.1 relativen zueinander entspricht.
Bei wenigstens im wesentlicher Übereinstimmung der Lage der Hauptträgheitsachsen der potentiellen Marke relativ zueinan­ der mit der Lage der Hauptträgheitsachsen einer bekannten Marke relativen zueinander wird anhand der Signatur einer de­ tektierten Marke die Randlinie für die detektierte, flächig abgebildete Marke gebildet. Die Signatur wird mit Hilfe an sich bekannter morphologischer Operatoren ermittelt. Um dabei Aussagen über die Signatur treffen zu können, wird diese be­ züglich ihres Mittelwertes und ihrer Dynamik, d. h. der Höhen der Amplituden, normiert. Sofern die abgebildeten Marken Eck­ punkte aufweisen, kennzeichnet die Anzahl der Maximalstellen in der Signatur die Anzahl der Eckpunkte einer Marke. In Fig. 4 ist exemplarisch die Signatur für eine quadratischen Marke dargestellt, wobei die vier Maximalstellen die vier Ecken der quadratischen Marke kennzeichnen.
Die Signatur einer potentiellen Marke wird schließlich mit Idealsignaturen bekannter Marken bezüglich der Standardabwei­ chung und der Anzahl der Eckpunkte verglichen. Stimmt die Si­ gnatur der potentiellen Marke, beispielsweise hinreichend ge­ nau mit einer Idealsignatur einer bekannten Marke überein, wird die Marke als eine solche typisiert und die Randlinie der Marke gebildet. Im Falle des vorliegenden Ausführungsbei­ spiels wird die zu der abgebildeten Marke 8.1 gehörige Marke 8 als kugelförmige Marke typisiert.
In gleicher Weise wie für die Marke 8 bzw. für deren Abb. 8.1 in der 2D-Projektion P1 werden auch die Typen der anderen in der 2D-Projektion P1 bzw. in den übrigen 2D- Projektionen abgebildeten Marken ermittelt.
Nach der Detektion bzw. Typisierung der in den 2D-Projektio­ nen abgebildeten Marken 6.1 bis 9.4 wird für jede detektierte Marke ein Bezugspunkt, vorzugsweise der Schwerpunkt der de­ tektierten Marke in der Ebene der jeweiligen 2D-Projektion, bestimmt.
Wie in Fig. 2 anhand der Projektionen P1 bis P4 exemplarisch für die abgebildeten Marken 8.1 bis 8.4 und 9.1 bis 9.4 ver­ anschaulicht ist, werden Rückprojektionsgeraden G8.1 bis G8.4 und G9.1 bis G9.4 aufgestellt, welche jeweils durch den Schwerpunkt einer in den 2D-Projektionen P1 bis P4 abgebilde­ ten Marke 8.1 bis 8.4 und 9.1 bis 9.4 sowie durch den Fokus 4 der Röntgenstrahlenquelle 2 verlaufen. Diese Rückprojektions­ geraden G8.1 bis G8.4 und G9.1 bis G9.4 projizieren die Schwerpunkte der in den 2D-Projektionen abgebildeten Marken 8.1 bis 8.4 und 9.1 bis 9.4 in das 3D-Volumen zurück.
Zur Lokalisierung aller Marken 6 bis 9 im 3D-Volumen werden die Schnittpunkte aller Rückprojektionsgeraden miteinander bestimmt. Sind Rückprojektionsgeraden windschief zueinander, werden diejenigen auf verschiedenen Rückprojektionsgeraden liegenden Punkte der Rückprojektionsgeraden bestimmt, welche den kleinsten Abstand zueinander aufweisen. Aus einer räumli­ chen Anhäufung derartiger Schnittpunkte bzw. derartiger Punk­ te mit kleinstem Abstand voneinander werden räumlich begrenz­ te Bereiche, sogenannte Cluster, gebildet und deren Schwer­ punkte bestimmt. Die Schwerpunkte der Cluster bzw. deren Ko­ ordinaten bezüglich des Referenzkoordinatensystems R bilden schließlich die Koordinaten der gesuchten Marken 6 bis 9 im 3D-Volumendatensatz.
Im Falle des vorliegenden Ausführungsbeispiels schneiden sich die Geraden G8.1 bis G8.4 idealerweise in einem einzigen Schnittpunkt, nämlich dem Schwerpunkt der Marke 8. In glei­ cher Weise ist die Ermittlung des Schwerpunktes für die Marke 9 in Fig. 2 veranschaulicht, wobei sich die Geraden G9.1 bis G9.4 idealerweise in dem Schwerpunkt der Marke 9 schneiden. Im allgemeinen Fall ergibt sich eine ungeordnete Ansammlung von Schnittpunkten der Rückprojektionsgeraden G8.1 bis G8.4 bzw. G9.1 bis G9.4 bzw. bei windschief zueinander liegenden Rückprojektionsgeraden eine Ansammlung von Punkten mit klein­ stem Abstand voneinander im 3D-Volumen. Die tatsächlichen Po­ sitionen der Marken 8 und 9 im 3D-Volumen werden in diesem Fall mit gängigen Verfahren der Mustererkennung ermittelt, wobei die Marken 8 und 9 durch Cluster B8 bzw. B9 gekenn­ zeichnet sind, die jeweils eine verdichtete Punktwolke der Schnittpunkte der Rückprojektionsgeraden bzw. der Punkte der Rückprojektionsgeraden mit kleinstem Abstand voneinander im 3D-Volumen einschließen.
Die Schwerpunkte der Cluster B8 und B9 bilden schließlich, wie bereits erwähnt, die Koordinaten der Marken 8 und 9 im 3D-Volumendatensatz.
Anhand von Fig. 2 wurde die Ermittlung der Koordinaten von Marken in einem 3D-Volumendatensatz beschrieben, welcher aus mit einem auf einer Kreisbahn verstellbaren Röntgensystem aufgenommenen 2D-Projektionen erzeugt wurde.
Das erfindungsgemäße Verfahren ist jedoch auch auf bereits existierende, beispielsweise mit MR-, CT- oder Nuklearmedi­ zinanlagen gewonnene, Marken enthaltende 3D-Volumendatensätze anwendbar.
Bei einem derartig erzeugten 3D-Volumendatensatz müssen zur Durchführung des erfindungsgemäßen Verfahrens zunächst 2D- Projektionen aus dem 3D-Volumendatensatz mit an sich bekann­ ten Verfahren, z. B. der Maximum Intensity Projection (MIP), erzeugt werden.
Erzeugt man Zentralprojektionen aus dem 3D-Volumendatensatz, entspricht der weitere Ablauf des Verfahrens zur Bestimmung der Koordinaten von in dem 3D-Volumendatensatz enthaltenen Marken dem im Zusammenhang mit Fig. 2 beschriebenen Ablauf, wobei die Rückprojektionsgeraden nicht durch den Schwerpunkt der detektierten Marken und den Fokus, sondern durch den Schwerpunkt der detektierten Marken und den dem Fokus ent­ sprechenden Projektionspunkt der Zentralprojektionen ver­ läuft.
Auch bei der Erzeugung von Parallelprojektionen aus einem 3D- Volumendatensatz, wie in Fig. 5 veranschaulicht, entspricht der Ablauf des Verfahrens zur Bestimmung der Koordinaten der in dem 3D-Volumendatensatz enthaltenen Marken im wesentlichen dem im Zusammenhang mit Fig. 2 beschriebenen Verfahren. Ein Unterschied besteht lediglich bei der Aufstellung der Rück­ projektionsgeraden. Diese verlaufen im Falle von aus einem 3D-Volumendatensatz erzeugten Parallelprojektionen durch die Schwerpunkte der in den 2D-Projektionen abgebildeten und de­ tektierten Marken und schneiden die die Schwerpunkte aufwei­ senden Ebenen der 2D-Projektionen rechtwinklig.
Fig. 5 zeigt exemplarisch für zwei in einem 3D-Volumendaten­ satz enthaltene Marken 20, 21, welche in Parallelprojektionen PS bis P8 abgebildet sind, die Ermittlung der Koordinaten der Schwerpunkte der Marken 20, 21. Nach der im Zusammenhang mit Fig. 2 beschriebenen Detektion der Marken in den Parallelpro­ jektionen PS bis P8 sowie nach der Bestimmung der Schwerpunk­ te der in den Parallelprojektionen abgebildeten Marken 20.1 bis 21.4 erfolgt die Aufstellung der Rückprojektionsgeraden derart, daß jede Rückprojektionsgerade G20.1 bis G20.4 bzw. G21.1 bis G21.4 durch die ihr zugeordnete Marke 20.1 bis 20.4 bzw. 21.1 bis 21.4 verläuft und die die Marke bzw. den Schwerpunkt der Marke aufweisende Ebene der 2D-Projektion P5 bis P8 rechtwinklig schneidet. Idealerweise liegt der Schnittpunkt der Rückprojektionsgeraden G20.1 bis G20.4 im Schwerpunkt der Marke 20 und der Schnittpunkt der Rückprojek­ tionsgeraden G21.1 bis G21.4 im Schwerpunkt der Marke 21. Die Koordinaten der auf diese Weise definierten Schwerpunkte der Marken 20, 21 können in an sich bekannter Weise ermittelt werden.
Im allgemeinsten Fall werden auch bei aus einem 3D-Volumen­ datensatz erzeugten Parallelprojektionen die Schnittpunkte der Rückprojektionsgeraden oder, falls die Rückprojektionsge­ raden windschief zueinander stehen, die Punkte der Rückpro­ jektionsgeraden mit den kleinsten Abständen voneinander ver­ dichtete Punktwolken bilden, welche z. B. in Clustern B20 und B21 eingeschlossen sind, deren Schwerpunkte die Lagen der Marken 20 und 21 kennzeichnen.
Vorstehend wurde das erfindungsgemäße Verfahren am Beispiel einer medizinischen Bildgebung erläutert. Das erfindungsgemä­ ße Verfahren ist jedoch nicht auf den medizinischen Einsatz­ bereich beschränkt.
Sind die Marken in den 2D-Projektionen durch Bereiche mit der niedrigsten Lichtintensität gekennzeichnet, erfolgt deren De­ tektion in den 2D-Projektionen im Unterschied zu dem vorste­ hend beschriebenen Ausführungsbeispiel durch die Suche in ei­ nem Flächenelement der 2D-Projektion nach dem Bildpunkt mit der minimalen Lichtintensität. In diesem Fall wir die Unter­ suchung der Umgebung des Bildpunktes zur Identifizierung ei­ ner Marke immer dann fortgesetzt, wenn ein erste Schwellwert unterschritten wird. Das weitere Vorgehen ist analog zu dem vorstehend beschriebenen Vorgehen.
Die beschriebene Detektion bzw. Typisierung von Marken in den 2D-Projektionen ist im übrigen nur exemplarisch zu verstehen und kann auch in anderer Weise erfolgen.

Claims (4)

1. Verfahren zur Ermittlung der Koordinaten von in einem 3D- Volumendatensatz von einem mit Marken (6' bis 9') versehenen Objekt (1) enthaltenen Marken (6 bis 9, 20, 21) bezüglich ei­ nes Referenzkoordinatensystems (R) aufweisend folgende Ver­ fahrensschritte:
  • a) Bereitstellung einer Serie von mit einem eine Röntgen­ strahlenquelle (2) und einen flächigen Röntgenstrahlende­ tektor (3) umfassenden Röntgensystem aufgenommenen 2D- Projektionen (P1 bis P4), aus denen der 3D-Volumendaten­ satz erzeugt wurde bzw. Erzeugung einer Serie von 2D-Zen­ tral- oder 2D-Parallelprojektionen (PS bis P8) aus einem 3D-Volumendatensatz des Objektes (1),
  • b) Detektion von in den aufgenommenen bzw. erzeugten 2D-Pro­ jektionen (P1 bis P8) abgebildeten Marken (6.1 bis 9.4, 20.1 bis 21.4),
  • c) Bestimmung jeweils eines für eine detektierte Marke (6.1 bis 9.4, 20.1 bis 21.4) stehenden Bezugspunktes in den 2D-Projektionen (P1 bis P8),
  • d) Aufstellung von durch die Bezugspunkte verlaufenden Rück­ projektionsgeraden (G8.1 bis 09.4, G20.1 bis G21.4) der­ art, daß im Falle der mit dem Röntgensystem aufgenommenen 2D-Projektionen (P1 bis P4) jede Rückprojektionsgerade (G8.1 bis G9.4) durch den Fokus (4) der Röntgenstrahlen­ quelle (2) verläuft bzw. daß im Falle der erzeugten 2D- Zentralprojektionen jede Rückprojektionsgerade durch den Projektionspunkt der jeweiligen 2D-Zentralprojektion oder daß im Falle der erzeugten 2D-Parallelprojektionen (PS bis P8) jede Rückprojektionsgerade (G20.1 bis G21.4) die die abgebildete Marke (20.1 bis 21.4) bzw. den entspre­ chenden Bezugspunkt aufweisende ebene 2D-Projektion (PS bis P8) rechtwinklig in dem Bezugspunkt schneidet,
  • e) Ermittlung der Schnittpunkte der Rückprojektionsgeraden (G8.1 bis G9.4, G20.1 bis G21.4) bzw. bei windschief zu­ einander liegenden Rückprojektionsgeraden Ermittlung der auf verschiedenen Rückprojektionsgeraden liegenden Punk­ te, welche den kleinsten Abstand voneinander aufweisen,
  • f) Bildung von räumlich begrenzten Bereichen (B8, B9, B20, B21), welche eine Anhäufung von Schnittpunkten bzw. von Punkten mit kleinstem Abstand voneinander aufweisen, und
  • g) Berechnung der Koordinaten des Schwerpunktes eines jeden der räumlich begrenzten Bereiche (B8, B9, B20, B21).
2. Verfahren nach Anspruch 1, bei dem der Bezugspunkt einer abgebildeten Marke (6.1 bis 9.4, 20.1 bis 21.4), durch den eine Rückprojektionsgerade (G8.1 bis G9.4, G20.1 bis G21.4) verläuft, der Schwerpunkt der abgebildeten Marke (6.1 bis 9.4, 20.1 bis 21.4) ist.
3. Verfahren nach Anspruch 1 oder 2, bei dem die Detektion einer oder mehrerer in einer aufgenommenen bzw. erzeugten 2D- Projektion (P1 bis P8) abgebildeten bzw. abgebildeter Marken (6.1 bis 9.4, 20.1 bis 21.4) folgende Verfahrensschritte um­ faßt:
  • a) Unterteilung einer 2D-Projektion (P1) in erste Flächen­ elemente (10),
  • b) Bestimmung des Bildpunktes mit der maximalen oder minima­ len Lichtintensität in jedem der ersten Flächenelemente (10),
  • c) bei Überschreitung bzw. Unterschreitung eines ersten Schwellwertes der Lichtintensität eines derartigen Bild­ punktes Bestimmung des lokalen Maximums und Minimums der Lichtintensität in einem um den entsprechenden Bildpunkt gelegten zweiten Flächenelement (11) definierter Größe,
  • d) Bildung einer gewichteten Differenz aus lokalem Maximum und Minimum,
  • e) bei Überschreitung eines zweiten Schwellwertes durch die gewichtete Differenz Entwicklung der Form einer Marke und
  • f) Zuordnung der Marke zu einem Typ von Marken.
4. Verfahren nach Anspruch 3, bei dem bei der Entwicklung der Form einer Marke
  • a) ausgehend von dem jeweiligen lokalen Maximum oder Minimum in einem iterativen Prozeß die Varianz und/oder die Kova­ rianz und/oder die Korrelationskoeffizienten zu benach­ barten Bildpunkten in der Ebene der 2D-Projektion (P1 bis P8) und/oder die Anzahl der Bildpunkte bestimmt werden,
  • b) falls die ermittelten Werte der Varianz und/oder der Ko­ varianz und/oder der Korrelationskoeffizienten und/oder der Anzahl der Bildpunkte in einem vorgegebenen Wertebe­ reich liegen, die Hauptträgheitsachsen (12, 13) einer po­ tentiellen Marke berechnet werden,
  • c) die Lage der Hauptträgheitsachsen (12, 13) der potentiel­ len Marke relative zueinander in der Ebene der jeweiligen 2D-Projektion (P1) mit der Lage der Hauptträgheitsachsen (14, 15) von Marken bekannten Typs relativ zueinander verglichen werden, und
  • d) bei wenigstens im wesentlicher Übereinstimmung der rela­ tiven Lage der Hauptträgheitsachsen (12 bis 15) die Rand­ linien für die potentiellen Marken gebildet werden.
DE19936364A 1999-08-03 1999-08-03 Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz Withdrawn DE19936364A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19936364A DE19936364A1 (de) 1999-08-03 1999-08-03 Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz
JP2000230712A JP4662514B2 (ja) 1999-08-03 2000-07-31 3dボリュウムデータレコード内のマークの座標を求める方法
US09/630,968 US6359960B1 (en) 1999-08-03 2000-08-02 Method for identifying and locating markers in a 3D volume data set

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19936364A DE19936364A1 (de) 1999-08-03 1999-08-03 Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz

Publications (1)

Publication Number Publication Date
DE19936364A1 true DE19936364A1 (de) 2001-02-15

Family

ID=7916926

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19936364A Withdrawn DE19936364A1 (de) 1999-08-03 1999-08-03 Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz

Country Status (3)

Country Link
US (1) US6359960B1 (de)
JP (1) JP4662514B2 (de)
DE (1) DE19936364A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001858A1 (de) * 2003-10-22 2005-05-25 Schaerer Mayfield Technologies Gmbh Verfahren zur Fluoroskopie-basierten Neuronavigation
EP1925256A1 (de) 2006-11-24 2008-05-28 BrainLAB AG Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
CN101936720A (zh) * 2010-07-30 2011-01-05 北京航空航天大学 一种适用于锥束xct系统的探测器扭转角的标定方法
CN101515370B (zh) * 2009-03-06 2011-05-18 北京航空航天大学 三维显微ct扫描系统中射线源焦点的投影坐标的标定方法
DE102010035924A1 (de) * 2010-08-31 2012-03-01 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Entnahme einer Gewebeprobe

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6837892B2 (en) 2000-07-24 2005-01-04 Mazor Surgical Technologies Ltd. Miniature bone-mounted surgical robot
DE10201644A1 (de) * 2002-01-17 2003-08-07 Siemens Ag Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung
US7277564B2 (en) * 2002-11-26 2007-10-02 Ge Medical Systems Information Technologies, Inc. Method and system for labeling of orthogonal images
US20050033157A1 (en) 2003-07-25 2005-02-10 Klein Dean A. Multi-modality marking material and method
US20050059879A1 (en) * 2003-09-16 2005-03-17 Robert Sutherland Localization of a sensor device in a body
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
EP1570800B1 (de) * 2004-03-01 2007-04-11 BrainLAB AG Verfahren und Vorrichtung zum Bestimmen einer Symmetrieebene eines dreidimensionalen Objektes
US7477776B2 (en) * 2004-03-01 2009-01-13 Brainlab Ag Method and apparatus for determining a plane of symmetry of a three-dimensional object
US7333646B2 (en) * 2004-06-01 2008-02-19 Siemens Medical Solutions Usa, Inc. Watershed segmentation to improve detection of spherical and ellipsoidal objects using cutting planes
FR2882245B1 (fr) * 2005-02-21 2007-05-18 Gen Electric Procede de determination du deplacement 3d d'un patient positionne sur une table d'un dispositif d'imagerie
DE102005030607A1 (de) * 2005-06-30 2007-01-04 Siemens Ag Interventionelles Instrument mit Markierungselement
DE102005052786B3 (de) * 2005-11-05 2007-07-05 Ziehm Imaging Gmbh Fahrgestell für eine mobile Röntgendiagnostikeinrichtung
EP1782734B1 (de) * 2005-11-05 2018-10-24 Ziehm Imaging GmbH Vorrichtung zur Verbesserung der Volumenrekonstruktion
FR2897461A1 (fr) * 2006-02-16 2007-08-17 Gen Electric Dispositif de rayonnement x et procede de traitement d'images
KR101525259B1 (ko) * 2006-09-25 2015-06-02 메이저 로보틱스 엘티디. C―아암 컴퓨터 x선 단층 촬영 시스템
US7995819B2 (en) * 2006-10-30 2011-08-09 General Electric Company Methods for displaying a location of a point of interest on a 3-D model of an anatomical region
SE0702061L (sv) * 2007-09-17 2009-03-18 Xcounter Ab Metod för att skapa, visa och analysera röntgenbilder och anordning för att implementera metoden
EP2245986B1 (de) * 2008-08-22 2013-10-16 BrainLAB AG Pyramidenförmige Röntgenmarkervorrichtung
BRPI0917591A2 (pt) * 2008-12-11 2015-11-17 Koninkl Philips Electronics Nv sistema para gerar uma imagem e método para gerar uma imagem
US8180130B2 (en) * 2009-11-25 2012-05-15 Imaging Sciences International Llc Method for X-ray marker localization in 3D space in the presence of motion
US9826942B2 (en) * 2009-11-25 2017-11-28 Dental Imaging Technologies Corporation Correcting and reconstructing x-ray images using patient motion vectors extracted from marker positions in x-ray images
US9082177B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for tracking X-ray markers in serial CT projection images
US9082182B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Extracting patient motion vectors from marker positions in x-ray images
US9082036B2 (en) * 2009-11-25 2015-07-14 Dental Imaging Technologies Corporation Method for accurate sub-pixel localization of markers on X-ray images
US8363919B2 (en) 2009-11-25 2013-01-29 Imaging Sciences International Llc Marker identification and processing in x-ray images
US8506090B2 (en) * 2010-03-22 2013-08-13 Microvision, Inc. Projection system with image orientation correction and corresponding method
EP2525328B1 (de) * 2011-05-19 2017-10-18 Pie Medical Imaging BV Verfahren und Vorrichtung zur Bestimmung optimaler Projektionsbilder
BR112014002063A2 (pt) 2011-07-29 2017-02-21 Hexagon Metrology Inc redução de dados de sistema de medição por coordenadas
JP5487172B2 (ja) * 2011-09-05 2014-05-07 株式会社東芝 医用画像診断装置及び医用画像処理装置
WO2013175471A1 (en) 2012-05-22 2013-11-28 Mazor Robotics Ltd. On-site verification of implant positioning
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
AU2017340607B2 (en) 2016-10-05 2022-10-27 Nuvasive, Inc. Surgical navigation system and related methods
JP6767045B2 (ja) * 2016-11-02 2020-10-14 株式会社ミツトヨ 計測用x線ct装置と座標測定機の座標合せ治具
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
EP3694412A4 (de) 2017-10-10 2021-08-18 Covidien LP System und verfahren zur identifizierung und markierung eines ziels in einer fluoroskopischen dreidimensionalen rekonstruktion
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
CA3130150A1 (en) * 2019-03-08 2021-09-17 William E. Butler Temporal calibration of an angiographic imaging system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4120676C2 (de) * 1991-06-22 1994-09-08 Deutsche Aerospace Verfahren und Schaltungsanordnung zur Detektion von kleinen Objekten in natürlicher Umgebung
DE19512819A1 (de) * 1995-04-05 1996-10-10 Siemens Ag Röntgen-Computertomograph
DE19539367A1 (de) * 1995-10-23 1997-04-24 Siemens Ag Verfahren zum Transformieren eines Koordinatensystems
US5636255A (en) * 1996-03-05 1997-06-03 Queen's University At Kingston Method and apparatus for CT image registration

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2640394B1 (fr) * 1988-12-14 1991-02-15 Schlumberger Etienne Procede pour coordonner plusieurs images d'un meme objet et dispositif pour sa mise en oeuvre
JP3275252B2 (ja) * 1993-06-21 2002-04-15 日本電信電話株式会社 3次元情報入力方法及びそれを使った3次元情報入力装置
US6206566B1 (en) * 1998-11-02 2001-03-27 Siemens Aktiengesellschaft X-ray apparatus for producing a 3D image from a set of 2D projections

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4120676C2 (de) * 1991-06-22 1994-09-08 Deutsche Aerospace Verfahren und Schaltungsanordnung zur Detektion von kleinen Objekten in natürlicher Umgebung
DE19512819A1 (de) * 1995-04-05 1996-10-10 Siemens Ag Röntgen-Computertomograph
DE19539367A1 (de) * 1995-10-23 1997-04-24 Siemens Ag Verfahren zum Transformieren eines Koordinatensystems
US5636255A (en) * 1996-03-05 1997-06-03 Queen's University At Kingston Method and apparatus for CT image registration

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001858A1 (de) * 2003-10-22 2005-05-25 Schaerer Mayfield Technologies Gmbh Verfahren zur Fluoroskopie-basierten Neuronavigation
EP1925256A1 (de) 2006-11-24 2008-05-28 BrainLAB AG Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
US8041089B2 (en) 2006-11-24 2011-10-18 Brainlab Ag Method and device for registering an anatomical structure using markers
CN101515370B (zh) * 2009-03-06 2011-05-18 北京航空航天大学 三维显微ct扫描系统中射线源焦点的投影坐标的标定方法
CN101936720A (zh) * 2010-07-30 2011-01-05 北京航空航天大学 一种适用于锥束xct系统的探测器扭转角的标定方法
CN101936720B (zh) * 2010-07-30 2012-03-21 北京航空航天大学 一种适用于锥束xct系统的探测器扭转角的标定方法
DE102010035924A1 (de) * 2010-08-31 2012-03-01 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Entnahme einer Gewebeprobe
DE102010035924B4 (de) 2010-08-31 2019-08-22 Siemens Healthcare Gmbh Vorrichtung und Verfahren zur Entnahme einer Gewebeprobe

Also Published As

Publication number Publication date
JP4662514B2 (ja) 2011-03-30
JP2001078997A (ja) 2001-03-27
US6359960B1 (en) 2002-03-19

Similar Documents

Publication Publication Date Title
DE19936364A1 (de) Verfahren zur Identifizierung und Lokalisierung von Marken in einem 3D-Volumendatensatz
EP2144036B1 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE19858306A1 (de) C-Arm Kalibrierungsverfahren unter Anwendung einer planaren Transformation zur 3D-Rekonstruktion bei einem Bildsystem
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
EP2082686A1 (de) Orientierte Wiedergabe von Aufnahmen
EP2156790A1 (de) Zuordnung von Röntgenmarkern zu im Röntgenbild abgebildeten Bildmarkern
DE112017006976B4 (de) Überlagerungspositionskorrektureinrichtung und überlagerungspositionskorrekturverfahren
DE19902401C2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE102012223047B4 (de) Mehrteil-Korrespondierer (corresponder) für mehrere Kameras
DE2259762B2 (de) Verfahren zur automatischen Auswertung von Stereobildern
DE102017113615A1 (de) System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition
DE10112732C2 (de) Verfahren zur Bestimmung der Lage von Meßbildern eines Objektes relativ zum Objekt
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102022201279B3 (de) Verfahren zum Erfassen einer Umgebung eines Fahrzeugs, Kameravorrichtung und Fahrzeug
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
DE69905175T2 (de) Charakterisierung von Gegenständen durch lasergestützte Photogrammetrie
DE102019220364A1 (de) Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung
DE19506328C2 (de) Verfahren zur Erkennung der Position und Lage eines Objekts im dreidimensionalen Raum
WO2020057849A1 (de) Computerimplementiertes verfahren zur komprimierung von messdaten aus einer messung eines messvolumens
DE69911780T2 (de) Verfahren zur modellierung von gegenständen oder dreidimensionalen szenen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee