DE69817879T2 - Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation - Google Patents

Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation Download PDF

Info

Publication number
DE69817879T2
DE69817879T2 DE69817879T DE69817879T DE69817879T2 DE 69817879 T2 DE69817879 T2 DE 69817879T2 DE 69817879 T DE69817879 T DE 69817879T DE 69817879 T DE69817879 T DE 69817879T DE 69817879 T2 DE69817879 T2 DE 69817879T2
Authority
DE
Germany
Prior art keywords
transformation
image
large deformation
model image
computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69817879T
Other languages
English (en)
Other versions
DE69817879D1 (de
Inventor
I. Michael Miller
Sarang C. Joshi
Gary E. Christensen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
St Louis University
Washington University in St Louis WUSTL
Original Assignee
St Louis University
Washington University in St Louis WUSTL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by St Louis University, Washington University in St Louis WUSTL filed Critical St Louis University
Publication of DE69817879D1 publication Critical patent/DE69817879D1/de
Application granted granted Critical
Publication of DE69817879T2 publication Critical patent/DE69817879T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • G06T3/14
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Description

  • Diese Arbeit wurde teilweise durch die folgenden Stipendien der US-Regierung unterstützt: NIH-Stipendien RR01380 und R01-MH52138-01A1 und ARO-Stipendium DAAL-03-86-K-0110. Die US-Regierung kann gewisse Rechte an der Erfindung haben.
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft Bildverarbeitungssysteme und -verfahren und insbesondere Bilderfassungssysteme, die zwei oder mehr Bilder in einem gemeinsamen Bild kombinieren, insbesondere das Verschmelzen von anatomischem mannigfaltigkeitsbasiertem Wissen mit Volumeninformation mittels einer Großdeformationsabbildung, die beide Arten von Information sowohl gleichzeitig als auch individuell unterstützt, und die auf einem Computersystem, das auf einer FFT mit schneller Faltung basiert, implementiert werden kann.
  • Stand der Technik
  • Bilderfassung umfasst ein Kombinieren von zwei oder mehr Bildern oder ausgewählter Punkte der Bilder, um ein zusammengesetztes Bild zu erzeugen, das Daten von jedem der registrierten Bilder enthält. Während der Registrierung wird eine Transformation berechnet, die in Verbindung stehende Punkte unter den kombinierten Bildern aufeinander abbildet, so dass Punkte, die dieselbe Struktur in jedem der kombinierten Bilder definieren, in dem zusammengesetzten Bild korreliert sind.
  • Zur Zeit folgen die Praktiker zwei unterschiedlichen Registrierungstechniken. Die erste erfordert, dass ein einzelner mit Erfahrung in der Struktur des Objekts, das in den Bildern dargestellt ist, eine Menge von Landmarken bzw. Markierungen in jedem der zu erfassenden Bilder bezeichnet bzw. auszeichnet. Wenn z.B. zwei MRI-Bilder von verschiedenen axialen Schnitten eines menschlichen Kopfes erfasst werden, kann ein Mediziner Punkte oder eine Kontur, die diese Punkte umgibt, bezeichnen, die dem Cerebellum in zwei Bildern entsprechen. Die zwei Bilder werden dann erfasst, indem auf eine bekannte Beziehung zwischen den Landmarken in den zwei Gehirnbildern vertraut wird. Die diesem Erfassungsprozess zugrunde liegende Mathematik ist als Kleindeformationsmehrzielerfassung bekannt.
  • In dem vorigen Beispiel von zwei zu erfassenden Gehirnbildern unter Verwendung eines rein Operator-gesteuerten bzw. Bediener-gesteuerten Ansatzes, wird eine Menge von N Landmarken, die durch den Mediziner identifiziert werden, dargestellt durch xi, wobei i = 1 ..., N, innerhalb der beiden Gehirnkoordinatensysteme definiert. Eine Abbildungsbeziehung, die die N Punkte, die in einem Bild zu den entsprechenden N Punkten in dem anderen Bild ausgewählt wurden, ist durch die Gleichung u(xi) = ki definiert, wobei i = 1, ..., N. Jeder der Koeffizienten ki wird als bekannt angenommen.
  • Die Abbildungsbeziehung u(x) wird aus der Menge von N Landmarkenpunkten in das Kontinuum unter Verwendung einer Regularisierungsoptimierung und einer linearen quadratischen Form der Gleichung erweitert:
    Figure 00020001
    die den Randbedingungen u(xi) = ki unterworfen ist. Der Operator L ist ein linearer Differentialoperator. Dieses lineare Optimierungsproblem hat eine Lösung in geschlossener Form. Die Wahl von L = α∇2 + β∇(∇·) ergibt die Kleindeformationselastizität.
  • Für eine Beschreibung der Kleindeformationselastizität siehe S. Timoshenko, Theory of Elasticity, McGraw-Hill, 1934 (im Folgenden als Timoshenko bezeichnet) und R. L. Bisplinghoff, J. W. Marr und T. H. H. Pian, Statistics of Deformable Solids, Dover Publications, Inc., 1965 (im Folgenden als Bisplinghoff bezeichnet). Die Wahl von L = ∇2 ergibt ein Membran- oder Laplace'sches Modell. Andere haben diesen Operator in ihrer Arbeit verwendet, siehe z. B. Amit, U. Grenander und M. Piccioni, "Structural image restoration through deformable templates", J. American Statistical Association 86 (414): 376–387, Juni 1991, (im Folgenden als Amit bezeichnet) und R. Szeliski, Bayesian Modeling of Uncertainty in Low-Level Vision, Kluwer Academic Publisher, Boston, 1989 (im Folgenden als Szeliski bezeichnet) (beschreibt auch einen biharmonischen Ansatz). Die Wahl von L = ∇4 gibt ein Spline- oder ein biharmonisches Erfassungsverfahren. Für Beispiele von Anwendungen, die diesen Operator verwenden, siehe Grace Wahba, "Spline Models for Observational Data", Regional Conference Series in Applied Mathematics. SIAM, 1990, (im Folgenden als Wahba bezeichnet) und F. L. Bookstein, The Measurement of Biological Shape and Shape Change, Band 24, Springer-Verlag: Lecture Notes in Biomathematics, New York, 1978 (im Folgenden als Bookstein bezeichnet).
  • Die zweite zur Zeit verwendete Technik zur Bilderfassung verwendet die Mathematik der Kleindeformationsmehrzielerfassung und ist rein bilddatengesteuert. Hier werden volumenbasierte Bilddaten aus den beiden Zielen, aus denen eine Koordinatensystemtransformation konstruiert wird, erzeugt. Bei Verwendung dieses Ansatzes stellt ein Abstandsmaß, dargestellt durch den Ausdruck D(u), den Abstand zwischen einem Modell-T(x) und einem Zielbild S(x) dar. Die Optimierungsgleichung, die das Erfassen der beiden Bilder mit Hilfe eines Abstandsmaßes leitet, ist:
    Figure 00030001
  • Das Abstandsmaß D(u), das den Unterschied zwischen Bilddaten misst, hat verschiedene Formen, z. B. der Gauss'sche quadrierte Fehlerabstand ∫|T(h(x)) – S(x)|2dx, ein Korrelationsabstand oder ein Kullback-Liebler-Abstand. Erfassen der beiden Bilder erfordert, dass eine Abbildung gefunden wird, die diesen Abstand minimiert.
  • Andere Verschmelzungsansätze verwenden ein Kleindeformationsabbilden von Koordinaten x ∊ Ω von einer Menge von Bilddaten in eine zweite Menge von Bilddaten. Andere Techniken umfassen das Abbilden von vordefinierten Landmarken und Bilddaten, die beide getrennt genommen werden, wie in der Arbeit von Bookstein, oder verschmolzen werden, wie es durch den von Miller-Joshi-Christensen-Grenander aus der '628-Anmeldung abgedeckt wird, der in der US-Patentanmeldung Nr. 08/678,628 (im Folgenden "die '628-Anmeldung") beschrieben ist, die hier durch Bezugnahme aufgenommen wird, bei dem Koordinaten x ∊ Ω von einem Ziel in ein zweites Ziel abgebildet werden: der existierende Stand der Technik zum Kleindeformationsanpassen bzw. Kleindeformations-In-Übereinstimmung-Bringen kann wie folgt genannt werden: Kleindeformationsanpassen: Konstruiere h(x) = x – u(x) gemäß der Minimierung des Abstands D(u) zwischen den Modell- und Zielbilddaten unter Berücksichtigung der Glattheitsstrafe, die durch den linearen Differentialoperator L definiert wird:
    Figure 00040001
  • Das Abstandsmaß verändert sich je nachdem, ob Landmarken oder Bilddaten angepasst werden.
    • 1. Landmarken alleine. Der erste Ansatz ist rein Operator-gesteuert, bei dem eine Menge von Punktlandmarken xi, i = 1, ..., N, innerhalb der beiden Gehirnkoordinatensysteme durch beispielsweise einen anatomischen Experten oder ein automatisiertes System, von dem die Abbildung als bekannt angenommen wird: u(xi) = ki, i = 1, ..., N definiert wird. Das Feld u(x), das die Abbildung h spezifiziert, wird von der in dem Ziel definierten Menge von Punkten {xi} zu den Punkten {yi} erweitert, gemessen mit den Gauss'schen Fehlerkovarianzen Σi:
      Figure 00040002
      Hier bezeichnet (·)t die Transponierte der 3 × 1 reellen Vektoren und L ist ein linearer Differentialoperator, der die Kleindeformationselastizität verursacht (siehe Timoshenko und Bisplinghoff), das Membran- oder Laplace'sche Modell (siehe Amit und Szeliski), biharmonische (siehe Szeliski) und viele der Splineverfahren (siehe Wahba und Bookstein). Dies ist ein lineares Optimierungsproblem mit einer Lösung in geschlossener Form.
    • 2. Der zweite Ansatz ist rein volumenbilddatengesteuert, bei dem die volumenbasierten Bilddaten aus den beiden Zielen erzeugt werden, aus denen die Koordinatensystemtransformation konstruiert wird. Dafür wird ein Abstandsmaß zwi schen den beiden zu erfassenden Bildern I0, I1 definiert, D(u) = ∫|I0(x – u(x)) – Ii(x)|2dx, was die Optimierung durch
      Figure 00050001
      ergibt. Die Datenfunktion D(u) misst die Ungleichheit zwischen den Bilddaten und wurde in verschiedenen Formen verwendet. Andere Abstände werden neben dem Gauss'schen quadrierten Fehlerabstand verwendet, inklusive dem Koordinatenabstand, dem Kullback-Liebler-Abstand und andere.
    • 3. Der Algorithmus für die Transformation der Bilddaten I0 in die Bilddaten I 1 weist Landmarken und die Volumenbilddaten auf, die in dem Kleindeformationsaufbau, wie in der '628-Anmeldung, verschmolzen sind. Beide Informationsquellen werden zu der Kleindeformationserfassung kombiniert:
      Figure 00050002
  • Kleindeformationsverfahren ergeben geometrisch sinnvolle Deformationen unter Bedingungen, bei denen die anzupassenden Bilddaten kleine, lineare oder affine Veränderungen von einem Bild zu dem anderen sind. Eine Kleindeformationsabbildung erlaubt nicht die automatische Berechnung von Tangenten, Krümmung, Oberflächen und geometrischen Eigenschaften der Bilddaten. Um das Abbildungsproblem zu illustrieren, zeigt 9 ein ovales Modellbild mit mehreren hervorgehobenen Landmarken. 10 zeigt ein Zielbild, das von dem Modellbild stark deformiert ist. Das Zielbild ist ein stark deformiertes Oval, das verdreht und deformiert ist. 11 zeigt die Ergebnisse des Bildanpassens, wenn die vier Ecken fest sind, unter Verwendung von Kleindeformationsverfahren, die auf statischer Regularisierung mit quadratischer Form basieren. Dies ist eine Illustrierung der Verzerrung, die bei linearen Kleindeformationsabbildungsverfahren zwischen einfach definierten Landmarkenpunkten auftritt, die eine Bewegung definieren, welche eine große Deformation ist. Wie in 11 zu sehen ist, lassen sich in dem Modellbild definierte Landmarken häufig auf mehr als einen entsprechenden Punkt im Zielbild abbilden.
  • Das Großdeformationsabbilden erlaubt uns, Abbildungen zur Bilderfassung zu erzeugen, bei denen das Ziel ist, die injektiven, surjektiven, invertiblen, differenzierbaren Abbildung h (von nun an Diffeomorphismen genannt) von den Koordinaten x ∊ Ω von einem Ziel zu einem zweiten Ziel unter der Abbildung h:x → h(x) = x – u(x), x ∊ Ω (7)zu finden.
  • Um sehr feine Veränderungen in der Anatomie zu erfassen, sind die konstruierten diffeomorphen Transformationen von hoher Dimension mit z. B. Dimension größer als 12 der affinen Transformation und bis zu der Größenordnung der Zahl von Voxel in dem Volumen. Eine Transformation wird diffeomorph genannt, wenn die Transformation von dem Modell zu dem Ziel injektiv, surjektiv, invertierbar ist und sowohl die Transformation und ihr Inverses differenzierbar sind. Eine Transformation heißt injektiv, wenn keine zwei unterschiedlichen Punkte in dem Modell auf denselben Punkt in dem Ziel abgebildet werden. Eine Transformation heißt surjektiv, wenn jeder Punkt in dem Ziel von einem Punkt in dem Modell abgebildet ist. Die Bedeutung, Diffeomorphismen zu erzeugen, liegt darin, dass Tangenten, Krümmung, Oberflächen und geometrische Eigenschaften der Bilddaten automatisch berechnet werden können. 12 illustriert das Bildabbilden, das in 11 illustriert ist, mit Hilfe einer diffeomorphen Transformation.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung, wie sie durch die unabhängigen Ansprüche 1 bis 6 definiert ist, überwindet die Einschränkungen der herkömmlichen Techniken der Bilderfassung, indem ein Verfahren bereitgestellt wird, das einige Gesichtspunkte beider Techniken des Erforderns eines Individuums mit Erfahrung in der Struktur des in den Bildern dargestellten Objekts, um eine Menge von Landmarken in jedem Bild, das erfasst werden soll, zu bezeichnen und Verwenden von Mathematik der Kleindeformationsmehrzielerfassung, die rein bilddatengesteuert ist, kombiniert oder verschmilzt. Eine Ausführungsform, die mit der vorliegenden Erfindung in Übereinstimmung ist, verwendet Landmarkenmannigfaltigkeiten, um eine grobe Erfassung zu erzeugen, und verwendet anschließend Bilddaten, um eine Feinerfassung des Modell- und Zielbilds zu vervollständigen.
  • Zusätzliche Merkmale und Vorteile der Erfindung werden in der folgenden Beschreibung dargelegt und, teilweise, werden aus der Beschreibung offensichtlich oder können durch Anwenden der Erfindung erlernt werden. Die Ausführungsbeispiele und weitere Vorteile der Erfindung werden durch das Verfahren und die Vorrichtung, die insbesondere in der schriftlichen Beschreibung und den Ansprüchen sowie in den angehängten Zeichnungen hervorgestellt, realisiert und erhalten.
  • Um diese und andere Vorteile zu erzielen und gemäß dem Ziel der Erfindung, wie es ausgeführt und ausführlich beschrieben wird, umfasst ein Verfahren gemäß der Erfindung zum Erfassen eines Modellbildes und eines Zielbildes mehrere Schritte, inklusive eines Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild und Identifizierens von Punkten in dem Zielbild, die den definierten Mannigfaltigkeitslandmarkenpunkten entsprechen. Wenn diese Punkte identifiziert wurden, umfasst das Verfahren die Schritte eines Berechnens einer Transformation, welche die definierten Mannigfaltigkeitslandmarkenpunkte in dem Modellbild zu den entsprechenden Punkten in dem Zielbild in Beziehung setzt; Verschmelzen der ersten Transformation mit einem Abstandsmaß, um eine zweite Transformation zu bestimmen, die alle Punkte innerhalb eines Bereichs von Interesse in dem Zielbild zu den entsprechenden Punkten in dem Modellbild in Beziehung setzt; und Erfassen des Modellbilds mit dem Zielbild unter Verwendung dieser zweiten Transformation.
  • Es ist daher ein anderes Ausführungsbeispiel der vorliegenden Erfindung, einen neuen Rahmen bereitzustellen, um die zwei separaten Bilderfassungsansätze in dem Großdeformationsaufbau zu verschmelzen. Es ist ein weiteres Ausführungsbeispiel des Großdeformationsverfahrens, anatomischen und klinischen Experten zu erlauben, geometrische Eigenschaften von Bilddaten allein zu untersuchen. Dies wird die Verwendung von Landmarkeninformation zum Erfassen von Bilddaten erlauben. Ein weiteres Ausführungsbeispiel in Übereinstimmung mit der vorliegenden Erfindung erlaubt eine Erfassung, die auf Bildanpassung bzw. -In-Übereinstimmung-Bringen alleine basiert. Noch ein weiteres Ausführungsbeispiel in Übereinstimmung mit der vorliegenden Erfindung kombiniert diese Transformationen, die Diffeomorphismen sind und daher zusammengesetzt werden können.
  • Ein Ausführungsbeispiel in Übereinstimmung mit der vorliegenden Erfindung stellt eine effiziente Abstiegslösung durch die Lagrange'sche Zeitpfad-Raumzeitlösung des Landmarkenanpassungsproblems für Situationen bereit, bei denen eine kleine Anzahl von Landmarken N << [Ω] vorhanden ist, wodurch die Ω × T-dimensionale Optimierung zu N T-dimensionalen Optimierungen reduziert wird.
  • Ein weiteres Ausführungsbeispiel in Übereinstimmung mit der vorliegenden Erfindung stellt eine effiziente FFT-basierte Faltungsimplementation des Bildanpassungsproblems in Euler'schen Koordinaten bereit, wodurch die Optimierung von reellwertigen Funktionen auf Ω × T zu [T]-Optimierungen auf Ω konvertiert werden.
  • Um die klassischen Kleindeformationslösungen der Bilderfassungsprobleme als Großdeformationslösungen umzuformulieren, was eine genaue algorithmische Erfindung ermöglicht, übergehend von niedrigdimensionaler Landmarkeninformation zu hochdimensionaler Volumeninformation bereitstellenden Abbildungen, die injektiv und surjektiv sind aus denen die Geometrie von Bildsubstrukturen untersucht werden kann. Da die Abbildungen Diffeomorphismen sind, können Riemann'sche Längen auf gekrümmten Oberflächen, Oberflächen, zusammenhängende Volumenmaße berechnet werden, wobei sichergestellt ist, dass diese aufgrund der diffeomorphen Art der Abbildungen wohldefiniert sind.
  • Es ist auch ein Ausführungsbeispiel in Übereinstimmung mit der Erfindung, periodische und stationäre Eigenschaften in die Kovarianzeigenschaften der Differentialoperatorglättung einzuführen, so dass die Lösung, bei der innere Produkte involviert sind, mittels Faltungen und schnellen Fourier-Transformationen implementiert werden kann, wodurch die Verschmelzungslösung in Echtzeit auf seriellen Computern rechnerisch durchführbar wird.
  • Sowohl die vorhergehende allgemeine Beschreibung und die folgende ausführliche Beschreibung sind beispielhaft und zur Erläuterung und sollen dazu dienen, weitere Erklärungen der Erfindung, wie sie beansprucht wird, bereitzustellen.
  • Kurze Beschreibung der Zeichnungen
  • Die begleitenden Zeichnungen stellen ein weiteres Verständnis der Erfindung bereit. Sie illustrieren Ausführungsbeispiele der Erfindung und, gemeinsam mit der Beschreibung, erklären die Prinzipien der Erfindung.
  • 1 ist ein Ziel- und Modellbild eines axialen Schnitts eines menschlichen Kopfes mit 0-dimensionalen Mannigfaltigkeiten;
  • 2 ist ein schematisches Diagramm, das eine Vorrichtung zum Erfassen von Bildern gemäß der vorliegenden Erfindung illustriert;
  • 3 ist ein Flussdiagramm, das das Verfahren der Bilderfassung gemäß der vorliegenden Erfindung illustriert;
  • 4 ist ein Ziel- und ein Modellbild mit 1-dimensionalen Mannigfaltigkeiten;
  • 5 ist ein Ziel- und ein Modellbild mit 2-dimensionalen Mannigfaltigkeiten;
  • 6 ist ein Ziel- und ein Modellbild mit 3-dimensionalen Mannigfaltigkeiten;
  • 7 ist eine Sequenz von Bildern, die das Erfassen eines Modell- und Zielbildes illustrieren; und
  • 8 ist ein Flussdiagramm, das die Berechnung einer Verschmelzungstransformation illustriert;
  • 9 ist ein ovales Modellbild, das ausgewählte und hervorgehobene Landmarkenpunkte hat;
  • 10 ist ein deformiertes und verzerrtes ovales Zielbild mit entsprechenden ausgewählten und hervorgehobenen Landmarkenpunkten;
  • 11 ist eine Bildanpassung der ovalen Ziel- und Modellbilder;
  • 12 ist ein Bildanpassen mit Hilfe von Diffeomorphismen.
  • Ausführliche Beschreibung der Erfindung
  • 1. Verfahren zur Bilderfassung unter Verwendung von sowohl Landmarken-basiertem Wissen und Bilddaten
  • Ein Verfahren und System ist offenbart, das Bilder unter Verwendung sowohl von Landmarken-basiertem Wissen als auch Bilddaten erfasst. Nun wird im Detail auf das vorliegende bevorzugte Ausführungsbeispiel der Erfindung Bezug genommen, wobei Beispiele davon in den begleitenden Zeichnungen illustriert sind.
  • Um die Prinzipien der Erfindung zu illustrieren, zeigt 1 zwei axiale Ansichten eines menschlichen Kopfes. In diesem Beispiel enthält das Modellbild 100 Punkte 102, 104 und 114, die strukturelle Punkte (0-dimensionale Landmarkenmannigfaltigkeiten) von Interesse in dem Modellbild identifizieren. Das Zielbild 120 enthält Punkte 108, 110, 116, die jeweils den Modellbildpunkten 102, 104, 114 über die jeweiligen Vektoren 106, 112, 118 entsprechen.
  • 2 zeigt eine Vorrichtung, um die bevorzugte Ausführungsform dieser Erfindung durchzuführen. Ein medizinischer Bildabtaster 214 erhält die in 1 gezeigten Bilder und speichert sie in einem Computerspeicher 206, der mit einer zentralen Verarbeitungseinheit (CPU) 204 eines Computers verbunden ist. Der Fachmann wird erkennen, dass eine parallele Computerplattform mit mehrfachen CPUs auch eine geeignete Hardwareplattform für die vorliegende Erfindung ist, umfassend, aber nicht beschränkt auf massiv parallele Maschinen und Workstations mit mehrfachen Prozessoren. Der Computerspeicher 206 kann direkt mit der CPU 204 verbunden sein, oder dieser Speicher kann entfernt über ein Kommunikationsnetzwerk verbunden sein.
  • Ein Erfassen der Bilder 100, 120 gemäß der vorliegenden Erfindung vereinigt eine Erfassung basierend auf Landmarkendeformationen und Bilddatentransformation unter Verwendung eines Grob-zu-fein-Ansatzes. In diesem Ansatz wird die Transformation mit der höchsten Dimension, die während der Erfassung benötigt wird, aus der Lösung einer Sequenz von niedrigerdimensionalen Problemen durch aufeinandertolgende Verfeinerungen berechnet. Dieses Verfahren basiert auf Information, die entweder durch einen Bediener bereitgestellt wird, die als Default gespeichert ist, oder automatisch aus den verschiedenen Substrukturen des Modells und des Bilds und sich verändernden Wissensgraden über diese Substrukturen bestimmt werden, abgeleitet aus anatomischen Bilddaten, die aus Modalitäten, wie CT, MRI, funktionale MRI, PET, Ultraschall, SPECT, MEG, EEG oder Cryosektion erworben werden.
  • Diesem hierarchischen Ansatz folgend bewegt ein Bediener unter Verwendung der Zeigervorrichtung 208 einen Cursor 210, um Punkte 102, 104, 114 in 1 auszuwählen, die dann auf einem Computerbildschirm 202 gemeinsam mit den Bildern 100, 120 dargestellt wird. Die ausgewählten Bildpunkte 102, 104 und 114 sind 0-dimensionale Mannigfaltigkeitslandmarken.
  • Wenn der Bediener Mannigfaltigkeitslandmarkenpunkte 102, 104 und 114 in dem Modellbild 100 ausgewählt hat, identifiziert der Bediener die entsprechenden Modellbildpunkte 108, 110, 116.
  • Sobald die Mannigfaltigkeitslandmarkenauswahl vollständig ist, berechnet die CPU 204 eine erste Transformation, die die Mannigfaltigkeitslandmarkenpunkte in dem Modellbild 100 zu ihren entsprechenden Bildpunkten in dem Zielbild 120 in Beziehung setzt. Als nächstes wird durch die CPU 204 eine zweite Transformation berechnet, indem die erste Transformation, die ausgewählte Mannigfaltigkeitslandmarkenpunkte in Beziehung setzt, mit einem Abstandsmaß, das alle Bildpunkte in sowohl dem Modellbild 100 als dem Zielbild 120 in Beziehung setzt, verschmolzen wird. Der Bediener kann eine Gleichung für das Abstandsmaß auf verschiedene Weise auswählen, inklusive, aber nicht beschränkt auf ein Auswählen einer Gleichung aus einer Liste unter Verwendung der Zeigervorrichtung 208, Eingeben einer Gleichung in die CPU 204 mit Hilfe einer Tastatur 212 oder Auslesen einer Default-Gleichung aus dem Speicher 206. Die Erfassung wird durch die CPU 204 fertiggestellt, indem die zweite berechnete Transformation auf alle Punkte in dem Modellbild 100 angewendet wird.
  • Obwohl mehrere der Erfassungsschritte als Auswahlen beschrieben sind, die von einem Bediener gemacht werden, ist die Implementation der vorliegenden Erfindung nicht auf manuelle Auswahl beschränkt. Beispielsweise können die Transformationen, Randwerte, Bereiche von Interesse und das Abstandsmaß Defaults sein, die aus dem Speicher ausgelesen werden und automatisch bestimmt werden.
  • 3 illustriert das Verfahren dieser Erfindung bei Anwendung. Als erstes definiert ein Bediener eine Menge von N Mannigfaltigkeitslandmarkenpunkten xi, wobei i = 1, ..., N, dargestellt durch die Variable M, in dem Modellbild (Schritt 300). Diese Punkte sollten Punkten entsprechen, die in dem Zielbild einfach zu identifizieren sind.
  • Zu jedem Landmarkenpunkt xi in dem Modellbild gehört ein entsprechender Punkt yi in dem Zielbild. Der Bediener identifiziert also als nächstes die entsprechenden Punkte yi in dem Zielbild (Schritt 310). Die Art dieses Prozesses bedeutet, dass die entsprechenden Punkte nur innerhalb eines bestimmten Grads von Genauigkeit identifiziert werden können. Dieses Abbilden zwischen den Modell- und Zielpunkten kann mit einer Auflösung spezifiziert werden, die einen Gauss'schen Fehler mit Varianz σ2 hat.
  • Falls kein Transformationsoperator bezeichnet wurde, kann der Bediener einen Mannifaltigkeitslandmarkentransformationsoperator L für diese Transformationsberechnung auswählen. In diesem Ausführungsbeispiel wird der Laplace-Operator
    Figure 00120001
    für den Operator L verwendet. In gleicher Weise kann der Bediener auch Randwerte für die Berechnung auswählen, die angenommenen Randwertbedingungen entsprechen, wenn diese Werte nicht automatisch bestimmt wurden oder als Defaultwerte gespeichert wurden. Hier werden unendliche Randbedingungen angenommen, was die folgende Gleichung für K ergibt, wobei K (x, xi) die Green'sche Funktion eines Volumenlandmarkentransformationsoperators L2 (unter der Annahme, dass L selbstadjungiert ist) ist:
    Figure 00120002
  • Die Verwendung von zirkulären Randbedingungen statt unendlichen Randbedingungen stellt ein Ausführungsbeispiel bereit, das zur schnellen Berechnung geeignet ist. Der Fachmann erkennt, dass andere Operatoren statt des Laplace-Operators verwendet werden können, diese Operatoren umfassen, sind aber nicht beschränkt auf den biharmonischen Operator, linearen Elastizitätsoperator und andere Potenzen dieser Operatoren.
  • Zusätzlich kann der Bediener einen Bereich von Interesse in dem Zielbild auswählen. Ein Einschränken der Berechnung auf einen verhältnismäßig kleinen Bereich von Interesse reduziert sowohl die Berechnungs- als auch die Speichererfordernisse, da die Transformation nur über einen Unterbereich von Interesse berechnet wird. Es kann auch sein, dass in manchen Anwendungen das gesamte Bild der gewünschte Bereich von Interesse ist. In anderen Anwendungen können Defaultbereiche von Interesse vorhanden sein, die automatisch identifiziert werden.
  • Die Anzahl von erforderlichen Berechnungen ist proportional zu der Anzahl von Punkten in dem Bereich von Interesse, so dass Berechnungseinsparungen gleich dem Verhältnis der Gesamtanzahl von Punkten in dem Bild zu der Zahl von Punkten in dem Bereich von Interesse ist. Die Datenspeichereinsparungen für ein Bild mit N Punkten mit einem Bereich von Interesse mit M-Punkten ist ein Faktor von N/M. Zum Beispiel werden für ein Volumenbild von 256 × 256 × 256 Punkten mit einem Bereich von Interesse von 128 × 128 × 128 Punkten die Berechnungszeit und der Datenspeicher um einen Faktor 8 reduziert.
  • Zusätzlich erfordert ein Durchführen der Berechnung über nur einen Bereich von Interesse, nur einen Unterbereich zu speichern, wodurch Datenspeichereinsparungen für das Modellbild, das Zielbild und die Transformationswerte bereitgestellt werden.
  • Nach der Identifizierung der Modellmannigfaltigkeitslandmarkenpunkte und der entsprechenden Punkte in dem Zielbild, als auch der Auswahl des Mannigfaltigkeitstransformationsoperators, der Randwerte und des Bereichs von Interesse, berechnet die CPU 204 eine Transformation, die die Abbildungsbeziehung zwischen diesen beiden Mengen von Punkten verkörpert (Schritt 350). Diese Transformation kann unter Verwendung einer Bayes'schen Optimierung geschätzt werden, unter Verwendung der folgenden Gleichung:
    Figure 00140001
    wobei der Minimierer u die Form hat
    Figure 00140002
    wobei A eine 3 × 3-Matrix, b = [b1, b2, b3] ein 3 × 1-Vektor, [βi1, βi2, βi3] ein 3 × 1-Gewichtsvektor ist.
  • Die vorangegangenen Schritte des Bilderfassungsverfahrens stellen eine grobe Anpassung eines Modell- und eines Zielbildes bereit. Eine Feinanpassung der Bilder erfordert die Verwendung der vollen Bilddaten und der Landmarkeninformation und umfasst ein Auswählen eines Abstandsmaßes durch Lösen einer Synthesegleichung, die gleichzeitig ausgewählte Bildlandmarken in dem Modell- und Zielbild abbildet und alle Bildpunkte innerhalb eines Bereichs von Interesse anpasst bzw. paart. Ein Beispiel dieser Synthesegleichung ist:
    Figure 00140003
    wobei hier das Verschiebungsfeld u auf die Form beschränkt ist
    Figure 00140004
    mit den Variablen βi, A und b, die in Schritt 350 in 3 berechnet werden. Der Operator L in Gleichung (11) kann der gleiche Operator wie in Gleichung (9) sein, oder ein anderer Operator kann alternativ verwendet werden mit einer anderen Menge von Randbedingungen. Die Basisfunktionen φ sind die Eigenfunktionen des Operators, wie der Laplace-Operator Lu = ∇2u, der biharmonische Operator Lu = ∇4u, der lineare Elastizitätsoperator Lu = α∇2u + (α + β)∇(∇·u) und Potenzen dieser Operatoren Lp für p ≥ 1.
  • Der Fachmann wird erkennen, dass es viele mögliche Formen der Synthesegleichung gibt. Beispielsweise misst in der oben dargestellten Synthesegleichung das Abstands maß in dem ersten Term die relative Position der Punkte in dem Zielbild bezüglich der Punkte in dem Modellbild. Obwohl diese Synthesegleichung ein quadratisches Abstandsmaß verwendet, wird der Fachmann erkennen, dass es andere geeignete Abstandsmaße gibt.
  • Die CPU 204 berechnet dann eine zweite oder Verschmelzungstransformation (Schritt 370) unter der Verwendung der Synthesegleichung, die alle Punkte innerhalb eines Bereichs von Interesse in dem Zielbild zu allen entsprechenden Punkten in dem Modellbild in Beziehung setzt. Die Synthesegleichung ist definiert, so dass die resultierende Transformation das Abbilden der Mannigfaltigkeitslandmarken zu entsprechenden Zielbildpunkten, die beim Berechnen der ersten Transformation bestimmt wurden, umfasst oder verschmilzt.
  • Die Berechnung unter Verwendung der Synthesegleichung wird erreicht, indem eine Sequenz von Optimierungsproblemen von grober zu feiner Skala über das Schätzen der Basiskoeffizienten μk gelöst wird. Dies ist analog zu Mehrgitterverfahren, aber hier wird der Begriff von Verfeinerung von Grob nach Fein erreicht, indem die Zahl von Basiskomponenten d erhöht wird. Wenn die Zahl von Basisfunktionen zunimmt, werden kleinere und kleinere Veränderlichkeiten zwischen dem Modell und dem Ziel angepasst. Die Basiskoeffizienten werden durch Gradientenabstieg bestimmt, d. h.,
    Figure 00150001
    und Δ ist eine feste Schrittgröße und λk sind die Eigenwerte der Eigenvektoren φk.
  • Die Berechnung der Verschmelzungstransformation (Schritt 370) unter Verwendung der Synthesegleichung ist in dem Flussdiagramm von 8 dargestellt. Gleichung (12) wird verwendet, um den Wert des Verschiebungsfelds u(x) = u(0)(x) (Schritt 800) zu initialisieren. Die Basiskoeffizienten μk = μk (0) werden gleich Null gesetzt und die Variablen βi, A und b werden gleich der Lösung von Gleichung (11) gesetzt (Schritt 802). Gleichung (13) wird dann verwendet, um die neuen Werte der Basiskoeffizienten μk (n+1) zu schätzen, gegeben die augenblickliche Schätzung des Verschiebungsfelds μ(n)(x) (Schritt 804). Gleichung (15) wird dann verwendet, um die neue Schätzung des Verschiebungsfelds u(n)(x) zu berechnen, gegeben die augenblickliche Schätzung der Basiskoeffizienten μk (n) (Schritt 806). Der nächste Teil der Berechnung besteht darin, zu entscheiden, ob die Anzahl d an Basisfunktionen φk erhöht wird oder nicht, die verwendet werden, um die Transformation darzustellen (Schritt 808). Erhöhen der Zahl von Basisfunktionen erlaubt mehr Deformation. Normalerweise wird der Algorithmus mit einer kleinen Anzahl von Basisfunktionen gestartet, die Niedrigfrequenzeigenfunktionen entsprechen, und dann wird die Zahl von Frequenzen in definierten Iterationen um Eins erhöht (Schritt 810). Diese Grob-zu-fein-Strategie passt größere Strukturen vor kleineren Strukturen an. Die vorangehenden Berechnungen (Schritte 804–810) werden wiederholt, bis die Berechnung konvergiert ist oder die maximale Anzahl von Iterationen erreicht ist (Schritt 812). Das letzte Verschiebungsfeld wird dann verwendet, um das Modellbild zu transformieren (Schritt 814).
  • Sobald die CPU 204 die Transformation aus der Synthesegleichung, die sowohl Landmarkmannigfaltigkeitsinformation als auch Bilddaten verschmilzt, bestimmt, verwendet die CPU 204 dieses Transformation, um das Modellbild mit dem Zielbild zu erfassen (Schritt 380).
  • Das Spektrum der zweiten Transformation h ist um Null stark konzentriert. Dies bedeutet, dass das Spektrum hauptsächlich Niedrigfrequenzanteile enthält. Unter Verwendung des Abtasttheorems kann die Transformation durch eine unterabgetastete Version dargestellt werden, unter Voraussetzung, dass die Abtastfrequenz größer als die Nyquistfrequenz der Transformation ist. Die Berechnung kann beschleunigt werden, indem die Transformation auf einem groben Gitter berechnet wird und auf das volle Voxelgitter er weitert wird, z. B. im Fall von 3D-Bildern durch Interpolation. Die Berechnungskomplexität des Algorithmus ist proportional zu der Dimension des Gitters, auf der die Transformation berechnet wird. Daher ist die Berechnungsbeschleunigung gleich dem Verhältnis des vollen Voxelgitters zu dem groben Berechnungsgitter.
  • Der Fachmann wird erkennen, dass ein Zusammensetzen der Landmarkentransformationen gefolgt von den elastischen Basistransformationen, wobei die Verschmelzungsmethode nacheinander angewendet wird, einen alternativ gültigen Ansatz zur hierarchischen Synthese von Landmarken- und Bildinformation in der Segmentation bereitstellen kann.
  • Eine andere Möglichkeit, die Effizienz des Algorithmus zu erhöhen, besteht darin, die Green'schen Funktionen und Eigenfunktionen des Operators L vorher zu berechnen, und diese vorberechneten Werte in einer Nachschlagetabelle zu speichern. Diese Tabellen ersetzen die Berechnung dieser Funktionen in jeder Iteration durch ein Nachschlagen bzw. Nachsehen in einer Tabelle. Dieser Ansatz nutzt die Symmetrie der Green'schen Funktionen und Eigenfunktionen des Operators L aus, so dass sehr wenig Computerspeicher benötigt wird. In dem Fall der Green'schen Funktionen wird die Radialsymmetrie ausgenutzt, indem die Green'sche Funktion nur entlang einer radialen Richtung vorher berechnet wird.
  • Das Verfahren, das zum Verschmelzen von Landmarkeninformation mit der Bilddatentransformation beschrieben wurde, kann von Landmarken, die einzelne Punkte (O-dimensionale Mannigfaltigkeiten) auf Mannigfaltigkeiten der Dimensionen 1, 2 und 3 erweitert werden, die Kurven (1-dimensional), Oberflächen (2-dimensional) und Subvolumen (3-dimensional) entsprechen.
  • Beispielsweise zeigt 4 ein Modellbild 400 eines Schnitts eines Gehirns mit 1-dimensionalen Mannigfaltigkeiten 402 und 404, die den 1-dimensionalen Mannigfaltigkeiten 408 und 410 des Zielbilds 406 jeweils entsprechen. 5 zeigt ein Modellbild 500 eines Schnitts eines Gehirns mit einer 2-dimensionalen Mannigfaltigkeit 502, die der 2-dimensionalen Mannigfaltigkeit 506 des Zielbilds 504 entspricht. 6 zeigt ein Modellbild 600 eines Schnitts eines Gehirns mit 3-dimensionaler Mannigfaltigkeit 602, die der 3-dimensionalen Mannigfaltigkeit 606 des Zielbilds 604 entspricht.
  • Wie bei den Punktlandmarken bedingen diese höherdimensionalen Mannigfaltigkeiten die Transformation, d. h. wir nehmen an, dass das Vektorfeld, das die Mannigfaltigkeiten in dem Modell auf die Daten abbildet, gegeben ist. Unter dieser Annahme wird die von Hand begleitete Deformation (Schritt 350, 3) das gleichheitsbeschränkte Bayessche Optimierungsproblem:
    Figure 00180001
  • Wenn M(i) eine glatte Mannigfaltigkeit für i = 0, 1, 2, 3 ist, ist die Lösung zu dieser Minimierung eindeutig und erfüllt LfLu ^(x) = 0 für alle Modellpunkte der ausgewählten Mannigfaltigkeit. Dies impliziert, dass die Lösung in der Form einer Fredholm-Integralgleichung geschrieben werden kann:
    Figure 00180002
    und G ist die Green'sche Funktion von L.
  • Wenn die Mannigfaltigkeit ein Subvolumen M(3) ist, so ist dS das Lebesguemaß auf R3. Für 2-dimensionale Oberflächen ist dS das Oberflächenmaß auf M(2), für 1-dimensionale Mannigfaltigkeiten (Kurven) ist dS das Linienmaß auf M(1) und für Punktlandmarken M(0) ist dS das Punktmaß. Für Punktlandmarken entartet die Fredholm-Integralgleichung in eine Summation, die durch Gleichung (10) gegeben ist.
  • Wenn die Mannigfaltigkeit von Interesse eine glatte 2-dimensionale Oberfläche ist, erfüllt die Lösung das klassische Dirichlet-Randwertproblem: LfLu ^(x) = 0,∀x∊Ω\M (19)
  • Das Dirichletproblem wird unter Verwendung des Verfahrens der aufeinanderfolgenden Überrelaxation wie folgt gelöst. Wenn uk(x) die Schätzung eines Deformationsfelds bei der k-ten Iteration ist, ist die Schätzung bei der (k + 1)-ten Iteration durch die folgende Update-Gleichung gegeben: uk+1(x) = uk(x) + aL,fLu(x), x ∊ Ω\M. uk+1(x) = k(x), x ∊ M, (20)wobei α der Überrelaxationsfaktor ist.
  • Es ist auch möglich, die Transformation (Schritt 370) mit schneller Konvergenz zu berechnen, indem eine Reihe von linearen Minimierungsproblemen gelöst wird, wobei die Lösung der Reihe von linearen Problemen gegen die Lösung des nichtlinearen Problems konvergiert. Dies vermeidet die Notwendigkeit, das nichtlineare Minimierungsproblem direkt zu lösen. Bei Verwenden eines konjugierten Gradientenverfahrens konvergiert die Berechnung schneller als eine direkte Lösung der Synthesegleichung, da die Basiskoeffizienten μk mit optimalen Schrittgrößen auf den neuesten Stand gebracht werden.
  • Bei Verwenden des konjugierten Gradienten wird angenommen, das Verschiebungsfeld habe die Form
    Figure 00190001
  • Man beginnt mit der Annahme, dass f(x) fest ist. Dies wird unten verallgemeinert. Die Eigenfunktionen in der Entwicklung sind alle reell und folgen der Annahme, dass {φi(x)}
    Figure 00190002
    -wertig sind.
  • Das Minimierungsproblem wird gelöst, indem μnewj + μoldj + Δij = 0 ... d (23) berechnet wird, um die Basiskoeffizienten in Gleichung (21) auf den neuesten Stand zu bringen, wobei μj = 0, j = 0, ..., d zu Beginn sind, Δj wird berechnet mit Hilfe der Gleicmhung
    Figure 00200001
    wobei hi(x) = ∇·Tx_u(x)·φi(x) und wobei θij(x) = φj(x)·φj(x). Die Notation f•g ist das innere Produkt, d. h.
  • Figure 00200002
  • In gleicher Weise tritt die identische Formulierung zum Bringen der β; auf den neuesten Stand auf, da u(x) in der in Gleichungen (21) und (22) gegebenen Reihenentwicklung geschrieben wird. Damit ergibt sich die durch die vorliegende Erfindung erzielte Verschmelzung. Die Berechnung von Gleichung (23) wird wiederholt, bis alle Δj unter eine vorherbestimmte Schwelle fallen, wobei sie für jedes Δj in aufsteigender Reihenfolge für j gelöst wird, und Δj wird berechnet unter der Verwendung der Werte von Δk für 0 ≤ k < j.
  • Eine weitere Verbesserung gegenüber Bilderfassungsverfahren des Stands der Technik wird erreicht, indem die erforderlichen Transformationen mit Hilfe schneller Fourier-Transformationen (FFT) berechnet werden. Ein Implementieren einer FFT-basierten Berechnung zur Bilderfassung unter Verwendung einer Synthesegleichung, wie in Schritt 370 von 3 erforderlich, ergibt Berechnungseffizienz. Allerdings muss, um die bekannten Berechnungseffizienzen von FFT-Transformationen auszunutzen, die Lösung der Synthesegleichung umgeformt werden, um die inneren Produkte, die von iterativen Algorithmen benötigt werden, in verschiebungsinvariante Faltungen zu transformieren.
  • Um die von den iterativen Algorithmen verlangten inneren Produkte zu verschiebungsinvarianten Faltungen zu machen, werden Differential- und Differenzoperatoren auf einer periodischen Version des Einheitswürfels und des diskreten Gitterwürfels definiert. Damit werden also die Operatoren zyklisch stationär gemacht, was impliziert, dass ihre Eigenfunktionen immer die Form komplexer Exponentialfunktionen auf diesen Würfeln mit den Werten:
    Figure 00210001
    haben, r = 1, 2, 3 mit x = (x1, x2, x3) ∊ [0,1]3,
    ωki = 2 πki, i = 1, 2, 3, und die Fourier-Basis für periodische Funktionen auf [0,1]3 nimmt die Form an
    Figure 00210002
    auf dem diskreten N3-periodischen Gitter
    Figure 00210003
  • Für reelle Entwicklungen werden die Eigenvektoren
    φk(x) = Ψk(x) + Ψk*(x) und die reelle Entwicklung in Gleichung (21) wird:
    Figure 00210004
    wobei * komplexkonjugiert bedeutet, und 0 < d ≤
    Figure 00210005
  • Diese Umformulierung stützt eine effiziente Implementierung des Bilderfassungsprozesses unter Verwendung der FFT. Wenn insbesondere Schritt 370 von 3, in dem die Erfassungstransformation, die Landmarken- und Bilddaten verschmilzt, berechnet wird, unter Verwendung der konjugierten Gradientenmethode implementiert wird, wird die Berechnung eine Reihe von inneren Produkten umfassen. Verwenden der FFT nutzt die Struktur der Eigenfunktionen und die Berechnungseffizienz der FFT aus, um diese inneren Produkte zu berechnen.
  • Beispielsweise wird eine Form der Synthesegleichung zum Durchführen von Schritt 370 von 3 die folgenden drei Tenne umfassen:
    Figure 00220001
  • Jeder dieser Terme muss in eine geeignete Form für die FFT-Berechnung umformuliert werden. Ein Beispiel einer richtigen Umformulierung für jeden dieser Terme ist:
    Term 1:
    Figure 00220002
    wobei c (r) / k = [c (r) / 1k, c (r) / 2k, c (r) / 3k]t. Diese Gleichung wird für alle k durch eine Fourier-Transformation der Funktion berechnet
    Figure 00220003
    und kann somit unter Verwendung eines 3D-FFT effizient berechnet werden.
    Term 2:
    Figure 00220004
  • Das Integral in der obigen Summation für alle k kann durch Fourier-Transformation der Elemente der 3 × 3-Matrix ∇T(∇T)t (30)ausgewertet bei ωk + ωj, berechnet werden. Da diese Matrix Diagonalsymmetrie aufweist, können die neun FFTs in dieser Umformulierung von Term 2 unter Verwendung von sechs dreidimensionalen FFTs, ausgewertet bei ωk + ωj, effizient berechnet werden.
  • Term 3:
    Unter Verwendung der exakten Form für die Eigenfunktionen können wir die obige Gleichung umschreiben als
    Figure 00230001
  • Diese Summation ist genau die inverse Fouriertransformation der Funktionen Σ3r=1 μ(r)ik für i = 1, 2, 3und kann somit effizient unter Verwendung einer 3D-FFT berechnet werden.
  • Der Fachmann wird erkennen, dass ein Restrukturieren der Berechnung der Erfassungstransformationen unter Verwendung von FFTs die Leistung jedes Bilderfassungsverfahrens verbessern wird, dass ähnliche Terme aufweist, wie diese, die aus einer Synthesegleichung resultieren, die Landmarken- und Bilddaten verschmilzt. Die Verbesserung ergibt sich aus der Tatsache, dass viele Computerplattformen FFTs effizient berechnen; dementsprechend macht eine Umformulierung des Erfassungsprozesses als eine FFT-Berechnung die erforderlichen Berechnungen durchführbar.
  • Eine Abstandsfunktion, die verwendet wird, um die Ungleichheit zwischen Bildern zu messen, ist der Gauss'sche quadrierte Fehlerabstand ∫|T(x – u(x)) – S(x)|2dx. Es gibt viele andere Formen eines geeigneten Abstandmaßes. Allgemein können Abstandsfunktionen, wie der Korrelationsabstand oder der Kullback-Liebler-Abstand in der Form ∫D(T(x – u(x)), S(x))dx geschrieben werden.
  • Eine effiziente Faltungsimplementierung kann unter Verwendung der FFT für beliebige Abstandsfunktionen hergeleitet werden. Das Berechnen der Verschmelzungstransformation unter Verwendung der Bilddaten folgt der Gleichung:
    Figure 00240001
    wobei D(.,.) eine Abstandsfunktion ist, die Punkte in den Modell- und Zielbildern in Beziehung setzt. Es wird angenommen, das Verschiebungsfeld habe die Form:
    Figure 00240002
    fest ist. Die Basiskoeffizienten {μk} werden durch Gradientenabstieg bestimmt, d. h.,
    Figure 00240003
    wobei der Gradient unter Verwendung der Kettenregeln berechnet wird und durch die Gleichung
    Figure 00250001
    gegeben ist, wobei D'(.,.) die Ableitung bezüglich des ersten Arguments ist. Der berechnungsintensivste Aspekt des Algorithmus ist die Berechnung des Terms ΩD'(T(x – u(n)(x)), S(x))∇T(x – u(n)(x))·φk(x)dx
  • Unter Verwendung der Struktur der Eigenfunktionen und der Berechnungseffizienz der FFT, um diese inneren Produkte zu berechnen, kann der obige Term geschrieben werden als
    Figure 00250002
    wobei c (r) / k = [c (r) / 1k, c (r) / 2k, c (r) / 3k]t. Diese Gleichung wird für alle k durch eine Fouriertransformation der Funktion
    Figure 00250003
    berechnet und kann somit effizient unter Verwendung einer 3D-FFT berechnet werden.
  • Das folgende Beispiel illustriert die Berechnungseffizienzen, die bei Verwenden von FFTs zur Bilderfassung statt der direkten Berechnung von inneren Produkten erzielt werden. Unter der Annahme, dass ein Zielbild auf einem Gitter mit N3 Punkten diskretisiert ist, würde jedes der inneren Produkte in dem Algorithmus, wenn es direkt berechnet würde, eine Berechnungskomplexität der Größenordnung (N3)2 haben. Da die inneren Produkte berechnungsintensiv sind, ist die gesamte Komplexität der Bilderfassung also (N3)2. Im Gegensatz dazu hat jede der vorgeschlagenen FFT eine Berechnungskomplexität der Größenordnung N3log2N3. Die Beschleunigung ist durch das Verhältnis N6/(N3log2N3) = N3/(3log2N) gegeben. Damit ist die Beschleunigung für ein 16 × 16 × 16-Volumen 64 mal und größer als 3,2 × 104 für ein 256 × 256 × 256-Volumen.
  • Ein weiterer Faktor von zwei Einsparungen in der Berechnungszeit kann gewonnen werden, indem die Tatsache ausgenutzt wird, dass alle FFT reell sind. Daher können alle FFT mit entsprechenden komplexen FFT mit der halben Anzahl von Punkten berechnet werden. Für eine Entwicklung der Mathematik von FFT siehe A. V. Oppenheim und R. W. Schafer, Digital Signal Processing, Prentice-Hall, New Jersey, 1975 (im Folgenden als Oppenheim bezeichnet).
  • Alternative Ausführungsbeispiele des beschriebenen Erfassungsverfahrens können erreicht werden, indem die Randbedingungen des Operators verändert werden. In dem offenbarten Ausführungsbeispiel ist das Minimierungsproblem mit zyklischen Randbedingungen formuliert. Der Fachmann wird erkennen, dass alternative Randbedingungen, wie Dirichlet-, Neumann-, oder gemischte Dirichlet- und Neumann-Randbedingungen auch geeignet sind. Die folgende Gleichung wird in einem Ausführungsbeispiel der vorliegenden Erfindung bei Verwendung einer Menge von gemischten Dirichlet- und Neumann-Randbedingungen verwendet:
    Figure 00260001
    wobei die Notation (x|xi = k) bedeutet, dass x in dem Modellbild ist, so dass xi = k. In diesem Fall wären die Eigenfunktionen von der Form:
    Figure 00260002
  • Ein Modifizieren der Randbedingungen erfordert ein Modifizieren der Schmetterlinge der FFT von komplexen Exponentialfunktionen zu entsprechenden Sinus- und Kosinusfunktionen.
  • In 7 illustrieren vier Bilder, Modellbild 700, Bild 704, Bild 706 und Zielbild 708 die Sequenz des Erfassens eines Modellbildes und eines Zielbildes. Das Modellbild 700 hat O-dimensionale Landmarkenmannigfaltigkeiten 702. Ein Anwenden der Landmarkenmannigfaltigkeitstransformation, die in Schritt 350 in 3 berechnet wird, auf das Bild 700 ergibt das Bild 704. Anwenden einer zweiten Transformation, die unter Verwendung der Synthesegleichung berechnet wird, die Landmarkenmannigfaltigkeiten und Bilddaten kombiniert, auf das Bild 700 ergibt das Bild 706. Das Bild 706 ist das Endergebnis des Erfassens des Modellbilds 700 mit dem Zielbild 708. Die Landmarkenmannigfaltigkeit 710 in dem Bild 708 entspricht der Landmarkenmannigfaltigkeit 702 in dem Modellbild 700.
  • Nun werden Techniken zum Erfassen von Bildern, die Großdeformationscharakteristika aufweisen können, unter Verwendung von Diffeomorphismen, Großdeformationstransformationsfunktionen und Transformationen, die fähig sind, Bilder anzupassen bzw. in Übereinstimmung zu bringen, bei denen die Veränderungen von einem Bild zu dem anderen größer als klein, linear oder affin sind, betrachtet. Die Verwendung von Großdeformationstransformationen ermöglichen die automatische Berechnung von Tangenten, Krümmung, Oberflächen und geometrische Eigenschaften der Bilddaten.
  • 2. Verfahren für großdeformationslandmarkenbasierte und bildbasierte Transformationen
  • Ein Ausführungsbeispiel in Übereinstimmung mit der vorliegenden Erfindung bildet Mengen von Landmarken in Bilddaten {xi, i = 1, 2, ..., N} ⊂ Ω in Ziellandmarken {yi, i = 1, ..., N} ab und/oder Bilddaten I0 in Ziel I1 sowohl mit als auch ohne Landmarken. Wenn es beispielsweise eine wohldefinierte Abstandsfunktion D(u(T)) gibt, die den Abstand zwischen den Landmarken und/oder den Bilddaten ausdrückt. Die Großdeformationsabbildungen h:Ω → Ω werden konstruiert, indem die Zeitvariable eingeführt wird h:(x, t) = (x1, x2, x3, t) ∊ Ω × [0, T] → h(x, t) = (x1 – u1(x, t), x2 – u2(x, t), x3 – u3(x, t)) ∊ Ω.
  • Die Großdeformationsabbildungen sind auf die Lösung h(x, T) = x – u(x, T) eingeschränkt, wobei u(x, T) als Lösung der gewöhnlichen Differentialgleichung
    Figure 00280001
    erzeugt wird, unter der Annahme, dass die {φk} eine vollständige orthonormale Basis bilden.
  • Dann ist ein Diffeomorphismus für die Landmarken- und Bildanpassungsprobleme durch die Abbildung der Bilddaten gegeben, die durch h ^(x, T) = x – u ^(x, T) gegeben ist, welche die gewöhnliche Differentialgleichung (GDGL) u ^(x, T) = ∫T0 (I – ∇ u ^(x, t))v ^(x, t)dt (40)erfüllt, wobei
    Figure 00280002
    L ist vorzugsweise ein linearer Differentialoperator, wobei die ϕk eine vollständige Orthonormalbasis als Eigenfunktionen Lϕk = λkϕk bilden.
  • 2.1 Großdeformationslandmarkenanpassung
  • Um Bilder mit großer Deformation unter Verwendung einer Landmarkenanpassungstechnik zu erfassen, werden N Landmarken in den zwei Anatomiezielen {xi, yi, i = 1, 2, ..., N} identifiziert. Die Landmarken werden mit sich verändernden Genauigkeitsgraden {Σi, i = 1, ..., N} identifiziert, wobei die Σi 3 × 3-Kovarianzmatrizen sind. Der Abstand zwischen den Ziel- und Modellbilddatenlandmarken, der vorzugsweise verwendet wird, ist definiert als
    Figure 00280003
  • Ein bevorzugter Diffeomorphismus ist der Minimierer von Gleichungen (40), (41) mit D(u(T)) dem Landmarkenabstand: u ^(x, T) = ∫T0 (I – ∇u(x, t) ^(x, t)dt (43)wobei
    Figure 00290001
  • Ein Verfahren zum Erfassen von Bildern, das mit der vorliegenden Erfindung in Übereinstimmung ist, umfasst vorzugsweise die folgenden Schritte:
    Schritt 0: Definiere eine Menge von Landmarken in dem Modell, die in dem Ziel einfach identifiziert werden können, {xi:xi ∊ Ω, i = 1, 2, ..., N} mit sich verändernden Genauigkeitsgraden in dem Ziel als {yi, i = 1, ..., N} mit zugeordneten Fehlerkovarianzen {Σi, i = 1, ..., N}, und initialisiere für n = 0, ν = 0.
    Schritt 1: Berechne die Geschwindigkeits- und Deformationsfelder:
    Figure 00290002
    Schritt 2: Löse über eine Sequenz von Optimierungsproblemen von grober zu feiner Skala über Schätzung der Basiskoeffizienten {νk}, analog zu Mehrgitterverfahren, wobei der Begriff der Verfeinerung von Grob nach Fein erzielt wird, indem die Anzahl von Basiskomponenten erhöht wird. Für jedes νk,
    Figure 00290003
    Schritt 3: Setze n ← n + 1, und kehre zu Schritt 1 zurück.
  • 2.2 Großdeformationsbildanpassung
  • Nun wird die Technik betrachtet, bei der ein Ziel- und Modellbild mit großer Deformation unter Verwendung der Bilderfassungstechnik erfasst werden. Der Abstand zwischen dem Ziel- und Modellbild wird gemäß Gleichung (47) gewählt. Eine diffeomorphe Abbildung wird mit Hilfe eines Bildtransformationsoperators und von Bildtransformationsrandwerten, die das Modellbild zu dem Zielbild in Beziehung setzt, berechnet. Anschließend wird das Modellbild mit dem Zielbild unter Verwendung der diffeomorphen Abbildung erfasst.
  • Gegeben zwei Bilder I0, I1, wähle den Abstand
    Figure 00300001
  • Die großdeformationsbildabstandsgetriebene Abbildung ist auf die Lösung h ^(x, T) = x – u ^(x, T) beschränkt, wobei u ^(x, T) = ∫T0 (I – ∇u ^(x, t)) ^(x, t)dt (48)und
  • Figure 00300002
  • Ein Verfahren zum Erfassen von Bildern, das mit der vorliegenden Erfindung in Übereinstimmung ist, umfasst vorzugsweise die folgenden Schritte:
    Schritt 0: Messe zwei Bilder I0, I1, definiert auf dem Einheitswürfel Ω ≐ [0,1]3
    Figure 00300003
    initialisiere Parameter für n = 0, νk (n) = 0, k = 0, 1, ... und definiere ein Abstandsmaß D(u(T)), Gleichung (47).
    Schritt 1: Berechne die Geschwindigkeits- und Deformationsfelder von ν(n):
    Figure 00310001
    Schritt 2: Löse die Optimierung über eine Sequenz von Optimierungsproblemen von grober zu feiner Skala über erneute Schätzung der Basiskoeffizienten {νk}, analog zu Mehrgitterverfahren, wobei der Begriff der Verfeinerung von Grob nach Fein erzielt wird, indem die Anzahl von Basiskomponenten erhöht wird. Für jedes νk,
    Figure 00310002
    Schritt 3: Setze n ← n + 1, und kehre zu Schritt 1 zurück.
  • Das Geschwindigkeitsfeld kann mit verschiedenen Randbedingungen konstruiert werden, z. B. ν(x, t) = 0, x ∊ ∂Ω und t ∊ [0, T], u(x, 0) = ν(x, 0) = 0. Der Differentialoperator L kann als irgendein Operator in der Klasse der linearen Differentialoperatoren gewählt werden; wir haben Operatoren der Form (–aΔ – b∇∇· + cI)p, p ≥ 1 verwendet. Die Operatoren sind 3 × 3-Matrizen
    Figure 00320001
  • 2.3 Kleindeformationslösung
  • Die Großdeformationscomputeralgorithmen können zu dem Kleindeformationsansatz, der in der '628-Anmeldung beschrieben ist, in Beziehung gesetzt werden, indem ν = u gewählt wird, so dass T = δ klein, dann wird I – ∇u(·, σ) ≈ I für σ ∊ [0, δ] approximiert, dann u ^(x, δ) = ν(x)δ und u(x) ≐ u(x, δ) definiert, so dass sich Gleichung (55) auf die in der '628-Anmeldung beschriebenen Kleindeformationsprobleme reduziert:
    Figure 00320002
  • 3. Verknüpfen von Großdeformationstransformation zum Vereinigen von Landmarken- und Bildanpassung
  • Der Ansatz zum Erzeugen einer hierarchischen Transformation, die Information kombiniert, besteht darin, Großdeformationstransformationen, die Diffeomorphismen sind und somit verknüpft werden können, zu verknüpfen h = hn ∘ ... h2 ∘ h1. Verschiedene Kombinationen von Transformationen können gewählt werden, inklusive der affinen Bewe gungen, starren Bewegungen, die aus den Untergruppen der verallgemeinerten linearen Gruppe erzeugt werden, Großdeformationslandmarkentransformationen, die Diffeomorphismen sind, oder den hochdimensionalen Großdeformationsbildanpassungstransformation. Dabei wird die Dimension der Transformation der Vektorfelder erhöht. Da diese alle Diffeomorphismen sind, können sie verknüpft werden.
  • 4. Schnelles Verfahren für Landmarkendeformationen, gegeben eine kleine Zahl von Landmarken
  • Für kleine Zahlen von Landmarken können wir das Problem unter Verwendung des Lagrange-Rahmens umparametrisieren, um die Optimierung über der Raumzeit Ω × T in N Funktionen der Zeit T zu diskretisieren. Dies reduziert die Komplexität um die Größenordnung, wie sie durch das Bildgitter [Ω] gegeben ist.
  • Dafür werden die Lagrange-Positionen der N Landmarken xi, i = 1, ..., N wie sie durch die Zeit ϕi(·), i = 1, ..., N fließen, mit dem zugehörigen 3N-Vektor definiert
    Figure 00330001
  • Die Teilchenflüsse Φ(t) sind durch die Geschwindigkeiten ν(·) gemäß der fundamentalen GDGL definiert
    Figure 00330002
  • Es ist nützlich, die 3N × 3N-Kovarianzmatrix K(Φ(t)) zu definieren:
    Figure 00340001
  • Die Inverse K(Φ(t))–1 ist eine N × N-Matrix mit 3 × 3-Blockeinträgen (K(Φ(t))–1)ij, i, j = 1, ..., N.
  • Für das Landmarkenanpassungsproblem sind N Landmarken gegeben, die in zwei Anatomiezielen {xi, yi, i = 1, 2, ..., N} identifiziert sind, die mit sich verändernden Genauigkeitsgraden {Σi, i = 1, ..., N} identifiziert werden, wobei die Σi 3 × 3-Kovarianzmatrizen sind.
  • Der quadrierte Fehlerabstand zwischen den Ziel- und Modellbilddaten, definiert in den Lagrange-Trajektorien der Landmarken, wird
    Figure 00340002
  • Dann ist ein bevorzugter Diffeomorphismus der Minimierer von Gleichungen (40), (41) mit D1(Φ(T)) dem Landmarkenabstand:
    Figure 00340003
  • Ein schnelles Verfahren für kleine Zahlen von Landmarkenanpassungspunkten nutzt die Tatsache aus, dass es, wenn es viel weniger Landmarken N als Punkte in dem Bild x ∊ Ω gibt, das folgende äquivalente Optimierungsproblem in den N Lagrange-Geschwindigkeitsfeldern ϕ(xi, ·), I = 1, ..., N gibt, das berechnungseffizienter als die Op timierung der Euler'schen Geschwindigkeit ν(xi, ·), x ∊ Ω, (|Ω| >> N) ist. Dann wird das äquivalente Optimierungsproblem zu
    Figure 00350001
    und&#981; ^(x, T) = ∫T0 ^(&#981; ^(x, t), σ)dσ + x. (64)
  • Dies reduziert sich zu einem endlichdimensionalen Problem, indem die Flüsse auf den endlichen Zeitgittern definiert werden, wobei Schrittgrößen 6 mit stückweise konstanten Lagrange-Geschwindigkeiten innerhalb der quantisierten Zeitintervalle angenommen wird:
    Figure 00350002
  • Dann wird das endlichdimensionale Minimierungsproblem
    Figure 00350003
    mit ϕ(xi, 0) = xi, i = 1, ..., N
  • Das Verfahren:
  • Um das Modellbild mit dem Zielbild richtig zu erfassen, wenn eine kleine Anzahl von Landmarken identifiziert wurde, verwendet das Verfahren des vorliegenden Ausfüh rungsbeispiels die Lagrange-Positionen. Das Verfahren zum Erfassen von Bildern, das mit der vorliegenden Erfindung in Übereinstimmung ist, umfasst die folgenden Schritte:
    Schritt 0: Definiere eine Menge von Landmarken in dem Modell, die in dem Ziel einfach identifiziert werden können, {xi:xi ∊ Ω, i = 1, 2, ..., N} mit sich verändernden Genauigkeitsgraden in dem Ziel als {yi, i = 1, ..., N} mit zugehörigen Fehlerkovarianzen {Σi, i = 1, ..., N}, und initialisiere für
    Schritt 1: Berechne Geschwindigkeits- und Deformationsfelder:
    Figure 00360001
    Schritt 2: Löse über die Schätzung der Lagrange-Positionen ϕ(k), k = 1, ..., K. Für jedes ϕ(xi, k)
    Figure 00360002
    Schritt 3: Setze n ← n + 1, und kehre zu Schritt 1 zurück.
    Schritt 4: Nach Anhalten berechne das optimale Geschwindigkeitsfeld unter Verwendung von Gleichung (62) und transformiere unter Verwendung von Gleichung (64).
  • 5. Schnelle gefräßige Implementierung von Großdeformationsbildanpassung
  • Für das Bildanpassen wird die Raumzeit Ω × T in eine Sequenz von indizierten Zeitoptimierungen diskretisiert, das lokale Optimum bei jeder Zeittransformation gelöst und dann die Lösung vorwärts integriert. Dies reduziert die Dimension der Optimierung und erlaubt die Verwendung von Fourier-Transformationen.
  • Die Transformation h(·, t):Ω → Ω, wobei h(x, t) = x – u(x, t) und die Transformation und Geschwindigkeitsfelder sind über die GDGL ν(x, t) =
    Figure 00370001
    + ∇u(x, t)ν(x, t),t ∊ [0, T] in Beziehung gesetzt. Vorzugsweise sind die Deformationsbilder aus den Geschwindigkeitsfeldern erzeugt, die als stückweise konstant über quantisierten Zeitinkrementen angenommen werden, ν(x, i) = ν(x, ti+1), t ∊ [iδ, (i + 1) δ), i = 1, ..., I =
    Figure 00370002
    das quantisierte Zeitinkrement. Dann ist die Sequenz von Deformationen u(x, ti), i = 1, ..., I gegeben durch u(x, ti+1) = u(x, tt) + ν(x, tt)(∫ti+1ti (I – ∇u(x, σ))dσ), i = , ..., I. (68)
  • Für kleines δ wird ∇u(x, σ) ≈ ∇u(x, ti), σ ∊ [t1, ti+1] approximiert, dann wird die globale Optimierung über eine Sequenz von lokal optimalen Lösungen gelöst, gemäß für ti, i = 1, ..., I
    Figure 00370003
  • Die Sequenz lokaler optimaler Geschwindigkeitsfelder v ^(x, ti), i = 1, ... I erfüllt die PDGL LfLv ^(x, ti + 1) = b(x, u ^(x, ti+1)), wobei u ^(x, ti+j) = u ^(x, tt) + δ(I – ∇u ^(x, tt)) ^(x, tt). (70)
  • Beispiele von Randbedingungen umfassen ν(x, t) = 0, x ∊ ∂Ω und t ∊[0, T] und L der lineare Differentialoperator L = –a∇2 – b∇·∇ + cI. Die Körperkraft b(x – u(x, t)) ist durch die Variation des Abstands D(u) bezüglich des Felds zur Zeit t gegeben. Die PDGL wird numerisch gelöst (G. E. Christensen, R. D. Rabbitt und M. I. Miller, "Deformable templates using large deformation kinematics", IEEE Transactions on Image Processing, 5 (10): 1435–1447, Oktober 1996 für Details (im Folgenden als Christensen bezeichnet)).
  • Um die Felder u(·, ti) für jedes ti zu lösen, werden die Geschwindigkeitsfelder ΣkVk(tik(·)·ν(·,ti) = ΣkVk(ti)ϕk(·) entwickelt. Um die von den iterativen Algorithmen erforderten inneren Produkte zu verschiebungsinvarianten Faltungen zu machen, werden die Differential- und Differenzoperatoren L gezwungen, auf eine periodische Version des Einheitswürfels Ω ≐ [0, 1]3 und des diskreten Gitterwürfels {0, 1, ..., N – 1}3 definiert zu sein. f·g bezeichnet das innere Produkt f·g = Σ3 i = 1 figi für f, g ∊ R3. Die Operatoren sind zyklisch stationär im Raum, was impliziert, dass ihre Eigenfunktionen die Form von komplexen Exponentialfunktionen auf diesen Würfeln haben:
    Figure 00380001
    k1, ωk2, ωk3),ωk1 = 2 πki, i = 1, 2, 3 und die Fourier-Basis für periodische Funktionen auf [0,1]3 nimmt die Form
    Figure 00380002
    an. Auf dem diskreten N3-periodischen Gitter ist
    Figure 00380003
    , x ∊ {0, 1, ..., N – 1}3. Dies unterstützt eine effiziente Implementierung des obigen Algorithmus unter Verwendung der schnellen Fourier-Transformation (FFT).
  • Ein Unterdrücken des d-Subskripts in νk,d und die Summierung von d = 1 bis 3 für den Rest dieses Abschnitts vereinfacht die Notation. Die komplexen Koeffizienten νk(ti) = ak(ti) + bk(ti) haben komplexkonjugierte Symmetrie, da sie berechnet werden, indem die FFT einer reellwertigen Funktion genommen wird, wie man später in diesem Abschnitt sehen wird. Zusätzlich haben die Eigenfunktionen komplexkonjugierte Symmetrie aufgrund der 2π-Periodizität der komplexen Exponentialfunktionen. Unter Verwendung dieser beiden Tatsachen kann gezeigt werden, dass das Vektorfeld
    Figure 00380004
    R3-wertig ist, obwohl sowohl νk(ti) und ϕk(x) komplexwertig sind. Das Minimierungsproblem wird gelöst, indem für jedes νk = ak + bk
    Figure 00390001
    berechnet wird mit gk ∊ {ak, bk}. Kombinieren der Gleichungen (70) und (71) und Bilden der Ableitungen ergibt
    Figure 00390002
  • Betrachte die Berechnung der folgenden Terme des Algorithmus aus Gleichungen (73)
    Figure 00390003
  • Berechnung von Term 1:
  • Der erste Term ist gegeben durch
    Figure 00390004
    was geschrieben werden kann als
    Figure 00390005
  • Diese Gleichung kann unter Verwendung von drei 3D-FFT der Form
    Figure 00400001
    berechnet werden und s = 1, 2, 3. Diese FFT werden verwendet, um Gleichung (72) auszuwerten unter Beachtung von:
    Figure 00400002
  • Berechnung von Term 2:
  • Der zweite Term ist gegeben durch
    Figure 00400003
    der unter Verwendung von drei 3D-FFT effizient berechnet werden kann. Speziell die 3D-FFT sind
    Figure 00400004
  • Verwenden der FFT, um die Terme in dem Verfahren zu berechnen, stellt eine wesentliche Abnahme in Berechnungszeit gegenüber einer Brute-Force-Berechnung bereit. Beispielsweise nehme man an, dass 2563-Voxeldatenvolumen verarbeitet werden sollen. Die Anzahl von Iterationen ist die gleiche sowohl in FFT- und Brute-Force-Berechnungsverfahren und trägt daher zu unserer vorliegenden Berechnung nichts bei. Für jede 3D-Summierung in dem Verfahren erfordert die Brute-Force-Berechnung in der Größenord nung von N6-Berechnungen, während die FFT in der Größenordnung von 3N3log2(N) Berechnungen erfordert. Für N3 = 2563-Voxeldatenvolumen ergibt dies etwa eine 7 × 105-Beschleunigung für den FFT-Algorithmus verglichen mit der Brute-Force-Berechnung.
  • 6. Algorithmen mit schneller Konvergenz für Großdeformationsvolumentransformation
  • Schneller konvergierende Algorithmen als Gradientenabstieg existieren, wie das konjugierte Gradientenvertahren, für das die Basiskoeffizienten νk mit optimalen Schrittgrößen auf den neuen Stand gebracht werden.
  • Der identische Ansatz unter Verwendung FFT folgt wie in der '628-Anmeldung. Identische Beschleunigungen können erzielt werden; siehe die '628-Anmeldung.
  • 6.1 Eine Erweiterung auf allgemeine Abstandsfunktionen
  • Bis jetzt wurde nur die Gauss'sche Abstandsfunktion beschrieben, die die Ungleichheit zwischen den Bilddaten ist, ∫|I0(x – u(x)) – I1(x)|2dx. Allgemeinere Abstandsfunktionen können geschrieben werden als ∫D(I0(x – u(x)), I1(x)dx. Eine große Vielfalt von Abstandsfunktionen ist nützlich für die vorliegende Erfindung, wie der Korrelationsabstand oder der Kullback-Liebler-Abstand können in dieser Form beschrieben werden.
  • 6.2 Berechnungskomplexität
  • Die Berechnungskomplexität der hier beschriebenen Verfahren ist verringert, verglichen mit der direkten Berechnung der inneren Produkte. Unter der Annahme, dass das Bild auf einem Gitter der Größe N3 diskretisiert ist, würde jedes der inneren Produkte in dem Algorithmus, wenn es direkt berechnet würde, eine Berechnungskomplexität von O((N3)2) haben. Da die inneren Produkte am berechnungsintensivsten sind, ist die gesamte Komplexität des Verfahrens O((N3)2). Im Gegensatz hierzu haben die vorgeschlagenen FFT eine Berechnungskomplexität von O(N3log2N3), und somit ist die totale Komplexität des vorgeschlagenen Algorithmus O(N3log2N3). Die Beschleunigung ist gegeben durch das Verhältnis N6/(N3log2N3) = N3/(3log2N). Daher ist die Beschleunigung 64 mal für ein 16 × 16 × 16-Volumen und größer als 3,2 × 104 für ein 256 × 256 × 256-Volumen.
  • Ein weiterer Faktor von zwei Einsparungen in Berechnungszeit kann gewonnen werden, indem die Tatsache ausgenutzt wird, dass alle FFT reell sind. Daher können alle FFT mit entsprechenden komplexen FFT mit der halben Zahl von Punkten berechnet werden (siehe Oppenheim).
  • 6.3 Randbedingungen des Operators
  • Weitere Methoden, ähnlich zu den soeben beschriebenen, können erhalten werden, indem die Randbedingungen des Operators verändert werden. In dem vorangegangenen Abschnitt wurde das Minimierungsproblem mit zyklischen Randbedingungen formuliert. Alternativ könnten wir die gemischten Dirichlet- und Neumann-Randbedingungen verwenden, die
    Figure 00420001
    |(x|xi = k) = ui(x|xj = k) = 0 entsprechen, für i, j = 1, 2, 3; i ≠ j; k = 0, 1, wobei die Notation (x|xi = k) bedeutet, dass x ∊ Ω, so dass xi = k. In diesem Fall wären die Eigenfunktionen von der Form
    Figure 00420002
  • Die in Abschnitt 5 aufgestellte Implementierung wird für verschiedene Randbedingungen modifiziert, indem die Schmetterlinge der FFT von komplexen Exponentialfunktionen zu passenden Sinusfunktionen und Kosinusfunktionen geändert werden.
  • 7. Vorrichtung zur Bilderfassung
  • 2 zeigt eine Vorrichtung, um ein Ausführungsbeispiel der vorliegenden Erfindung durchzuführen. Ein medizinischer Bildabtaster 214 erhält Bilder 100 und 120 und speichert sie in dem Computerspeicher 206, der mit der Computerzentraleinheit (CPU) 204 verbunden ist. Der Fachmann wird erkennen, dass eine parallele Computerplattform mit mehrfachen CPUs auch eine geeignete Hardware-Plattform für die vorliegende Erfindung ist, umfassend, aber nicht beschränkt auf massiv parallele Maschinen und Workstations mit mehrfachen Prozessoren. Der Computerspeicher 206 kann direkt mit der CPU 204 verbunden sein, oder dieser Speicher kann entfernt über ein Kommunikationsnetzwerk verbunden sein.
  • Das hier beschriebene Verfahren verwendet Informationen, die entweder durch einen Bediener bereitgestellt wird, als Default gespeichert oder automatisch über die verschiedenen Substrukturen des Modells und des Ziels und sich verändernden Wissensgraden über diese Substrukturen bestimmt wird, die aus anatomischen Bilddaten abgeleitet wird, und aus Modalitäten wie aus CT, MRI, funktionales MRI, PET, Ultraschall, SPECT, MEG, EEG oder Cryosektion abgeleitet wird. Zum Beispiel kann ein Bediener einen Cursor 210 unter Verwendung der Zeigervorrichtung 208 führen, um in dem Bild 100 auszuwählen.
  • Die vorangegangene Beschreibung von bevorzugten Ausführungsbeispielen der vorliegenden Erfindung wurde zur Illustration und Beschreibung bereitgestellt. Sie soll nicht erschöpfend sein oder die Erfindung auf die genauen offenbarten Ausführungsformen beschränken. Offensichtlich werden viele Modifizierungen, Variationen und einfache Abweichungen den Fachleuten offensichtlich sein. Die Ausführungsformen wurden ausgewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktische Anwendung am besten zu erklären, um auf diese Weise anderen Fachleuten zu ermöglichen, die Erfindung für verschiedene Ausführungsformen und verschiedene Modifizierungen für die spezielle beabsichtigte Verwendung zu verstehen. Es ist vorgesehen, dass der Schutzbereich der Erfindung durch die folgenden Ansprüche definiert ist.

Claims (51)

  1. Verfahren zum Erfassen eines Modellbildes mit einem Zielbild, wobei das Modellbild eine Mehrzahl von Punkten umfasst und das Zielbild eine Mehrzahl von Punkten umfasst, umfassend die Schritte: Definieren eines Mannigfaltigkeitslandmarkenpunkts in dem Modellbild; Identifizieren eines Punkts in dem Zielbild, der dem definierten Mannigfaltigkeitslandmarkenpunkt entspricht; Berechnen einer Großdeformationstransformation, die injektiv und surjektiv ist, für jeden in dem Modell- und Zielbild ausgewählten Punkt unter Verwendung eines Mannigfaltigkeitslandmarkentransformationsoperators und eines Mannigfaltigkeitslandmarkentransformationsrandwerts, die den Mannigfaltigkeitslandmarkenpunkt in dem Modellbild zu dem entsprechenden Punkt in dem Zielbild in Beziehung setzt; und Erfassen des Modellbildes mit dem Zielbild unter Verwendung der Großdeformationstransformation.
  2. Vorrichtung zum Erfassen eines Modellbildes mit einem Zielbild, wobei das Modellbild eine Mehrzahl von Punkten umfasst und das Zielbild eine Mehrzahl von Punkten umfasst, umfassend: Mittel zum Definieren eines Mannigfaltigkeitslandmarkenpunkts in dem Modellbild; Mittel zum Identifizieren eines Punkts in dem Zielbild, der dem definierten Mannigfaltigkeitslandmarkenpunkt entspricht; Mittel zum Berechnen einer Großdeformationstransformation, die injektiv und surjektiv ist, für jeden in dem Modell- und Zielbild ausgewählten Punkt unter Verwendung eines Mannigfaltigkeitslandmarkentransformationsoperators und eines Mannigfaltigkeitslandmarkentransformationsrandwerts, die den Mannigfaltigkeitslandmarkenpunkt in dem Modellbild zu dem entsprechenden Punkt in dem Zielbild in Beziehung setzt; und Mittel zum Erfassen des Modellbildes mit dem Zielbild unter Verwendung der Großdeformationstransformation.
  3. Verfahren zum Erfassen eines Modellbildes mit einem Zielbild, umfassend die Schritte: Definieren eines Abstandsmaßes zwischen dem Ziel- und dem Modellbild; Berechnen einer Großdeformationstransformation, die injektiv und surjektiv ist, für jeden in dem Modell- und Zielbild ausgewählten Punkt unter Verwendung eines Bildtransformationsoperators und eines Bildtransformationsrandwerts, die das Modellbild zu dem Zielbild in Beziehung setzt; und Erfassen des Modellbilds mit dem Zielbild unter Verwendung der Großdeformationstransformation.
  4. Vorrichtung zum Erfassen eines Modellbildes mit einem Zielbild, umfassend: Mittel zum Definieren eines Abstandsmaßes zwischen dem Zielbild und dem Modellbild; Mittel zum Berechnen einer Großdeformationstransformation, die injektiv und surjektiv ist, für jeden in dem Modell- und Zielbild ausgewählten Punkt unter Verwendung eines Bildtransformationsoperators und eines Bildtransformationsrandwerts, die das Modellbild zu dem Zielbild in Verbindung setzt; und Mittel zum Erfassen des Modellbilds mit dem Zielbild unter Verwendung der Großdeformationstransformation.
  5. Verfahren zum Erfassen eines Modellbildes mit einem Zielbild, wobei das Modellbild eine Mehrzahl von Punkten umfasst und das Zielbild eine Mehrzahl von Punkten umfasst, umfassend die Schritte: Definieren eines Mannigfaltigkeitslandmarkenpunkts in dem Modellbild; Identifizieren eines Punkts in dem Zielbild, der dem definierten Mannigfaltigkeitslandmarkenpunkt entspricht; Berechnen einer ersten Großdeformationstransformation unter Verwendung eines Mannigfaltigkeitslandmarkentransformationsoperators und eines Mannigfaltigkeitslandmarkentransformationsrandwerts, die den Mannigfaltigkeitslandmarkenpunkt in dem Modellbild zu dem entsprechenden Punkt in dem Zielbild in Verbindung setzt; Definieren eines Abstandsmaßes zwischen dem Ziel- und dem Modellbild; Berechnen einer zweiten Großdeformationstransformation unter Verwendung eines Bildtransformationsoperators und eines Bildtransformationsrandwerts, die das Modellbild zu dem Zielbild in Verbindung setzt; Verschmelzen der ersten und zweiten Großdeformationstransformationen; und Erfassen des Modellbilds mit dem Zielbild unter Verwendung der verschmolzenen Großdeformationstransformation.
  6. Vorrichtung zum Erfassen eines Modellbilds mit einem Zielbild, wobei das Modellbild eine Mehrzahl von Punkten umfasst und das Zielbild eine Mehrzahl von Punkten umfasst, umfassend: Mittel zum Definieren eines Mannigfaltigkeitslandmarkenpunkts in dem Modellbild; Mittel zum Identifizieren eines Punkts in dem Zielbild, der dem definierten Mannigfaltigkeitslandmarkenpunkt entspricht; Mittel zum Berechnen einer ersten Großdeformationstransformation unter Verwendung eines Mannigfaltigkeitslandmarkentransformationsoperators und eines Mannigfaltigkeitslandmarkentransformationsrandwerts, die den Mannigfaltigkeitslandmarkenpunkt in dem Modellbild zu dem entsprechenden Punkt in dem Zielbild in Beziehung setzt; Mittel zum Definieren eines Abstandsmaßes zwischen dem Ziel- und dem Modellbild; Mittel zum Berechnen einer zweiten Großdeformationstransformation unter Verwendung eines Bildtransformationsoperators und eines Bildtransformationsrandwertes, die das Modellbild zu dem Zielbild in Beziehung setzt; Mittel zum Verschmelzen der ersten und zweiten Großdeformationstransformation; und Mittel zum Erfassen des Modellbilds mit dem Zielbild unter Verwendung der verschmolzenen Großdeformationstransformationen.
  7. Verfahren nach Anspruch 1, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen, nichtaffinen Transformation umfasst.
  8. Verfahren nach Anspruch 1, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen Transformation höherer Ordnung umfasst.
  9. Verfahren nach Anspruch 3, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen, nichtaffinen Transformation umfasst.
  10. Verfahren nach Anspruch 3, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen, Transformation höherer Ordnung umfasst.
  11. Verfahren nach Anspruch 5, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen, nichtaffinen Transformation umfasst.
  12. Verfahren nach Anspruch 5, wobei der Schritt des Berechnens der Großdeformationstransformation weiterhin den Unterschritt eines Berechnens einer diffeomorphen Transformation höherer Ordnung umfasst.
  13. Verfahren nach Anspruch 1 oder 5, wobei der Schritt des Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild den Unterschritt umfasst: Definieren von Mannigfaltigkeitslandmarkenpunkten von Dimension größer Null in dem Modellbild.
  14. Verfahren nach Anspruch 1 oder 5, wobei der Schritt des Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild den Unterschritt umfasst: Definieren von einzelnen Punkten in dem Modellbild.
  15. Verfahren nach Anspruch 1 oder 5, wobei der Schritt des Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild den Unterschritt umfasst: Definieren von Punkten einer Kurve in dem Modellbild.
  16. Verfahren nach Anspruch 1 oder 5, wobei der Schritt des Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild den Unterschritt umfasst: Definieren von Punkten einer Fläche in dem Modellbild.
  17. Verfahren nach Anspruch 1 oder 5, wobei der Schritt des Definierens von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild den Unterschritt umfasst: Definieren von Punkten eines Volumens in dem Modellbild.
  18. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden eines linearen differenzierbaren Operators.
  19. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden periodischer Randwerte.
  20. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden unendlicher Randwerte.
  21. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden gemischter Dirichlet- und Neumann-Randwerte.
  22. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden von Neumann-Randwerten.
  23. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden von Dirichlet-Randwerten.
  24. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Zugreifen auf gespeicherte vorberechnete Transformationswerte.
  25. Verfahren nach Anspruch 1, 3 oder 5, wobei der Schritt des Berechnens der Großdeformationstransformation den Unterschritt umfasst: Verwenden einer schnellen Fouriertransformation.
  26. Vorrichtung nach Anspruch 2, wobei die Großdeformationstransformation eine diffeomorphe, nichtaffine Transformation ist.
  27. Vorrichtung nach Anspruch 2, wobei die Großdeformationstransformation eine diffeomorphe Transformation höherer Ordnung ist.
  28. Vorrichtung nach Anspruch 4, wobei die Großdeformationstransformation eine diffeomorphe, nichtaffine Transformation ist.
  29. Vorrichtung nach Anspruch 4, wobei die Großdeformationstransformation eine diffeomorphe Transformation höherer Ordnung ist.
  30. Vorrichtung nach Anspruch 6, wobei die Großdeformationstransformation eine diffeomorphe, nichtaffine Transformation ist.
  31. Vorrichtung nach Anspruch 6, wobei die Großdeformationstransformation eine diffeomorphe Transformation höherer Ordnung ist.
  32. Vorrichtung nach Anspruch 2 oder 6, wobei die Mittel zum Definieren der Mannigfaltigkeitslandmarkenpunkte in dem Modellbild umfassen: Mittel zum Definieren von Mannigfaltigkeitslandmarkenpunkten von Dimension größer Null in dem Modellbild.
  33. Vorrichtung nach Anspruch 2 oder 6, wobei die Mittel zum Definieren von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild umfassen: Mittel zum Definieren einzelner Punkte in dem Modellbild.
  34. Vorrichtung nach Anspruch 2 oder 6, wobei die Mittel zum Definieren von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild umfassen: Mittel zum Definieren von Punkten einer Kurve in dem Modellbild.
  35. Vorrichtung nach Anspruch 2 oder 6, wobei die Mittel zum Definieren von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild umfassen: Mittel zum Definieren von Punkten einer Fläche in dem Modellbild.
  36. Vorrichtung nach Anspruch 2 oder 6, wobei die Mittel zum Definieren von Mannigfaltigkeitslandmarkenpunkten in dem Modellbild umfassen: Mittel zum Definieren von Punkten eines Volumens in dem Modellbild.
  37. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden eines linearen differenzierbaren Operators.
  38. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden periodischer Randwerte.
  39. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden unendlicher Randwerte.
  40. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden gemischter Dirichlet- und Neumann-Randwerte.
  41. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden von Neumann-Randwerten.
  42. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Verwenden von Dirichlet-Randwerten.
  43. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Mittel zum Zugreifen auf gespeicherte vorberechnete Transformationswerte.
  44. Vorrichtung nach Anspruch 2, 4 oder 6, wobei die Mittel zum Berechnen der Großdeformationstransformation umfassen: Verwenden einer schnellen Fouriertransformation.
  45. Vorrichtung nach Anspruch 2, wobei das Mittel zum Definieren eines Mannigfaltigkeitslandmarkenpunkts und das Mittel zum Identifizieren eines Punkts eine Zeigervorrichtung umfassen; das Mittel zum Berechnen einer Großdeformationstransformation eine erste Datenverarbeitungseinheit umfasst; und das Mittel zum Erfassen eine zweite Datenverarbeitungseinheit umfasst.
  46. Vorrichtung nach Anspruch 4, wobei das Mittel zum Definieren eines Abstandsmaßes einen Abstandsquantifizierer umfasst; das Mittel zum Berechnen einer Großdeformationstransformation eine erste Datenverarbeitungseinheit umfasst; und das Mittel zum Erfassen des Modellbilds mit dem Zielbild eine zweite Datenverarbeitungseinheit umfasst.
  47. Vorrichtung nach Anspruch 6, wobei das Mittel zum Definieren eines Mannigfaltigkeitslandmarkenpunkts und das Mittel zum Identifizieren eines Punkts eine Zeigervorrichtung umfassen; das Mittel zum Berechnen einer ersten Deformationstransformation eine erste Datenverarbeitungseinheit umfasst; das Mittel zum Definieren eines Abstandsmaßes einen Abstandsquantifizierer umfasst; das Mittel zum Berechnen einer zweiten Großdeformationstransformation eine zweite Datenverarbeitungseinheit umfasst; das Mittel zum Verschmelzen der ersten und zweiten Großdeformationstransformationen eine dritte Datenverarbeitungseinheit umfasst; und das Mittel zum Erfassen des Modellbilds mit dem Zielbild eine vierte Datenverarbeitungseinheit umfasst.
  48. Verfahren nach Anspruch 3, wobei das Berechnen der Großdeformationstransformation ein Berechnen einer diffeomorphen Transformation unter Verwendung des Abstandsmaßes ist.
  49. Vorrichtung nach Anspruch 4, wobei das Mittel zum Berechnen der Großdeformationstransformation das Abstandsmaß verwendet und die Großdeformationstransformation eine diffeomorphe Transformation ist.
  50. Verfahren nach Anspruch 5, wobei die erste Großdeformationstransformation eine erste diffeomorphe Transformation ist; und die zweite Großdeformationstransformation eine zweite diffeomorphe Transformation ist.
  51. Vorrichtung nach Anspruch 6, wobei die erste Großdeformationstransformation eine erste diffeomorphe Transformation und die zweite Großdeformationstransformation eine zweite diffeomorphe Transformation ist.
DE69817879T 1997-11-07 1998-11-06 Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation Expired - Lifetime DE69817879T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US6461597P 1997-11-07 1997-11-07
US64615 1997-11-07
US186359 1998-11-05
US09/186,359 US6226418B1 (en) 1997-11-07 1998-11-05 Rapid convolution based large deformation image matching via landmark and volume imagery
PCT/US1998/023619 WO1999024932A1 (en) 1997-11-07 1998-11-06 Rapid convolution based large deformation image matching via landmark and volume imagery

Publications (2)

Publication Number Publication Date
DE69817879D1 DE69817879D1 (de) 2003-10-09
DE69817879T2 true DE69817879T2 (de) 2004-05-19

Family

ID=26744703

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69817879T Expired - Lifetime DE69817879T2 (de) 1997-11-07 1998-11-06 Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation

Country Status (8)

Country Link
US (1) US6226418B1 (de)
EP (1) EP1057137B1 (de)
JP (1) JP2001523027A (de)
AT (1) ATE249071T1 (de)
AU (1) AU1383799A (de)
CA (1) CA2308499A1 (de)
DE (1) DE69817879T2 (de)
WO (1) WO1999024932A1 (de)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975764B1 (en) * 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6754374B1 (en) 1998-12-16 2004-06-22 Surgical Navigation Technologies, Inc. Method and apparatus for processing images with regions representing target objects
WO2000036565A1 (en) * 1998-12-16 2000-06-22 Miller Michael I Method and apparatus for processing images with regions representing target objects
US6694057B1 (en) 1999-01-27 2004-02-17 Washington University Method and apparatus for processing images with curves
US6611615B1 (en) 1999-06-25 2003-08-26 University Of Iowa Research Foundation Method and apparatus for generating consistent image registration
DE19946429A1 (de) * 1999-09-28 2001-04-05 Stefan Vilsmeier Kontinuierliche Erfassung und Analyse von Gewebeveränderungen
US6718192B1 (en) * 1999-11-24 2004-04-06 Ge Medical Systems Global Technology Company, Llc Method and apparatus for real-time 3D image rendering on a picture archival and communications system (PACS) workstation
US6903742B1 (en) * 1999-12-01 2005-06-07 Microsoft Corporation Method and apparatus for transforming and rendering graphical curves
FR2806611B1 (fr) * 2000-03-22 2004-10-15 Hossein Kafai Appareil d'echographie pour l'exploration d'articulation temporo-mandibulaire
US7672712B2 (en) * 2000-03-30 2010-03-02 The Regents Of The University Of Michigan Internal marker device for identification of biological substances
JP2001283190A (ja) * 2000-03-30 2001-10-12 Fuji Photo Film Co Ltd 画像処理装置
US20030135105A1 (en) * 2000-04-26 2003-07-17 Jack Clifford R. Alignment of multiple MR images using navigator signals
US6728582B1 (en) * 2000-12-15 2004-04-27 Cognex Corporation System and method for determining the position of an object in three dimensions using a machine vision system with two cameras
US20030210820A1 (en) * 2002-05-07 2003-11-13 Rainer Lachner Method and device for localizing a structure in a measured data set
US7171057B1 (en) * 2002-10-16 2007-01-30 Adobe Systems Incorporated Image blending using non-affine interpolation
FI113615B (fi) * 2002-10-17 2004-05-31 Nexstim Oy Kallonmuodon ja sisällön kolmiulotteinen mallinnusmenetelmä
DE10253784A1 (de) * 2002-11-19 2005-06-02 Universität Zu Lübeck Verfahren zur Bildregistrierung
JP2006522411A (ja) * 2003-03-06 2006-09-28 アニメトリックス,インク. 複数の特徴を含むオブジェクトの画像データベースの生成
US7643671B2 (en) * 2003-03-24 2010-01-05 Animetrics Inc. Facial recognition system and method
DE10315592B4 (de) * 2003-04-05 2009-01-02 Leica Microsystems Cms Gmbh Verfahren zum Ausführen von Interaktionen an sich räumlich und zeitlich verändernden mikroskopischen Objekten und System hierzu
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
DE602004031551D1 (de) * 2003-12-11 2011-04-07 Philips Intellectual Property Elastische bildregistration
JP2005185565A (ja) * 2003-12-25 2005-07-14 Olympus Corp 医療情報処理システム
IT1337796B1 (it) * 2004-05-11 2007-02-20 Fausto Siri Procedimento per il riconoscimento, l'analisi e la valutazione delle deformazioni in particolare in automezzi
US7616836B2 (en) * 2004-05-25 2009-11-10 Siemens Medical Solutions Usa, Inc. Method and system for motion compensation in a temporal sequence of images
DE102004032914A1 (de) * 2004-07-07 2006-02-02 Siemens Ag Verfahren zur Bestimmung einer Koordinatentransformation von Bildkoordinaten verschiedener Bilder eines Objekts
US7715607B2 (en) * 2004-07-26 2010-05-11 Agency For Science, Technology And Research Automated method for identifying landmarks within an image of the brain
WO2006018761A1 (en) * 2004-08-13 2006-02-23 Koninklijke Philips Electronics N.V. Radiotherapeutic treatment plan adaptation
US7555151B2 (en) * 2004-09-02 2009-06-30 Siemens Medical Solutions Usa, Inc. System and method for tracking anatomical structures in three dimensional images
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
EP1643444B1 (de) * 2004-10-01 2008-08-13 MedCom Gesellschaft für medizinische Bildverarbeitung mbH Registrierung eines Ultraschallbildes mit einem Bild aus einem 3D-Scan, beispielsweise von einer Computertomographie (CT) oder Magnetspintomographie (MR)
US7555143B2 (en) * 2005-02-09 2009-06-30 Lawrence Livermore National Security, Llc Real-time geo-registration of imagery using COTS graphics processors
JP5366356B2 (ja) * 2005-04-15 2013-12-11 株式会社東芝 医用画像処理装置及び医用画像処理方法
FR2885717B1 (fr) * 2005-05-16 2007-08-03 Gen Electric Procede d'estimation de correction d'une image et dispositif d'angiographie le mettant en oeuvre
US20070014448A1 (en) * 2005-06-30 2007-01-18 Wheeler Frederick W Method and system for lateral comparative image analysis and diagnosis
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
BRPI0621711A2 (pt) * 2006-06-06 2012-09-18 Halliburton Energy Serv Inc aparelho, sistema e método para tipificação de fluido, e, meio legìvel por computador
CN100411587C (zh) * 2006-07-06 2008-08-20 上海交通大学 基于机器学习的立体核磁共振脑图像弹性配准方法
US8160332B2 (en) * 2006-10-03 2012-04-17 Koninklijke Philips Electronics N.V. Model-based coronary centerline localization
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
DE102007031930A1 (de) * 2007-07-09 2009-01-29 Siemens Ag Verfahren und Vorrichtung zum bildlichen Darstellen von funktionellen Vorgängen im Gehirn
WO2009016530A2 (en) 2007-07-27 2009-02-05 Koninklijke Philips Electronics N.V. Interactive atlas to image registration
JP5322416B2 (ja) * 2007-09-12 2013-10-23 株式会社メガチップス ブロックマッチング回路及びデータ更新方法
US8265361B2 (en) 2007-10-26 2012-09-11 Brainlab Ag Automatic transfer of outlined objects from one data set into another data set
US8155387B2 (en) * 2008-10-13 2012-04-10 International Business Machines Corporation Method and system for position determination using image deformation
JP5355074B2 (ja) * 2008-12-26 2013-11-27 キヤノン株式会社 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム
WO2010120534A1 (en) 2009-03-31 2010-10-21 Whitten Matthew R System and method for radiation therapy treatment planning using a memetic optimization algorithm
JP5610129B2 (ja) * 2010-03-26 2014-10-22 富士通株式会社 3次元テンプレート変形方法、装置及びプログラム
US20130172727A1 (en) 2010-04-30 2013-07-04 The Johns Hopkins University Intelligent Atlas for Automatic Image Analysis of Magnetic Resonance Imaging
JP5815513B2 (ja) * 2010-05-10 2015-11-17 株式会社日立メディコ 画像処理装置及び画像処理方法
US9454823B2 (en) 2010-07-28 2016-09-27 arian Medical Systems, Inc. Knowledge-based automatic image segmentation
JP5858636B2 (ja) * 2011-04-13 2016-02-10 キヤノン株式会社 画像処理装置、その処理方法及びプログラム
US9646138B2 (en) * 2011-12-30 2017-05-09 The Johns Hopkins University Bioimaging grid
WO2014093376A1 (en) * 2012-12-10 2014-06-19 The Cleveland Clinic Foundation Mage fusion with automated compensation for brain deformation
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
US9477999B2 (en) 2013-09-20 2016-10-25 The Board Of Trustees Of The Leland Stanford Junior University Low power programmable image processor
CN103824289B (zh) * 2014-02-17 2016-06-01 哈尔滨工业大学 一种快照光谱成像中基于模板的阵列图像配准方法
US9950194B2 (en) 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
JP6541363B2 (ja) * 2015-02-13 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3326149A1 (de) * 2015-07-17 2018-05-30 Koninklijke Philips N.V. Registrierung von histopathologiebildern
US10072934B2 (en) 2016-01-15 2018-09-11 Abl Ip Holding Llc Passive marking on light fixture detected for position estimation
EP3684463A4 (de) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC Verfahren und vorrichtung für neuro-enhancement
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
WO2019133997A1 (en) 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC System and method for neuroenhancement to enhance emotional response
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
CN111435969B (zh) * 2019-01-11 2021-11-09 佳能株式会社 图像处理装置及其控制方法、记录介质和信息处理系统
CN110097015B (zh) * 2019-05-08 2020-05-26 杭州视在科技有限公司 一种基于稠密特征点匹配的球机预置位偏移自动识别方法
CN114898193A (zh) * 2022-07-11 2022-08-12 之江实验室 基于流形学习的图像特征融合方法、装置及图像分类系统
CN116433730B (zh) * 2023-06-15 2023-08-29 南昌航空大学 一种联合可变形卷积与模态转换的图像配准方法

Family Cites Families (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2718804C3 (de) 1977-04-27 1979-10-31 Karlheinz Prof. Dr. 3000 Hannover Renner Vorrichtung zur PositionierungskontroUe von Patienten und/oder Bestrahlungsquellen
US4608977A (en) 1979-08-29 1986-09-02 Brown Russell A System using computed tomography as for selective body treatment
AU7986682A (en) 1981-02-12 1982-08-19 New York University Apparatus for stereotactic surgery
NL8101722A (nl) 1981-04-08 1982-11-01 Philips Nv Kontourmeter.
US4590607A (en) 1982-09-17 1986-05-20 Environmental Research Institute Of Michigan Image correspondence techniques using serial neighborhood processing
JPS59137942A (ja) 1983-01-28 1984-08-08 Hitachi Ltd 画像位置合わせ方式
NL8302228A (nl) 1983-06-22 1985-01-16 Optische Ind De Oude Delft Nv Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau.
US4583538A (en) 1984-05-04 1986-04-22 Onik Gary M Method and apparatus for stereotaxic placement of probes in the body utilizing CT scanner localization
US4662222A (en) 1984-12-21 1987-05-05 Johnson Steven A Apparatus and method for acoustic imaging using inverse scattering techniques
DE3500605A1 (de) 1985-01-10 1986-07-10 Markus Dr. 5300 Bonn Hansen Vorrichtung zur messung der positionen und bewegungen des unterkiefers relativ zum oberkiefer
US4737921A (en) 1985-06-03 1988-04-12 Dynamic Digital Displays, Inc. Three dimensional medical image display system
US4722056A (en) 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
SE469321B (sv) 1986-04-14 1993-06-21 Joenkoepings Laens Landsting Saett och anordning foer att framstaella en modifierad tredimensionell avbildning av ett elastiskt deformerbart foeremaal
US5078140A (en) 1986-05-08 1992-01-07 Kwoh Yik S Imaging device - aided robotic stereotaxis system
US4791934A (en) 1986-08-07 1988-12-20 Picker International, Inc. Computer tomography assisted stereotactic surgery system and method
US4821213A (en) 1986-12-19 1989-04-11 General Electric Co. System for the simultaneous display of two or more internal surfaces within a solid object
US4879668A (en) 1986-12-19 1989-11-07 General Electric Company Method of displaying internal surfaces of three-dimensional medical images
JP2563298B2 (ja) 1987-01-28 1996-12-11 株式会社東芝 3次元画像処理装置
US5005126A (en) 1987-04-09 1991-04-02 Prevail, Inc. System and method for remote presentation of diagnostic image information
DE3717871C3 (de) 1987-05-27 1995-05-04 Georg Prof Dr Schloendorff Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
US4836778A (en) 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
DE3884800D1 (de) 1987-05-27 1993-11-11 Schloendorff Georg Prof Dr Verfahren und vorrichtung zur reproduzierbaren optischen darstellung eines chirurgischen eingriffes.
DE3823259C2 (de) 1987-07-08 1994-09-01 Toshiba Kawasaki Kk Einrichtung zum Archivieren und Übermitteln von medizinischen Bilddaten
DE3844716C2 (de) 1987-08-24 2001-02-22 Mitsubishi Electric Corp Partikelstrahlmonitorvorrichtung
US5309356A (en) 1987-09-29 1994-05-03 Kabushiki Kaisha Toshiba Three-dimensional reprojected image forming apparatus
US4991579A (en) 1987-11-10 1991-02-12 Allen George S Method and apparatus for providing related images over time of a portion of the anatomy using fiducial implants
US5079699A (en) 1987-11-27 1992-01-07 Picker International, Inc. Quick three-dimensional display
EP0326768A3 (de) 1988-02-01 1991-01-23 Faro Medical Technologies Inc. Computerunterstütze chirurgische Vorrichtung
US5251127A (en) 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
US5050608A (en) 1988-07-12 1991-09-24 Medirand, Inc. System for indicating a position to be operated in a patient's body
US4896673A (en) 1988-07-15 1990-01-30 Medstone International, Inc. Method and apparatus for stone localization using ultrasound imaging
US4987412A (en) 1988-08-25 1991-01-22 The United States Of America As Represented By The United States Department Of Energy Method and apparatus for the simultaneous display and correlation of independently generated images
US5027422A (en) 1988-08-29 1991-06-25 Raytheon Company Confirmed boundary pattern matching
JPH02140145A (ja) 1988-11-21 1990-05-29 Toshiba Corp 磁気共鳴イメージング装置
US5099846A (en) 1988-12-23 1992-03-31 Hardy Tyrone L Method and apparatus for video presentation from a variety of scanner imaging sources
US5197476A (en) 1989-03-16 1993-03-30 Christopher Nowacki Locating target in human body
FR2645300B1 (fr) 1989-03-29 1994-09-09 Gen Electric Cgr Procede de recalage automatique d'images
JP2714164B2 (ja) 1989-07-31 1998-02-16 株式会社東芝 三次元画像表示装置
US5257998A (en) 1989-09-20 1993-11-02 Mitaka Kohki Co., Ltd. Medical three-dimensional locating apparatus
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
DE69026196T2 (de) 1989-11-08 1996-09-05 George S Allen Mechanischer Arm für ein interaktives, bildgesteuertes, chirurgisches System
US5222499A (en) 1989-11-15 1993-06-29 Allen George S Method and apparatus for imaging the anatomy
CA2003497C (en) 1989-11-21 1999-04-06 Michael M. Greenberg Probe-correlated viewing of anatomical image data
US5086401A (en) 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US5295483A (en) 1990-05-11 1994-03-22 Christopher Nowacki Locating target in human body
US5465378A (en) 1990-05-15 1995-11-07 Compuspeak, Inc. Report generating system
US5272625A (en) 1990-05-17 1993-12-21 Kabushiki Kaisha Toshiba Medical image data managing system
FR2662525B1 (fr) 1990-05-25 1992-08-28 Gen Electric Cgr Procede de visualisation d'une partie de l'image d'une structure physique.
US5274714A (en) 1990-06-04 1993-12-28 Neuristics, Inc. Method and apparatus for determining and organizing feature vectors for neural network recognition
EP0469966B1 (de) 1990-07-31 1995-08-30 Faro Medical Technologies (Us) Inc. Computerunterstützte chirurgische Vorrichtung
CA2051939A1 (en) 1990-10-02 1992-04-03 Gary A. Ransford Digital data registration and differencing compression system
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5241472A (en) 1990-10-15 1993-08-31 University Of Pittsburgh Of The Commonwealth System Of Higher Education Method of identifying and archiving medical images
DE69133548T2 (de) 1990-10-19 2007-01-11 St. Louis University System zum Anzeigen einer Stelle in dem Körper eines Patienten
US5207223A (en) 1990-10-19 1993-05-04 Accuray, Inc. Apparatus for and method of performing stereotaxic surgery
US5823958A (en) 1990-11-26 1998-10-20 Truppe; Michael System and method for displaying a structural data image in real-time correlation with moveable body
US5295200A (en) 1991-01-09 1994-03-15 Board Of Regents, The University Of Texas System Method and apparatus for determining the alignment of an object
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
EP0514688A2 (de) 1991-05-21 1992-11-25 International Business Machines Corporation Generalisierte Gestaltautokorrelation zur Ermittlung und Erkennung von Gestalt
US5291889A (en) 1991-05-23 1994-03-08 Vanguard Imaging Ltd. Apparatus and method for spatially positioning images
US5279309A (en) 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5383119A (en) 1991-07-03 1995-01-17 General Electric Company Method and apparatus for acquiring complete radon data for exactly reconstructing a three dimensional computerized tomography image of a portion of an object irradiated by a cone beam source
US5261404A (en) 1991-07-08 1993-11-16 Mick Peter R Three-dimensional mammal anatomy imaging system and method
US5284142A (en) 1991-12-16 1994-02-08 Rensselaer Polytechnic Institute Three-dimensional impedance imaging processes
US5390110A (en) 1991-07-09 1995-02-14 Rensselaer Polytechnic Institute Layer stripping process for impedance imaging
US5249581A (en) 1991-07-15 1993-10-05 Horbal Mark T Precision bone alignment
JPH0528243A (ja) 1991-07-24 1993-02-05 Toshiba Corp 画像作成装置
US5463721A (en) 1991-07-29 1995-10-31 General Electric Company Method for constructing a three dimensional scanning trajectory capable of acquiring a complete set of radon data for exact image reconstruction of an object irradiated by a cone beam source
US5740274A (en) 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
DE4134481C2 (de) 1991-10-18 1998-04-09 Zeiss Carl Fa Operationsmikroskop zur rechnergestützten, stereotaktischen Mikrochirurgie
DE69222110T2 (de) 1991-10-18 1998-03-05 Koninkl Philips Electronics Nv Verfahren zum Herstellen einer Halbeiteranordnung, wobei auf der Oberfläche einer Halbleiterscheibe aus einem Prozessgas eine Materialschicht abgeschieden wird
US5291401A (en) 1991-11-15 1994-03-01 Telescan, Limited Teleradiology system
US5274551A (en) 1991-11-29 1993-12-28 General Electric Company Method and apparatus for real-time navigation assist in interventional radiological procedures
US5371778A (en) 1991-11-29 1994-12-06 Picker International, Inc. Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images
US5351697A (en) 1991-12-16 1994-10-04 Rensseleaer Polytechnic Institute Three-dimensional impedance imaging process
GB9201856D0 (en) * 1992-01-29 1992-03-18 British Telecomm Method of forming a template
DE4207901C3 (de) 1992-03-12 1999-10-07 Aesculap Ag & Co Kg Verfahren und Vorrichtung zur Darstellung eines Arbeitsbereiches in einer dreidimensionalen Struktur
JP3248001B2 (ja) 1992-03-19 2002-01-21 株式会社日立メディコ 三次元カラードプラ画像表示方法及びその装置
US5442733A (en) 1992-03-20 1995-08-15 The Research Foundation Of State University Of New York Method and apparatus for generating realistic images using a discrete representation
US5331553A (en) 1992-04-15 1994-07-19 Ugm Medical Systems, Inc. Three dimensional image reconstruction for a positron emission tomograph
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5389101A (en) 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
FR2694881B1 (fr) 1992-07-31 1996-09-06 Univ Joseph Fourier Procede de determination de la position d'un organe.
US5368030A (en) 1992-09-09 1994-11-29 Izi Corporation Non-invasive multi-modality radiographic surface markers
US5647361A (en) 1992-09-28 1997-07-15 Fonar Corporation Magnetic resonance imaging method and apparatus for guiding invasive therapy
US5568384A (en) 1992-10-13 1996-10-22 Mayo Foundation For Medical Education And Research Biomedical imaging and analysis
US5734915A (en) 1992-11-25 1998-03-31 Eastman Kodak Company Method and apparatus for composing digital medical imagery
US5517990A (en) 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5309913A (en) 1992-11-30 1994-05-10 The Cleveland Clinic Foundation Frameless stereotaxy system
EP0602730B1 (de) 1992-12-18 2002-06-19 Koninklijke Philips Electronics N.V. Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
US5452416A (en) 1992-12-30 1995-09-19 Dominator Radiology, Inc. Automated system and a method for organizing, presenting, and manipulating medical images
US5615112A (en) 1993-01-29 1997-03-25 Arizona Board Of Regents Synthesized object-oriented entity-relationship (SOOER) model for coupled knowledge-base/database of image retrieval expert system (IRES)
US5483961A (en) 1993-03-19 1996-01-16 Kelly; Patrick J. Magnetic field digitizer for stereotactic surgery
DE69431875T2 (de) 1993-04-22 2003-05-28 Image Guided Technologies Inc Anordnung zur bestimmung der gegenseitigen lage von körpern
DE9422172U1 (de) 1993-04-26 1998-08-06 Univ St Louis Angabe der Position einer chirurgischen Sonde
US5391199A (en) 1993-07-20 1995-02-21 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias
US5581638A (en) 1993-07-26 1996-12-03 E-Systems, Inc. Method for autonomous image registration
FR2709656B1 (fr) 1993-09-07 1995-12-01 Deemed Int Sa Installation pour opération de microchirurgie assistée par ordinateur et procédés mis en Óoeuvre par ladite installation.
DE4330873A1 (de) 1993-09-13 1995-03-16 Zeiss Carl Fa Koordinatenmeßgerät mit einem Tastkopf und einer Elektronik zur Verarbeitung des Tastsignals
US5558091A (en) 1993-10-06 1996-09-24 Biosense, Inc. Magnetic determination of position and orientation
US5399146A (en) 1993-12-13 1995-03-21 Nowacki; Christopher Isocentric lithotripter
US5483606A (en) 1994-01-03 1996-01-09 Xerox Corporation Method for automatically registering a document having a plurality of pages
US5531227A (en) 1994-01-28 1996-07-02 Schneider Medical Technologies, Inc. Imaging device and method
US5800535A (en) 1994-02-09 1998-09-01 The University Of Iowa Research Foundation Wireless prosthetic electrode for the brain
DE4417944A1 (de) 1994-05-21 1995-11-23 Zeiss Carl Fa Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
US5643286A (en) 1994-06-24 1997-07-01 Cytotherapeutics, Inc. Microdrive for use in stereotactic surgery
US5999840A (en) 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US5531520A (en) 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
EP0951874A3 (de) 1994-09-15 2000-06-14 Visualization Technology, Inc. Positions- und Bilderfassung mittels einer an einem Patientenkopf angebrachten Referenzeinheit zur Anwendung im medizinischen Gebiet
US5695501A (en) 1994-09-30 1997-12-09 Ohio Medical Instrument Company, Inc. Apparatus for neurosurgical stereotactic procedures
US5891157A (en) 1994-09-30 1999-04-06 Ohio Medical Instrument Company, Inc. Apparatus for surgical stereotactic procedures
US5740428A (en) 1995-02-07 1998-04-14 Merge Technologies, Inc. Computer based multimedia medical database management system and user interface
US5588430A (en) 1995-02-14 1996-12-31 University Of Florida Research Foundation, Inc. Repeat fixation for frameless stereotactic procedure
US5617857A (en) 1995-06-06 1997-04-08 Image Guided Technologies, Inc. Imaging system having interactive medical instruments and methods
US5682526A (en) 1995-07-20 1997-10-28 Spacelabs Medical, Inc. Method and system for flexibly organizing, recording, and displaying medical patient care information using fields in a flowsheet
US5638819A (en) 1995-08-29 1997-06-17 Manwaring; Kim H. Method and apparatus for guiding an instrument to a target
US5747767A (en) 1995-09-13 1998-05-05 The Esab Group, Inc. Extended water-injection nozzle assembly with improved centering
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US5682886A (en) 1995-12-26 1997-11-04 Musculographics Inc Computer-assisted surgical system
US5711299A (en) 1996-01-26 1998-01-27 Manwaring; Kim H. Surgical guidance method and system for approaching a target within a body
US5799055A (en) 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US6009212A (en) * 1996-07-10 1999-12-28 Washington University Method and apparatus for image registration
US5980535A (en) 1996-09-30 1999-11-09 Picker International, Inc. Apparatus for anatomical tracking
US5921992A (en) 1997-04-11 1999-07-13 Radionics, Inc. Method and system for frameless tool calibration
US5834759A (en) 1997-05-22 1998-11-10 Glossop; Neil David Tracking device having emitter groups with different emitting directions

Also Published As

Publication number Publication date
DE69817879D1 (de) 2003-10-09
AU1383799A (en) 1999-05-31
JP2001523027A (ja) 2001-11-20
EP1057137A1 (de) 2000-12-06
EP1057137A4 (de) 2001-07-18
EP1057137B1 (de) 2003-09-03
ATE249071T1 (de) 2003-09-15
CA2308499A1 (en) 1999-05-20
WO1999024932A1 (en) 1999-05-20
US6226418B1 (en) 2001-05-01

Similar Documents

Publication Publication Date Title
DE69817879T2 (de) Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation
DE60133840T2 (de) Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
DE69722378T2 (de) Verfahren und vorrichtung zur bearbeitung eines dreidimensionalen bildes mit hilfe der parallaxgeometrie von punktpaaren
DE112018000332T5 (de) Dichtes visuelles slam mit probabilistic-surfel-map
DE112004000393B4 (de) System und Verfahren zum Verfolgen einer globalen Form eines in Bewegung befindlichen Objekts
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
US6633686B1 (en) Method and apparatus for image registration using large deformation diffeomorphisms on a sphere
DE602004009960T2 (de) System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
EP3657236A1 (de) Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
CN106447601B (zh) 一种基于投影-相似变换的无人机遥感影像拼接方法
DE102015209822A1 (de) Erfassungseinrichtung, Erfassungsprogramm, Erfassungsverfahren, mit Erfassungseinrichtung ausgerüstetes Fahrzeug, Parameterberechnungseinrichtung, Parameter berechnende Parameter, Parameterberechnungsprogramm, und Verfahren zum Berechnen von Parametern
DE102006030709A1 (de) Verfahren für die kenntnisbasierte Bildsegmentierung unter Verwendung von Formmodellen
CN106934766A (zh) 一种基于稀疏表示的红外图像超分辨率重建方法
DE102004009143A1 (de) Randdetektion für eine medizinische Bildgebung
DE10048029A1 (de) Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE102006054822A1 (de) Registrierung eines charakteristischen Pfads eines Kolons
DE112011100681T5 (de) Positions- und orientierungsschätzverfahren und vorrichtung dafür
DE10304360A1 (de) Unstarre Bilderfassung unter Verwendung von Abstandsfunktionen
DE112018003571T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
DE102015115786A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
DE102015115789A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
Casillas-Perez et al. The isowarp: the template-based visual geometry of isometric surfaces

Legal Events

Date Code Title Description
8364 No opposition during term of opposition