DE19827460A1 - Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung - Google Patents
Verbesserte intravaskuläre Ultraschallbild- und SignalverarbeitungInfo
- Publication number
- DE19827460A1 DE19827460A1 DE19827460A DE19827460A DE19827460A1 DE 19827460 A1 DE19827460 A1 DE 19827460A1 DE 19827460 A DE19827460 A DE 19827460A DE 19827460 A DE19827460 A DE 19827460A DE 19827460 A1 DE19827460 A1 DE 19827460A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- detector
- signal transmitter
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52023—Details of receivers
- G01S7/52034—Data rate converters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52023—Details of receivers
- G01S7/52036—Details of receivers using analysis of echo signal for target characterisation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52046—Techniques for image enhancement involving transmitter or receiver
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/06—Measuring blood flow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8934—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
- G01S15/8938—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions
- G01S15/894—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions by rotation about a single axis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8979—Combined Doppler and pulse-echo imaging systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52023—Details of receivers
- G01S7/52025—Details of receivers for pulse systems
Description
Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur
verbesserten Bild- und Signalverarbeitung für intravaskulare Ultraschall-Un
tersuchungen ("IVUS") und insbesondere eine Vorrichtung und ein Ver
fahren zum Verarbeiten von IVUS-Bild- und Signalinformation, das die
Qualität und Nützlichkeit von IVUS-Bildern verbessert.
IVUS-Bilder werden gewonnen aus einem Strahl von Ultraschallenergie, der
von einer Vorrichtung wie etwa einem Wandler oder einer Wandleranord
nung abgegeben wird, der um einen in ein Blutgefäß eingeführten Katheter
herum, an ihm entlang oder an dessen Spitze angeordnet ist. Ein Ultra
schallstrahl von der Vorrichtung wird in dem Blutgefäß kontinuierlich
gedreht und bildet ein 360°-Innenquerschnittbild, d. h., das Bild wird in
einer transversalen (X-Y) Ebene gebildet. Je nach der speziellen Konfigura
tion der Vorrichtung kann das Bild entweder von der Transversalebene der
Vorrichtung selbst oder von einer etwas vor der Transversalebene des
Gerätes, d. h. distal, liegenden Transversalebene gewonnen werden. Wenn
der Katheter in einem Blutgefäß und darin entlang (d. h. entlang der
Z-Achse) bewegt wird, können Bilder verschiedener Segmente (Serien von
aufeinanderfolgenden Querschnitten) des Gefäßes gebildet und angezeigt
werden.
IVUS kann bei allen Arten von Blutgefäßen einschließlich, aber nicht
beschränkt auf Arterien, Venen und andere periphere Gefäße und in allen
Teilen eines Körpers eingesetzt werden.
Das Ultraschallsignal, das empfangen (erfaßt) wird, ist ursprünglich ein
Analogsignal. Dieses Signal wird unter Verwendung analoger und digitaler
Verfahren verarbeitet, um schließlich einen Satz von Vektoren zu bilden, die
digitalisierte Daten umfassen. Jeder Vektor stellt die Ultraschallantwort
eines anderen Winkelsektors des Gefäßes, d. h. eines Abschnitts des Blutgefä
ßes dar. Die Anzahl von Datenelementen in jedem Vektor (axiale Abtast
auflösung) und die Zahl der Vektoren, die benutzt wird, um einen voll
ständigen Querschnitt des Blutgefäßes abzutasten (seitliche Abtastauflösung),
können je nach Art des verwendeten Systems variieren.
Die digitalisierten Vektoren können ursprünglich in einer zweidimensionalen
Anordnung oder Matrix mit Polarkoordinaten, d. h. A(r, θ) angeordnet
werden. In dieser Polarmatrix entspricht z. B. die X-Achse der r-Koor
dinate, und die Y-Achse entspricht der θ-Koordinate. Jeder Wert der
Matrix ist ein Wert (von 0 bis 255, wenn das System ein 8-Bit-System ist),
das die Stärke der Ultraschallantwort an dieser Stelle anzeigt.
Diese Polarmatrix wird üblicherweise nicht an eine Anzeige übertragen, weil
das resultierende Bild für einen Arzt nicht leicht zu interpretieren ist. Die
in der Polarmatrix A(r, θ) gespeicherte Information durchläuft mehrere
Bearbeitungsstufen und wird in kartesische Koordinaten, d. h. X- und Y-Ko
ordinaten (A(X, Y)) interpoliert, die für einen Arzt leichter zu inter
pretieren sind. So entsprechen die X- und Y-Achse der Matrix A(X, Y)
der kartesischen Darstellung des Querschnitts des Gefäßes. Die Information
in der kartesischen Matrix erfährt möglicherweise weitere Verarbeitung und
wird schließlich für die Analyse durch einen Arzt angezeigt. Bilder werden
mit, je nach System, variabler Rate aufgenommen und angezeigt. Manche
Systeme können Bilder mit einer Video-Anzeigerate, d. h. bis zu 30 Bilder
pro Sekunde, aufnehmen und anzeigen.
Eine IVUS-Untersuchung eines Segments eines Körperlumens bzw. Lumens,
d. h. eines Gefäßes, wird üblicherweise durchgeführt, indem der Katheter
distal (d. h. stromab) zu dem zu untersuchenden Segment angeordnet wird
und dann der Katheter langsam entlang des Körperlumens (Z-Achse) zurück
gezogen wird (pullback), so daß aufeinanderfolgende Bilder, die das Segment
bilden, kontinuierlich angezeigt werden. In vielen Fällen ist der Katheter
an eine mechanische Ziehvorrichtung angeschlossen, die den Katheter mit
einer konstanten Geschwindigkeit (d. h. eine typische Geschwindigkeit ist ca.
0,5 bis 1 mm/s) zieht.
Bei IVUS-Abbildungssystemen wird heutzutage allgemein die oben beschrie
bene Technik zum Anzeigen eines Bildes eines Querschnitts eines Körper
lumens, d. h. eines Blutgefäßes verwendet. Diese Systeme weisen jedoch
Mängel auf, da sie keine Form von Bildstabilisierung enthalten, um Bewe
gungen des Katheters und/oder des Körperlumens, z. B. des Blutgefäßes, zu
kompensieren. Es ist gut bekannt, daß während der IVUS-Abbildung eines
Körperlumens der Katheter und/oder das Körperlumen immer Bewegung
zeigen. Diese Bewegung könnte in der Transversalebene (X-Y) entlang der
Gefäßachse (Z-Achse) oder als Kombination dieser Bewegungen auftreten.
Der abbildende Katheter kann auch in Beziehung zu dem Gefäß gekippt
sein, so daß die Abbildungsebene nicht senkrecht zur Z-Achse ist (diese
Bewegung soll als Angulation bezeichnet werden). Diese Bewegungen
werden unter anderem durch Herzschlag, Blut oder anderes durch den
Lumen strömendes Fluid, Gefäßbewegung, vom Arzt ausgeübte Kräfte und
andere durch die Physiologie des Patienten bewirkte Kräfte verursacht.
Bei heutigen IVUS-Systemen ist, wenn der abbildende Katheter stationär ist
oder ein langsamer manueller oder mechanischer Pullback ausgeführt wird,
eine Relativbewegung zwischen dem Katheter und dem Lumen der wesentli
che Faktor für eine Änderung des Aussehens aufeinanderfolgender Bilder,
d. h. wie sie auf der Anzeige und/oder im Film oder Video erscheinen.
Diese Änderung des Aussehens tritt auf, weil die Änderungsgeschwindigkeit
eines Bildes aufgrund von Bewegungen wesentlich größer ist als die Ände
rungsgeschwindigkeit in der tatsächlichen Morphologie aufgrund des Pull
backs.
Eine Stabilisierung tritt ein, wenn die Bilder eine Kompensation für die
Relativbewegung zwischen dem Katheter und dem Lumen in aufeinanderfol
genden Bildern enthalten. Da keine der heutigen IVUS-Systeme Stabilisie
rung ausführen, gibt es keine Kompensation oder Korrektur von Relativbewe
gungen zwischen dem Katheter und dem Lumen. Infolgedessen bewegen
oder drehen sich morphologische Merkmale ständig auf der Anzeige und/
oder im Film oder Video. Dies macht es für den Arzt schwierig, eine
Morphologie in einer dynamischen IVUS-Anzeige genau zu interpretieren.
Außerdem kann dies, wenn nichtstabilisierte IVUS-Bilder als Eingabe eines
Verarbeitungsalgorithmus, wie etwa 3D-Rekonstruktion oder verschiedener
Arten von Filter, die einen Satz von aufeinanderfolgenden Bildern verarbei
ten, verwendet wird, zu einer beeinträchtigten Leistung und Fehldiagnose
oder ungenauen Bestimmungen führen.
Gegenwärtige IVUS-Abbildungsvorrichtungen oder Katheter können gelegentli
che Funktionsstörungen mit elektronischen oder mechanischen Ursachen
haben. Dies kann dazu führen, daß angezeigte Bilder sowohl erkannte als
auch unerkannte Artefakte zeigen und die tatsächliche Morphologie über
decken. Gegenwärtig gibt es keine automatischen Verfahren, um zu bestim
men, ob Bilder diese Arten von Artefakten aufweisen, die die Analyse der
Bilder des Gefäßes oder Körperlumens behindern.
Das Verhalten der Kardiovaskulärfunktion ist im allgemeinen periodisch.
Die Erfassung dieser Periodizität und die Fähigkeit, eine Korrelation zwi
schen einem Bild und einer zeitlichen Phase im Herzzyklus zu bestimmen,
zu der es gehört, wird als Herz-Gating bezeichnet.
Gegenwärtig wird Herz-Gating unter Verwendung eines externen Signals,
üblicherweise eines EKGs (Elektrokardiogramm) durchgeführt. EKG-Gating
erfordert jedoch sowohl die Aufnahme des EGK-Signals als auch seine
Verschachtelung (oder Synchronisation) mit dem IVUS-Bild. Hierfür ist
zusätzliche Hardware/Software erforderlich.
Morphologische Merkmale in IVUS-Bildern von Blutgefäßen können in drei
allgemeine Kategorien eingeteilt werden: das Lumen, d. h. die Fläche, durch
die das Blut oder eine andere Körperflüssigkeit fließt, die Gefäßschichten,
und die Umgebung, d. h. das Gewebe oder die Morphologie außerhalb des
Gefäßes. Blut ist in den meisten IVUS-Filmen (-bildern) durch ein sich
schnell veränderndes Fleckenmuster gekennzeichnet. Die Umgebung des
Gefäßes alterniert ebenfalls mit hoher zeitlicher Frequenz. Gegenwärtig
werden das zeitliche Verhalten von Pixeln und ihre Texturattribute nicht
automatisch überwacht.
Gefäßbewegung (Vasomotion) im Zusammenhang mit Körperlumina, z. B.
Blutgefäßen, ist definiert als die Änderung der Weite des Lumens, z. B.
Gefäßes. Diese Änderung kann durch natürliche Umstände oder unter
induzierten Bedingungen hervorgerufen werden. Gefäßbewegung kann eine
dynamische Komponente, d. h. eine dynamische Änderung der Abmessungen
des Lumens, z. B. der Weite des Gefäßes (Kontraktion und Dilatation bzw.
Erweiterung) während des Kardiovaskularzyklus, und eine statische Grund
komponente, d. h. eine Änderung in der Grundweite des Lumens, z. B.
Gefäßes haben.
Gefäßbewegung kann durch quantitative physiologische Parameter ausgedrückt
werden, die die Fähigkeit des Lumens, z. B. Gefäßes angeben, seine Weite
unter bestimmten Bedingungen zu ändern. Diese Arten von Parametern
haben gegenwartige und möglicherweise zukünftige medizinische und diagno
stische Bedeutung bei der Gewinnung von Information über den Zustand des
Lumens, z. B. Gefäßes, und die Wirkung der durchgeführten Therapie.
IVUS kann verwendet werden, um Gefäßbewegung zu überwachen, weil es
ein Bild der Grundweite des Gefäßes und ihrer dynamischen Änderung
liefert. Zusätzlich kann IVUS eingesetzt werden, um zu überwachen, ob
die Gefäßbewegung global (einheitlich) ist, d. h., ob der gesamte Querschnitt
des Lumens sich in gleichem Ausmaß und Richtung ausdehnt/zusammenzieht.
IVUS kann auch eingesetzt werden, um zu bestimmen, ob die Gefäßbewe
gung ungleichförmig ist, was zu lokalen Änderungen in der Weite des
Lumens führt, d. h., verschiedene Teile des Lumenquerschnitts verhalten sich
unterschiedlich.
Gegenwartig werden alle Arten von Gefäßbewegungsüberwachung durch
IVUS manuell durchgeführt. Dies ist mühselig, zeitaufwendig und verhin
dert eine Überwachung der Gefäßbewegung in Echtzeit.
Eine Interpretation von IVUS-Bildern wird erzielt durch Analyse der Zu
sammensetzung der statischen Bilder und Überwachen ihres zeitlichen Verhal
tens. Die meisten IVUS-Bilder können in drei Grundbestandteile zerlegt
werden. Der innerste Abschnitt ist der Flußdurchgang des Lumens, d. h.
der Hohlraum, durch das Material, d. h. Blut, fließt. Um den Flußdurch
gang liegt das tatsächliche Gefäß, das ein Blutgefäß und jedes beliebige
andere Körpergefäß sein kann, das aus mehreren Schichten von Gewebe
(und im Krankheitsfalle Plaque) gebildet sein kann. Außerhalb des Gefäßes
liegt anderes Gewebe, das zur umgebenden Morphologie gehören kann, z. B.
das Herz in einem Herzkranzgefäß-Bild.
Wenn der IVUS-Film dynamisch betrachtet wird, d. h. im Filmformat, zeigen
die Pixel, die durch das Gefäß fließender Materie und der außerhalb des
Gefäßes liegenden Morphologie entsprechen, ein anderes zeitliches Verhalten
als das Gefäß selbst. Zum Beispiel ist in den meisten IVUS-Filmen durch
das Gefäß fließendes Blut durch ein häufig wechselndes Fleckenmuster
gekennzeichnet. Die Morphologie außerhalb des Gefäßes zeigt auch einen
häufigen Wechsel. Gegenwartig wird das zeitliche Verhalten von Pixeln in
dynamischen IVUS-Bildern nicht automatisch überwacht.
Bei gegenwartigen IVUS-Anzeigen werden, wenn sie als Teil des Systems
konstruiert sind, zeitliche Änderungen mit hoher Frequenz mit Mitteln wie
Mittelwertbildung über eine Anzahl von Bildern unterdrückt. Dadurch wird
aber manchmal das Auftreten von Merkmalen mit hoher Amplitude, d. h.
helle Grauwerte, nicht unterdrückt, und außerdem hat dies eine verwischende
Wirkung.
Die Größe des Flußdurchgangs des Lumens ist ein sehr wichtiger diagno
stischer Parameter. Wenn für die Diagnose erforderlich, wird er von Hand
bestimmt, z. B. durch einen Arzt. Dies wird erreicht durch Zeichnen der
Kontur der Flußdurchgangsgrenzen auf einem statischen, z. B. auf einer
Video- oder Maschinenanzeige eingefrorenen Bild. Dieses Verfahren der
manuellen Gewinnung ist zeitaufwendig, ungenau und Verfälschungen unter
worfen.
Gegenwärtig gibt es kommerzielle Bildverarbeitungs-Software zur automati
schen Gewinnung des Flußdurchgangs. Diese basiert jedoch auf der Grau
wert-Zusammensetzung von statischen Bildern und berücksichtigt nicht das
unterschiedliche zeitliche Verhalten, welches Material, z. B. Blut, das durch
den Durchgang fließt, im Unterschied zu den Gefäßschichten zeigt.
Während der Behandlung von Gefäßen ist es gängige Praxis, IVUS-Pullback-Un
tersuchungen in den gleichen Gefäßsegmenten zu wiederholen. Eine
typische Situation ist z. B., zuerst das betreffende Segment zu untersuchen,
die Erkrankung (wenn vorhanden) zu bewerten, den IVUS-Katheter zu
entfernen, Therapiemöglichkeiten zu erwägen, eine Therapie, z. B. mit einem
PTCA-"Ballon" oder Stent durchzuführen und unmittelbar danach das behan
delte Segment mit IVUS erneut zu untersuchen, um die Ergebnisse der
Therapie einzuschätzen. Um die Ergebnisse richtig zu bewerten und die
Wirkung der durchgeführten Therapie voll zu erkennen, ist es wünschens
wert, daß die Bilder der Segmente vor und nach der Behandlung, die
Querschnitte des Gefäßes an gleichen Stellen entlang der Z-Achse des
Gefäßes zeigen (d. h. entsprechende Segmente), verglichen werden können.
Um diesen Vergleich durchzuführen, muß bestimmt werden, welche Stellen
in den Filmen der IVUS-Bilder vor der Behandlung und der IVUS-Bilder
nach der Behandlung einander entsprechen. Diese als Zuordnen oder
Matching (Registration) bezeichnete Prozedur ermöglicht einen genauen
Vergleich von IVUS-Bildern vor und nach einer Behandlung.
Gegenwärtig wird das Zuordnen üblicherweise durchgeführt durch Betrachten
der IVUS-Pullback-Filme von Segmenten vor und nach Behandlung nachein
ander oder nebeneinander unter Verwendung von identifizierbaren anatomi
schen Merkmalen, um die Sequenzen herauszufinden, die einander visuell
entsprechen. Dieses Verfahren ist äußerst ungenau und schwierig durch
zuführen, da die Bilder instabil sind und aufgrund des Fehlens einer Stabili
sierung sich auf der Anzeige oft drehen und/oder hin- und herbewegen, und
weil viele der anatomischen Merkmale, die im IVUS-Pullback-Film des Seg
ments vor Behandlung zu finden sind, als Ergebnis der an dem Gefäß
durchgeführten Therapie gestört oder verändert sein können. Außerdem ist
es wahrscheinlich, daß das Aussehen des Gefäßes sich infolge von unter
schiedlichen Orientierungen und Relativpositionen des IVUS-Katheters in
Beziehung zu dem Gefäß aufgrund von dessen Entfernung und Wiederein
fügung nach beendeter Therapie ändert. Die Zuordnung, die durchgeführt
wird, ist manuell und beruht im wesentlichen auf manueller visueller Identi
fizierung, die äußerst zeitaufwendig und ungenau sein kann.
Die vorliegende Erfindung löst die mit gegenwärtig auf dem Markt befindli
chen IVUS-Systemen und dem Stand der Technik zusammenhängenden
Probleme, indem sie Ärzten genaue IVUS-Bilder und Bildsequenzen der zu
bewertenden Morphologie zur Hand gibt und dadurch eine genauere Diagno
se und Bewertung ermöglicht.
Die vorliegende Erfindung verarbeitet IVUS- und Signalinformation, um
Verzerrungen und Ungenauigkeiten zu beseitigen, die durch unterschiedliche
Arten von Bewegung sowohl im Katheter als auch im Körperlumen ver
ursacht werden. Dies führt sowohl zu verbesserter Qualität als auch Nütz
lichkeit der IVUS-Bilder. Ein durch die vorliegende Erfindung erreichter
Vorteil ist, daß einzelne IVUS-Bilder mit Bezug auf das oder die vorheri
ge(n) Bild(er) stabilisiert sind und dadurch negative Wirkungen auf jede
spätere Verarbeitung von mehreren Bildern beseitigt werden. Wenn die
Bewegungen in jedem Bild vom transversalen Typ sind, ist es möglich, die
Bewegung in jedem aufgenommenen Bild vollständig zu kompensieren.
Die vorliegende Erfindung ermöglicht es auch Volumenrekonstruktionsalgo
rithmen, die Morphologie genau zu reproduzieren, da die Bewegung des
Körperhohlraums stabilisiert ist. Die vorliegende Erfindung ist anwendbar
auf und nützlich in jeder Art von System (IVUS oder andere), wo ein
Bedürfnis zur Stabilisierung von Bildern besteht, weil eine Sonde (z. B.
Ultraschall oder anderes), die sich durch ein Lumen bewegt, eine Relativ
bewegung (d. h. der Sonde und/oder des Lumens) erfährt.
Die vorliegende Erfindung sieht die Erfassung eines von einer Ultraschallvor
richtung in einem Körperlumen ausgesendeten Ultraschallsignals, die Um
wandlung des empfangenen analogen Signals in Polarkoordinaten (A(r, θ)),
Stabilisierung im Polarfeld, Umwandlung der stabilisierten Polarkoordinaten
in kartesische Koordinaten (A(X, Y)), Stabilisierung im kartesischen Feld
und dann Übertragung des stabilisierten Bildes als kartesische Koordinaten
auf eine Anzeige vor. Stabilisierte Bilder, sowohl in polaren als auch in
kartesischen Koordinaten, können vor dem Anzeigen weiter verarbeitet
werden, oder sie können nicht angezeigt werden. Die Umwandlung in
kartesische Koordinaten und/oder Stabilisierung im kartesischen Feld kann an
einem beliebigen Punkt vor oder nach der Stabilisierung im polaren Feld
erfolgen. Zusätzlich können polare oder kartesische Stabilisierung ausgelas
sen werden, je nach in dem Bild erfaßter Verschiebung und/oder anderen
Faktoren. Ferner können zusätzliche Formen von Stabilisierung einbezogen
oder fortgelassen werden, je nach erfaßter Verschiebung und/oder anderen
Faktoren.
Zum Beispiel kann eine Stabilisierung einer starren Bewegung eingeführt
werden, um eine Drehbewegung (in Winkelrichtung) oder eine globale
Gefäßbewegung (Aufweitung oder Kontraktion in r-Richtung) im polaren Feld
und/oder kartesische Verlagerung (X- und/oder Y-Richtung) im kartesischen
Feld zu kompensieren. Transversale starre Bewegung zwischen den Dar
stellungen von aufeinanderfolgenden Bildern wird als "Verschiebung" bezeich
net, d. h. eine gleichförmige Bewegung aller morphologischen Merkmale in
der Ebene des Bildes. Um IVUS-Bilder zu stabilisieren, ist der erste
Schritt, der durchgeführt wird, eine "Verschiebungsauswertung und Erfas
sung". Dabei wird die Verschiebung (wenn vorhanden) zwischen jedem
Paar von aufeinanderfolgenden Bildern ausgewertet und erfaßt. Das System
kann einen Prozessor verwenden, um eine Operation an einem Paar von
aufeinanderfolgenden IVUS-Bildern durchzuführen, um zu bestimmen, ob eine
Verschiebung zwischen solchen Bildern aufgetreten ist. Der Prozessor kann
einen einzigen Algorithmus verwenden oder kann unter einer Anzahl von bei
dieser Bestimmung zu verwendenden Algorithmen auswählen.
Das System verwendet den Algorithmus/die Algorithmen, um eine Verschie
bung in einem Bild zu simulieren, und vergleicht dann dieses verschobene
Bild mit seinem Vorgängerbild. Die Vergleiche zwischen Bildern sind als
Nahheitsoperationen bekannt, die auch im Stand der Technik als Matching
bekannt sein können. Das System führt eine einzige Nahheitsoperation für
jede Verschiebung aus. Die Ergebnisse der Serie von Nahheitsoperationen
werden ausgewertet, um die Stelle (Richtung und Größe) des verschobenen
Bildes zu auszuwerten, das die engste Ähnlichkeit zum unverschobenen Vor
gängerbild aufweist. Ein Bild kann selbstverständlich in der gleichen Weise
mit seinem Vorgängerbild verglichen werden. Nachdem die tatsächliche
Verschiebung bestimmt ist, wird das gegenwartige Bild zum Vorgängerbild,
das nächste Bild wird das gegenwärtige Bild, und die obige Operation wird
wiederholt.
Unter Verwendung von Verschiebungsauswertung und -erfassung bestimmt
das System die Art von Querverschiebung, z. B. Drehung, Aufweitung, Kon
traktion, Verlagerung (kartesisch) etc. zusammen mit der Richtung und
Größe der Verschiebung. Der nächste Schritt ist eine "Verschiebungsimple
mentierung". Dabei führt das System eine Operation oder eine Serie von
Operationen an aufeinanderfolgenden IVUS-Bildern durch, um jedes der
Bilder mit Bezug auf sein angrenzendes Vorgängerbild zu stabilisieren.
Diese Stabilisierung verwendet ein oder mehrere "Umkehrverschiebungen",
die darauf abzielen, die erfaßte Verschiebung aufzuheben. Das System kann
einen Algorithmus enthalten oder kann aus einer Anzahl von zu verwenden
den Algorithmen auswählen, um jede "Umkehrverschiebung" zu implementie
ren. Die Logik, die entscheidet, welche Umkehrverschiebung tatsächlich an
einem Bild implementiert wird, bevor es zur weiteren Verarbeitung oder
Anzeige weitergeleitet wird, wird als "Verschiebungslogik" bezeichnet.
Nachdem die IVUS-Bilder für die gemischten Typen von erfaßter Bewegung
stabilisiert sind, kann das System dann die kartesische (oder polare) Bild
information zur Weiterverarbeitung und schließlich zur Anzeige übertragen,
wo die Ergebnisse der Stabilisierung betrachtet werden können, z. B. von
einem Arzt. Alternativ kann die Stabilisierung für den Benutzer in dem
Sinne unsichtbar sein, daß die Stabilisierung vor einigen anderen Verarbei
tungsschritten verwendet wird, wonach die entstandenen Bilder auf die
Anzeige in ihrer ursprünglichen nichtstabilisierten Stellung oder Orientierung
projiziert werden.
Es ist möglich, daß die Transversalbewegung zwischen Bildern nicht starr,
sondern eher von örtlicher Natur ist, d. h. verschiedene Teile des Bildes
zeigen Bewegung in unterschiedlichen Richtungen und Ausmaßen. In diesem
Fall können die oben beschriebenen Stabilisierungsverfahren oder andere
Arten von Verfahren auf einer lokalen Grundlage implementiert werden, um
solche Bewegung zu kompensieren.
Die vorliegende Erfindung sieht die Erfassung der Herzperiodizität durch
Verwendung der nur von IVUS-Bildern abgeleiteten Information vor, ohne
die Notwendigkeit eines äußeren Signals, wie etwa des EKGs. Dieser
Prozeß beinhaltet Nahheitsoperationen, die zum Teil auch in dem Stabilisie
rungsprozeß verwendet werden. Eine wichtige Funktion der Erfassung der
Periodizität (d. h. des Herz-Gating), wenn der Katheter stationär ist oder ein
gesteuerter IVUS-Pullback durchgeführt wird, ist, daß sie die Auswahl von
Bildern ermöglicht, die zu der gleichen Phase in aufeinanderfolgenden
Herzzyklen gehören. Das Auswählen von Bildern auf Grundlage des Herz-Ga
ting ermöglicht Stabilisierung aller Arten von periodischer Bewegung
(einschließlich Transversalbewegung, Z-Achsen-Bewegung und Winkelbewe
gungen) in dem Sinne, daß Bilder aus der gleichen Phase in aufeinand
erfolgenden Herzschlägen ausgewählt werden. Diese IVUS-Bilder können
z. B. angezeigt werden und alle zwischen ihnen erzeugten Lücken können
kompensiert werden durch Einfüllen und Anzeigen von interpolierten Bildern.
Die durch diese Operation ausgewählten IVUS-Bilder können auch zur
Weiterverarbeitung weitergeschickt werden.
Die für die Periodizitätserfassung verwendeten Nahheitsoperationen können
auch zur Überwachung der Bildqualität eingesetzt werden und mit Funktions
störungen der Abbildungs- und Verarbeitungsvorrichtung zusammenhängende
Artefakte anzeigen.
Für die Verschiebungsauswertung verwendete Operationen können automatisch
Gefäßbewegung anzeigen. Dies kann dem Stabilisierungsprozeß dienen, da
Gefäßbewegung dazu führt, daß aufeinanderfolgende Bilder aufgrund der
Änderung in der Weite des Gefäßes sich voneinander unterscheiden. Wenn
Bilder gegen Gefäßbewegung stabilisiert sind, wird diese Änderung kom
pensiert. Alternativ könnte die die Weiteänderung betreffende Information
angezeigt werden, da sie physiologische Bedeutung haben könnte. Die
Überwachung der Gefäßbewegung wird bewerkstelligt durch Anwenden von
Nahheitsoperationen auf aufeinanderfolgende Bilder unter Verwendung ihrer
polaren Darstellungen, d. h. A(r, θ). Diese Operationen können zwischen
gesamten Bildern oder zwischen einzelnen polaren Vektoren (aus aufeinand
erfolgenden Bildern) angewendet werden, je nach Art der gewünschten
Information. Da globale Gefäßbewegung als eine gleichförmige Änderung
in der Weite des Gefäßes ausgedrückt wird, kann sie durch eine Nahheits
operation ausgewertet werden, die das gesamte polare Bild berücksichtigt.
Im allgemeinen kann jede zur globalen Stabilisierung in der polaren Darstel
lung geeignete Operation verwendet werden, um globale Gefäßbewegung
auszuwerten.
Unter bestimmten Bedingungen kann während des IVUS-Abbildungsvorgangs
ungleichförmige Gefäßbewegung auftreten, d. h. eine Bewegung nur in
bestimmten Abschnitten des IVUS-Bildes, die spezifischen Stellen in dem
Körperlumen entsprechen. Dies kann z. B. vorkommen, wenn eine Arterie
an einer bestimmten Stelle eine Plaque-Ablagerung hat, so daß eine Auf
weitung oder Kontraktion der Arterie nur in den von der Plaque-Ablagerung
freien Flächen möglich ist. Wenn eine solche Bewegung erfaßt wird, ist
das System in der Lage, die Ultraschallsignale, die Querschnitte des Kör
perlumens darstellen, in mehrere Segmente zu unterteilen, die dann jeweils
einzeln mit Bezug auf ein entsprechendes Segment im benachbarten Bild
unter Verwendung bestimmter Algorithmen verarbeitet werden. Die resultie
renden IVUS-Bilder können dann angezeigt werden. Diese Form von
Stabilisierung kann einzeln oder in Verbindung mit den oben behandelten
Stabilisierungstechniken eingesetzt werden. Alternativ kann die die lokale
Änderung der Gefäßweite betreffende Information angezeigt werden, da sie
physiologische Bedeutung haben könnte.
Das zeitliche Verhalten von Pixeln und ihre Texturattribute könnten zur
Verbesserung der Anzeige und zur automatischen Segmentierung (Lumen
extraktion) dienen. Bei Überwachung in einer stabilisierten Bildumgebung
kann die Leistungsfähigkeit der Bildverbesserungs- und Segmentierungsprozes
se verbessert werden.
Gemäß der vorliegenden Erfindung kann das zeitliche Verhalten von IVUS-Bil
dern automatisch überwacht werden. Die durch solche Überwachung
gewonnene Information kann verwendet werden, um die Genauigkeit der
IVUS-Bildinterpretation zu verbessern. Durch Filtern und Unterdrücken der
schnell veränderlichen Merkmale wie etwa des durch das Gefäß fließenden
Materials, z. B. Blut, und der Morphologie außerhalb des Gefäßes infolge
ihres zeitlichen Verhaltens kann die menschliche Wahrnehmung des Gefäßes
sowohl in statischen Bildern als auch in dynamischen Bildern, z. B. in
Filmform abgespielten Bildern, verbessert werden.
Eine automatische Segmentierung, d. h. Identifizierung des Gefäßes und des
Materials, z. B. Blut, das durch das Gefäß fließt, kann durch Verwendung
eines Algorithmus durchgeführt werden, der das Material, z. B. Blut, automa
tisch auf Grundlage des zeitlichen Verhaltens von Texturattributen identifi
ziert, die von den es darstellenden Pixeln gebildet sind. Das zeitliche
Verhalten, das aus diesen Bildern extrahiert wird, kann für vielfältige
Zwecke verwendet werden. Zum Beispiel kann eine zeitliche Filterung zur
Bildverbesserung durchgeführt werden und eine Erfassung der Änderungen in
der Pixeltextur kann zur automatischen Identifizierung des Lumens und
seines Umfanges verwendet werden.
In allen IVUS-Bildern wird der Katheter selbst (und die Abbildungsvor
richtung) am besten aus dem Bild vor der Stabilisierung oder zur Über
wachung eliminiert. Wenn der Katheter nicht eliminiert wird, könnte dies
Stabilisierungstechniken und Überwachung beeinträchtigen. Die Eliminierung
des Katheters kann automatisch durchgeführt werden, da seine Abmessungen
bekannt sind.
Die vorliegende Erfindung sieht auch die automatische Identifizierung (d. h.
Zuordnung oder Registration) von entsprechenden Rahmen aus zwei verschie
denen IVUS-Pullback-Filmen des gleichen Segments eines Gefäßes, z. B. vor
und nach Behandlung, vor. Um einen ersten IVUS-Pullback-Film, d. h. eine
erste IVUS-Bildsequenz, mit einem zweiten IVUS-Pullback-Film, d. h. einer
zweiten IVUS-Bildsequenz, des gleichen Segments eines Körperlumens zu
vergleichen, das z. B. auf Video, Film oder in digitalisierter Form aufgenom
men ist, müssen die Bildsequenzen synchronisiert werden. Die Zuordnung,
durch die diese Synchronisation erreicht wird, umfaßt die Durchführung von
Nahheitsoperationen zwischen Gruppen von aufeinanderfolgenden Bildern, die
zu den zwei Sätzen von IVUS-Bildsequenzen gehören.
Aus einer Bildsequenz wird eine Gruppe von aufeinanderfolgenden Bildern,
als Referenzgruppe bezeichnet, ausgewählt. Diese Gruppe sollte aus einem
Bereich des Gefäßes ausgewählt sein, der in beiden Bildsequenzen dargestellt
ist, und es sollte ein Bereich sein, an dem keine Therapie durchgeführt
wird, da es wahrscheinlich ist, daß sich die Morphologie des Gefäßes durch
die Therapie ändert. Eine andere Bedingung für diesen Zuordnungsprozeß
ist, daß die zwei Bildsequenzen mit einer bekannten, konstanten und vor
zugsweise der gleichen Pullback-Geschwindigkeit aufgenommen sind.
Nahheitsoperationen werden zwischen Bildern der Referenzgruppe und den
Bildern aus der zweiten Gruppe durchgeführt, die die gleiche Zahl von aus
der zweiten Bildsequenz entnommenen Bildern hat. Diese zweite Gruppe
von Bildern wird dann um einen einzelnen Rahmen mit Bezug zur Referenz
gruppe verschoben, und die Nahheitsoperationen werden wiederholt. Dies
kann für eine vorgegebene Anzahl von Malen wiederholt werden, und die
Nahheitsergebnisse jeder Rahmenverschiebung werden verglichen, um die
maximale Nahheit zu bestimmen. Die maximale Nahheit bestimmt die Rah
menverschiebung zwischen den Bildern der zwei Bildsequenzen. Diese Ver
schiebung kann im ersten oder zweiten Film umgekehrt werden, so daß
entsprechende Bilder automatisch identifiziert und/oder gleichzeitig betrachtet
werden können.
So können entsprechende Bilder z. B. betrachtet werden, um die Wirksamkeit
einer durchgeführten Therapie oder eine Änderung der Morphologie im
Laufe der Zeit zu bestimmen.
Zusätzlich können die diversen oben diskutierten Arten von Stabilisierung
innerhalb oder zwischen den Bildern der zwei Sequenzen vor, während oder
nach dieser Zuordnungsoperation implementiert werden. So können die zwei
Filme nicht nur synchronisiert, sondern auch in der gleichen Orientierung
und Stellung mit Bezug zueinander angezeigt werden.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der Erfindung
werden nun anhand eines Ausführungsbeispiels unter Bezugnahme auf die
beigefügten Zeichnungen näher erläutert. Es zeigen:
Fig. 1(a) und (b) eine zweidimensionale Anordnung der Matrix eines Bildes,
angeordnet in digitalisierten Vektoren in polaren bzw. kartesi
schen Koordinaten;
Fig. 2 die Ergebnisse einer Verschiebungsauswertung zwischen zwei
aufeinanderfolgenden Bildern in kartesischen Koordinaten;
Fig. 3 Bilder, die das Auftreten von Drift-Erscheinungen in polaren
und kartesischen Koordinaten darstellen;
Fig. 4 die Wirkung der Durchführung von Stabilisierungsoperationen
(Drehverschiebungen und kartesische Verschiebungen) an einem
Bild;
Fig. 5 die globale Kontraktion oder Aufweitung eines Körperlumens,
ausgedrückt in der polaren Darstellung des Bildes und in der
kartesischen Darstellung des Bildes;
Fig. 6 ein in vier Abschnitte unterteiltes Bild für die Verarbeitung
gemäß der vorliegenden Erfindung;
Fig. 7 ein Gefäß, sowohl in kartesischen als auch in Polarkoordina
ten, in dem lokale Gefäßbewegung erfaßt worden ist;
Fig. 8 die Ergebnisse lokaler Gefäßbewegungsüberwachung in einem
realen Herzkranzgefäß in graphischer Form;
Fig. 9 ein EKG und einen Kreuzkorrelationskoeffizienten, synchron
graphisch aufgetragen;
Fig. 10 eine Tabelle einer Gruppe von Kreuzkorrelationskoeffizienten
(mittlere Reihe), die zu aufeinanderfolgenden Bildern (Num
mern 1 bis 19, gezeigt in der oberen Reihe) gehören, und die
Ergebnisse von internen Kreuzkorrelationen (untere Reihe);
Fig. 11 ein Diagramm eines Kreuzkorrelationskoeffizienten, der ein
Artefakt in IVUS-Bildern zeigt;
Fig. 12 ein in drei Grundteile unterteiltes IVUS-Bild: das Lumen,
durch den Fluid fließt, das tatsächliche Gefäß und das umge
bende Gewebe;
Fig. 13 die Ergebnisse zeitlicher Filterung;
Fig. 14 ein Bild der Ergebnisse des Algorithmus zur automatischen
Lumenextraktion;
Fig. 15 die Zeitsequenz eines ersten Films (linke Spalte), das Refe
renzsegment aus dem zweiten Film (mittlere Spalte) und die
Bilder aus dem ersten Film, die den Bildern aus dem Refe
renzsegment entsprechen (oder ihnen zugeordnet sind) (rechte
Spalte).
Bei intravaskularen Ultraschall-Abbildungssystemen (IVUS) werden Ultra
schallsignale von der Ultraschallvorrichtung, z. B. einem Wandler oder einer
Wandleranordnung, ausgesendet und empfangen, verarbeitet und gegebenen
falls als digitalisierte Daten umfassende Vektoren angeordnet. Jeder Vektor
stellt die Ultraschallantwort eines unterschiedlichen Winkelsektors des Kör
perlumens dar. Die Anzahl von Datenelementen in jedem Vektor (axiale
Abtastauflösung) und die Anzahl von zum Abtasten des vollständigen Quer
schnitts des Körperlumens verwendeten Vektoren (seitliche Abtastauflösung)
hängt von dem speziell verwendeten IVUS-System ab.
Die digitalisierten Vektoren werden ursprünglich in eine zweidimensionale
Anordnung oder Matrix eingeordnet, die in Fig. 1(a) dargestellt ist. All
gemein hat diese Matrix sogenannte Polarkoordinaten, d. h. Koordinaten A(r,
θ). Die X-Achse der in Fig. 1(a) gezeigten Matrix entspricht der r-Koor
dinate, wohingegen die Y-Achse der Matrix der θ-Koordinate entspricht.
Jeder Wert der Matrix ist im allgemeinen ein Grauwert, z. B. zwischen 0
und 255, wenn es ein 8-Bit-Wert ist, der die Stärke des Ultraschallsignals
an der entsprechenden Stelle in dem Körperlumen darstellt. Diese polare
Matrix kann in eine kartesische Matrix, wie in Fig. 1(b) gezeigt, mit einer
X-Achse und einer Y-Achse, umgewandelt werden, die der kartesischen
Darstellung des Querschnitts des Gefäßes entspricht. Die ursprüngliche
Anordnung und die Anzeige können jeweils polare oder kartesische Koor
dinaten verwenden. Die Werte der Matrix können andere als Grauwerte
sein, z. B. können sie Farbwerte oder andere Werte sein, und können mehr
oder weniger als 8 Bit umfassen.
Während einer IVUS-Abbildungsungs-Pullback-Prozedur können das Körper
lumen, nachfolgend als ein Gefäß bezeichnet, und/oder der abbildende
Katheter unterschiedliche Arten von Relativbewegung erfahren. Diese Arten
von Bewegung umfassen: (1) Drehung in der Ebene des Bildes, d. h. eine
Verschiebung in der θ-Koordinate des polaren Bildes; (2) kartesische Ver
lagerung, d. h. eine Verschiebung in der X- und/oder Y-Koordinate im
kartesischen Bild; (3) globale Gefäßbewegung, gekennzeichnet durch eine
radiale Kontraktion und Aufweitung des gesamten Gefäßes, d. h. eine gleich
förmige Verschiebung in der r-Koordinate des polaren Bildes; (4) lokale
Gefäßbewegung, gekennzeichnet durch eine radiale Kontraktion und Auf
weitung verschiedener Teile des Gefäßes mit verschiedenen Starken und
Richtungen, d. h. lokale Verschiebungen in der r-Koordinate des polaren
Bildes; (5) lokale Bewegung, gekennzeichnet durch unterschiedliche Gewebe
bewegung, die in Abhängigkeit von der genauen Stelle im Bild variiert; und
(6) Bewegung durch die Ebene, d. h. Bewegungen, die senkrecht oder nahezu
senkrecht zur Ebene des Bildes sind (Winkelbewegungen).
Eine Stabilisierung aufeinanderfolgender Rohbilder ist anwendbar auf die
ersten fünf oben beschriebenen Arten von Bewegung, weil die Bewegung auf
die Transversalebene beschränkt ist. Diese Arten von Bewegung können
kompensiert und stabilisiert werden, indem jedes gegenwärtige Bild so trans
formiert wird, daß seine Ähnlichkeit zu seinem Vorgängerbild maximiert ist.
Die ersten drei Arten von Bewegung können durch Verwendung von Nah
heitsoperationen stabilisiert werden, die ganze Bilder oder große Teile davon
miteinander vergleichen. Dies liegt daran, daß die Bewegung global oder
starr von Natur ist. Die vierte und fünfte Art von Bewegung werden durch
Anwendung von Nahheitsoperationen auf einer lokalisierten Basis stabilisiert,
weil verschiedene Teile des Bildes unterschiedliche Bewegung aufweisen.
Die sechste Art von Bewegung kann nur teilweise durch Anwendung von
Nahheitsoperationen auf lokalisierter Basis stabilisiert werden. Dies liegt
daran, daß die Bewegung nicht auf die Transversalebene beschränkt ist.
Diese Art von Bewegung kann stabilisiert werden durch Anwendung von
Kardiovaskulär-Periodizitätserfassung.
Die nächsten Abschnitte sollen Verfahren zur globalen Stabilisierung be
schreiben, mit einer darauffolgenden Beschreibung von Verfahren zur lokalen
Stabilisierung. Die Stabilisierung durch Anwendung von Kardiovaskulär-Peri
odizitätserfassung soll in den Abschnitten beschrieben werden, die die
Periodizitätserfassung behandeln.
Um eine globale Stabilisierung zu erreichen, wird eine Verschiebungsauswe
rtung unter Verwendung einer Art von Nahheitsoperation durchgeführt. Die
Nahheitsoperation mißt die Ähnlichkeit zwischen zwei Bildern. Die Ver
schiebungsauswertung wird ausgeführt durch Transformieren eines ersten
Bildes und Messen seiner Nahheit, d. h. Ähnlichkeit, mit seinem vorherge
henden zweiten Bild. Die Transformation kann z. B. durchgeführt werden
durch Verschieben des gesamten ersten Bildes entlang einer Achse oder
einer Kombination von Achsen (X und/oder Y in kartesischen Koordinaten
oder r und/oder θ in Polarkoordinaten), um ein einzelnes Pixel (oder mehr).
Nachdem die Transformation, d. h. die Verschiebung, vollendet ist, wird das
transformierte erste Bild mit dem vorhergehenden zweiten Bild unter Ver
wendung einer vordefinierten Funktion verglichen. Diese Transformation
wird wiederholt, jedesmal durch Verschieben des ersten Bildes um ein
zusätzliches Pixel (oder mehr) entlang der gleichen und/oder einer anderen
Achse und Vergleichen des transformierten ersten Bildes mit dem vorherge
henden zweiten Bild unter Verwendung einer vorgegebenen Funktion.
Nachdem alle Verschiebungen ausgewertet worden sind, wird die Stelle des
globalen Extremums der Vergleiche unter Verwendung der vordefinierten
Funktion die Richtung und Größe der Bewegung zwischen dem ersten Bild
und seinem zweiten Vorgängerbild zeigen.
Zum Beispiel zeigt Fig. 2 die Ergebnisse einer Verschiebungsauswertung
zwischen zwei aufeinanderfolgenden Bildern in kartesischen Koordinaten.
Bild A ist ein Vorgängerbild, das ein Muster zeigt, z. B. einen Querschnitt
eines Gefäßes, dessen Mitte im unteren rechten Quadranten der Matrix
angeordnet ist. Bild B ist ein gegenwärtiges Bild, das das gleiche Muster
zeigt, allerdings nach oben und nach links verschoben und im oberen linken
Quadranten der Matrix liegend. Größe und Richtung der Bewegung der
Mitte des Gefäßes ist durch den Pfeil bezeichnet. Die untere Matrix ist die
C-(shiftX, shiftY)-Matrix, die die resultierende Matrix nach Ausführung von
Verschiebungsauswertungen unter Verwendung einer Art von Nahheitsopera
tion ist.
Es gibt viele verschiedene Algorithmen oder mathematische Funktionen, die
verwendet werden können, um die Nahheitsoperationen auszuführen. Eine
davon ist Kreuzkorrelation, möglicherweise unter Verwendung der Fourier-Trans
formation. Bei dieser werden gegenwärtiges und Vorgängerbild,
jeweils bestehend aus z. B. 256 × 256 Pixeln, jeweils unter Verwendung des
FFT-Algorithmus Fourier-transformiert. Die Konjugierte der FFT des
gegenwartigen Bildes wird mit der FFT des Vorgängerbildes multipliziert.
Das Ergebnis wird unter Verwendung des IFFT-Algorithmus umgekehrt
Fourier-transformiert. Die Formel für die Kreuzkorrelation unter Verwen
dung der Fourier-Transformation kann wie folgt dargestellt werden:
C = real(ifft2((fft2(A)).conj(fft2(B)))),
wobei:
A = Vorgängerbildmatrix (z. B. 256 × 256);
B = gegenwärtige Bildmatrix (z. B. 256 × 256);
fft2 = zweidimensionale FFT;
ifft2 = zweidimensionale umgekehrte FFT;
conj = konjugiert;
real = Realteil des komplexen Ausdrucks;
. = elementweise Multiplikation; und
C = Kreuzkorrelationsmatrix.
A = Vorgängerbildmatrix (z. B. 256 × 256);
B = gegenwärtige Bildmatrix (z. B. 256 × 256);
fft2 = zweidimensionale FFT;
ifft2 = zweidimensionale umgekehrte FFT;
conj = konjugiert;
real = Realteil des komplexen Ausdrucks;
. = elementweise Multiplikation; und
C = Kreuzkorrelationsmatrix.
Eine Auswertung der Nahheit unter Verwendung von durch Fourier-Trans
formation implementierter Kreuzkorrelation ist tatsächlich eine Näherung.
Dies liegt daran, daß die mathematische Formel für die Fourier-Transforma
tion unendliche oder periodische Funktionen oder Matrizen betrifft, wohinge
gen im wirklichen Leben die Matrizen (oder Bilder) von endlicher Größe
und nicht notwendigerweise periodisch sind. Wenn eine Kreuzkorrelation
unter Verwendung von FFT implementiert wird, nimmt das Verfahren
Periodizität in beiden Achsen an.
Als Ergebnis ist diese Formel eine gute Näherung und sie spiegelt die
tatsächliche Situation an der θ-Achse der Polardarstellung des Bildes wider.
Doch spiegelt sie nicht die tatsächliche Situation an der r-Achse der Polar
darstellung oder der X- oder Y-Achse der kartesischen Darstellung des
Bildes wider.
Die Kreuzkorrelation unter Verwendung von FFT hat eine Anzahl von
Vorteilen. Erstens werden alle Werte der Kreuzkorrelationsmatrix C(shiftX,
shiftY) durch diese Grundoperation berechnet. Außerdem gibt es spezielle
Hardware für die effiziente Implementierung der FFT-Operation, d. h. Fou
rier-Transformationschips oder DSP-Leiterplatten.
Ein anderer Algorithmus, der verwendet werden kann, um Nahheitsoperatio
nen durchzuführen, ist direkte Kreuzkorrelation, entweder normiert oder
nicht. Diese wird durchgeführt durch Multiplizieren jedes Pixels im gegen
wärtigen verschobenen Bild mit seinem entsprechenden Pixel im Vorgänger
bild und Aufsummieren aller Ergebnisse und Normieren dieser Ergebnisse im
Fall von normierter Kreuzkorrelation. Jede Verschiebung ergibt eine Sum
me, und die tatsächliche Verschiebung wird angezeigt durch die größte
Summe unter den ausgewerteten Verschiebungen. Die Formel für Kreuzkor
relation kann durch folgende Formel dargestellt werden:
Die Formel für normierte Kreuzkorrelation ist:
wobei:
A = Vorgänger-Bildmatrix;
B = gegenwärtige Bildmatrix;
. = Multiplikation eines Pixels mit entsprechendem Pixel;
Σ = Summe aller Pixel in der Matrix;
C = Matrix der Ergebnisse für alle durchgeführten Verschiebungen.
A = Vorgänger-Bildmatrix;
B = gegenwärtige Bildmatrix;
. = Multiplikation eines Pixels mit entsprechendem Pixel;
Σ = Summe aller Pixel in der Matrix;
C = Matrix der Ergebnisse für alle durchgeführten Verschiebungen.
Unter Verwendung dieses direkten Kreuzkorrelationsverfahrens können
C(shiftX, shiftY) für alle möglichen Werte von shiftX und shiftY ausgewer
tet werden. Zum Beispiel müßten, wenn die Originalmatrizen A und B
jeweils 256 × 256 Pixel haben, shiftX- und shiftY-Werte jeweils von -127
bis +128 ausgewertet werden, was eine Summe von 256 × 256 = 65 536
Verschiebungsauswertungen ergibt, um C(shiftX, shiftY) für alle möglichen
Werte von shiftX und shiftY zu berechnen. Nach Beendigung dieser
Auswertungen wird das globale Maximum der Matrix bestimmt.
Direkte Kreuzkorreiation kann effektiver implementiert werden, indem die
Anzahl benötigter Rechenoperationen verringert wird. Um die tatsächliche
Verschiebung zwischen Bildern zu erfassen, ist nicht die Auswertung jedes
möglichen shiftX und shiftY notwendig. Es genügt, die Stelle mit größtem
C(shiftX, shiftY) für alle möglichen shiftX und shiftY zu finden.
Ein dritter Algorithmus, der verwendet werden kann, um Nahheitsoperationen
auszuführen, ist die Summe von Differenzbeträgen (sum of absolute differen
ces, SAD). Dieser wird durchgeführt durch Subtrahieren jedes Pixels in
einem Bild von seinem entsprechenden Pixel in dem anderen Bild, Nehmen
der Beträge und Aufsummieren aller Ergebnisse. Jede Verschiebung führt
zu einer Summe, und die tatsächliche Verschiebung wird angezeigt durch die
niedrigste Summe. Die Formel für die Differenzbetragssumme (SAD) kann
wie folgt dargestellt werden:
SAD = absolute (A-B).
Diese Formel kann auch wie folgt dargestellt werden:
wobei:
A = Vorgänger-Bildmatrix;
B = gegenwärtige Bildmatrix;
abs = Betrag;
- = elementweise Subtraktion; und
Σ = Summe aller Differenzen.
A = Vorgänger-Bildmatrix;
B = gegenwärtige Bildmatrix;
abs = Betrag;
- = elementweise Subtraktion; und
Σ = Summe aller Differenzen.
Während die Genauigkeit jedes dieser Algorithmen/dieser Formeln geringfü
gig variieren kann, je nach spezifischer Art der vorgefundenen Bewegung
und der Systemeinstellungen, versteht sich, daß keine einzelne Formel a
priori als diejenige ausgewertet werden kann, die die besten oder genauesten
Ergebnisse liefert. Außerdem gibt es zahlreiche Abwandlungen an den oben
beschriebenen Formeln und andere Algorithmen/Formeln, die verwendet
werden können, um eine Verschiebungsauswertung durchzuführen, und die
für die oben beschriebenen Algorithmen/Formeln eingesetzt werden können.
Diese Algorithmen/Formeln umfassen ebenfalls jene Operationen, die im
Stand der Technik zur Verwendung als Zuordnungsoperationen bekannt sind.
Wiederum bezogen auf Fig. 2 wird, wenn die durchgeführte Nahheitsopera
tion eine Kreuzkorrelation ist, C(shiftX, shiftY) als Kreuzkorrelationsmatrix
bezeichnet, und ihr globales Maximum (dargestellt durch den schwarzen
Punkt im oberen linken Quadranten) liegt in einem Abstand und einer
Richtung vom Mittelpunkt der Matrix (Pfeil in Matrix c), die gleich dem
des Mittelpunkts des Gefäßes in Bild B relativ zum Mittelpunkt des Gefäßes
in Bild A sind (Pfeil in Bild B).
Wenn die durchgeführte Nahheitsoperation SAD ist, würde der schwarze
Punkt das globale Minimum anzeigen, das in einem Abstand und einer
Richtung vom Mittelpunkt der Matrix (Pfeil in Matrix c) liegt, die die
gleichen sind wie die vom Mittelpunkt des Gefäßes in Bild B relativ zum
Mittelpunkt des Gefäßes in Bild A (Pfeil in Bild B).
Drehbewegung wird ausgedrückt als eine Verschiebung des gegenwärtigen
polaren Bildes entlang der θ-Koordinate in bezug zu seinem Vorgänger.
Die Drehverschiebung in einem gegenwärtigen Bild wird erfaßt durch Maxi
mieren der Nahheit zwischen dem gegenwärtigen polaren Bild und seinem
Vorgänger. Maximale Nahheit wird erhalten, wenn das gegenwärtige Bild
um die genaue Größe der tatsächlichen Verschiebung umgekehrt verschoben
ist. Zum Beispiel in einem 256 × 256-Pixel-Bild gibt der Wert der Diffe
renz (in Pixeln) zwischen 128 und der θ-Koordinate des Maximums in dem
Kreuzkorrelationsbild (das Minimum im SAD-Bild) die (positive oder negati
ve) Richtung und Größe der Drehung an.
Globale Gefäßbewegung ist gekennzeichnet durch Aufweitung und Kontraktion
des gesamten Querschnitts des Gefäßes. Im polaren Bild wird diese Art
von Bewegung ausgedrückt als eine Einwärts- und Auswärtsbewegung des
Gefäßes entlang der r-Achse. Gefäßbewegung kann kompensiert werden
durch Durchführen der entgegengesetzten Gefäßbewegungsaktion an einem
gegenwärtigen polaren Bild in bezug auf sein polares Vorgängerbild unter
Verwendung einer der oben behandelten oder einer anderen Formel. Im
Gegensatz zur Winkelstabilisierung ändert Gefäßbewegungsstabilisierung nicht
die Orientierung des Bildes, sondern transformiert das Bild, indem es dieses
streckt oder komprimiert.
Kartesische Verlagerung wird ausgedrückt als eine Verschiebung in der
X-Achse und/oder Y-Achse im kartesischen Bild relativ zu seinem Vorgänger.
Diese Art von Bewegung wird eliminiert durch Verschieben des kartesischen
Bildes in einer zur tatsächlichen Verschiebung entgegengesetzten Richtung.
So kann kartesische Verlagerung in der kartesischen Darstellung durch im
wesentlichen dieselben Rechenoperationen erreicht werden, die zur Dreh- und
Gefäßbewegungsstabilisierung in der polaren Darstellung verwendet werden.
Die Anzahl von zum Lokalisieren des globalen Extremums (Maximum oder
Minimum, je nach Nahheitsfunktion) von C(shiftX, shiftY) notwendigen
Verschiebungsauswertungen kann durch Anwendung diverser Rechentechniken
verringert werden. Eine Technik nutzt beispielsweise die Tatsache, daß die
Bewegung zwischen aufeinanderfolgenden IVUS-Bildern im allgemeinen
relativ klein in Beziehung zu den vollen Abmessungen der polaren und/oder
kartesischen Matrizen ist. Dies bedeutet, daß C(shiftX, shiftY) nur in
einem relativ kleinen Teil um den Mittelpunkt der Matrix, d. h. um shiftX = 0,
shiftY = 0 herum ausgewertet werden muß. Es ist sicher, daß das
Extremum dieses Teils das globale Extremum der Matrix C(shiftX, shiftY)
einschließlich größerer Werte für shiftX und shiftY ist. Die Größe des
minimalen Teils, die sicherstellt, daß das darin erfaßte Extremum tatsächlich
ein globales Extremum ist, variiert je nach Systemeinstellungen. Die Anzahl
von notwendigen Auswertungsoperationen kann weiter reduziert werden durch
Ausnutzen der von der C-Matrix (insbesondere in der Nähe des globalen
Extremums) erwarteten Glattheits- und Monotonie-Eigenschaften. Deshalb
ist, wenn der Wert in der C(shiftX, shiftY)-Matrix an einer bestimmten
Stelle ein lokales Extremum ist (z. B. in einer 5 × 5-Pixel-Nachbarschaft),
dieser wahrscheinlich das globale Extremum der gesamten Matrix C(shiftX,
shiftY).
Die Implementierung dieser Verringerung der Anzahl von notwendigen
Auswertungen kann erreicht werden, indem erst aus der Mitte der Matrix
(shiftX = 0, shiftY = 0) herausgesucht wird und eine kleine Nachbarschaft,
z. B. 5 × 5 Pixel um den Mittelpunkt, überprüft wird. Wenn das lokale
Extremum innerhalb dieser Nachbarschaft gefunden wird, ist es wahrschein
lich, daß es das globale Extremum der gesamten Matrix C(shiftX, shiftY)
ist, und die Suche kann beendet werden. Wenn jedoch das lokale Ex
tremum an den Rändern dieser Nachbarschaft, z. B. bei shiftX = -2, shiftX = 2,
shiftY = -2 oder shiftY = 2, gefunden wird, dann wird die Suche
um dieses Pixel herum wiederholt, bis ein C(shiftX, shiftY)-Wert gefunden
wird, der größer (kleiner) als der aller seiner engsten Nachbarn ist. Da bei
einer großen Anzahl von Bildern keine Zwischenbildbewegung auftritt, ist
die Gesamtheit der zum Lokalisieren des globalen Extremums benötigten
Auswertungen in diesen Fällen ca. 5 × 5 = 25 anstatt der ursprünglichen
65 536 Auswertungen.
Die Anzahl von notwendigen Auswertungsoperationen kann auch verringert
werden durch Abtasten der Bilder. Wenn z. B. in 256 × 256-Pixel-Bildern
jedes zweite Pixel abgetastet wird, werden sie auf Matrizen von 128 × 128
reduziert. In diesem Falle umfaßt eine direkte Kreuzkorrelation oder SAD
zwischen solchen Matrizen 128 × 128 Operationen anstelle von 256 × 256
Operationen, jedesmal, wenn die Bilder in bezug zueinander um Eins
verschoben werden. Die Abtastung als ein Verfahren zur Verringerung der
Verschiebungsauswertungsoperationen kann mit anderen oben beschriebenen
Verringerungsverfahren kombiniert werden.
Bezogen wiederum auf Fig. 2 hat als Ergebnis der Nahheitsoperation der
angegebene shiftX einen positiven Wert und shiftY hat einen negativen.
Um das Bild B zu stabilisieren, d. h. die Verschiebungen in X- und Y-Rich
tungen zu kompensieren, kehrt eine Verschiebungslogik die Verschiebun
gen um, d. h. ändert deren Vorzeichen, aber nicht ihre Größe, und im
plementiert diese Verschiebungen an der Bild B entsprechenden Matrix.
Dies kehrt die Verschiebung im Bild B künstlich um und bewirkt, daß Bild
B mit Bezug auf Bild A unverschoben ist.
Die tatsächlichen Werte, die in den Nahheitsberechnungen verwendet werden,
müssen nicht notwendigerweise die ursprünglichen Werte der Matrix sein, so
wie vom Abbildungssystem zur Verfügung gestellt. Zum Beispiel können
verbesserte Ergebnisse erhalten werden, wenn die ursprünglichen Werte zur
zweiten, dritten oder vierten Potenz erhoben oder durch ein anderes Ver
fahren verarbeitet werden.
Der abbildende Katheter und die umhüllende Scheide treten als ständige
Artefakte in allen IVUS-Bildern auf. Dieses Merkmal verdeckt Nahheits
operationen, die zwischen Bildern durchgeführt werden, da es nicht Teil der
Morphologie des Gefäßes ist. Deshalb ist es notwendig, den Katheter und
zugeordnete Objekte aus jedem Bild zu eliminieren, bevor Nahheitsoperatio
nen durchgeführt werden, d. h. seinen Pixeln wird ein Wert Null zugewiesen.
Die Eliminierung dieser Objekte aus dem Bild kann automatisch erfolgen, da
die Abmessungen des Katheters bekannt sind.
Die Verschiebungsauswertung und Implementierung können modular sein.
So können Verschiebungsauswertung und Implementierung auf Polarkoor
dinaten oder auf kartesische Koordinaten einzeln beschränkt sein, oder
Verschiebungsauswertung und Implementierung können sequentiell für polare
und kartesische Koordinaten implementiert sein. Weil der Abbildungsvor
gang in IVUS-Systemen allgemein organisiert ist durch Anwendung zuerst
von Polarkoordinaten und dann deren Umwandlung in kartesische Koor
dinaten, ist es am bequemsten, eine Verschiebungsauswertung und Implemen
tierung in der gleichen Reihenfolge durchzuführen. Die Sequenz kann
jedoch ohne negative Wirkungen und Ergebnisse abgewandelt oder verändert
werden.
Der Verschiebungsauswertungsprozeß kann entlang einer oder zweier Achsen
durchgeführt werden. Im allgemeinen ist zweidimensionale Verschiebungs
auswertung bevorzugt, auch wenn die Bewegung entlang einer Achse ausge
richtet ist. Die Verschiebungsimplementierung kann auf beide Achsen, eine
Achse oder keine Achse beschränkt sein.
Es besteht keine notwendige Identität zwischen der Fläche in dem Bild, die
zur Verschiebungsauswertung verwendet wird und der Fläche, an der die
Verschiebungsimplementation ausgeführt wird. Zum Beispiel kann eine
Verschiebungsauswertung unter Verwendung einer relativ kleinen Fläche im
Bild durchgeführt werden, während die Implementierung der Verschiebung
das gesamte Bild entsprechend der durch diese Fläche angezeigten Ver
schiebung verschiebt.
Eine triviale Verschiebelogik ist eine, bei der die an jedem Bild (das
dadurch ein stabilisiertes Bild bildet) implementierte Verschiebung eine
gleiche Größe und entgegengesetzte Richtung zur ausgewerteten Verschiebung
hat. Eine solche Logik kann jedoch zu einem als Drift definierten Prozeß
führen. Drift ist ein Prozeß, bei dem implementierte Verschiebungen
akkumulieren und eine wachsende Verschiebung erzeugen, deren Abmessun
gen signifikant in Beziehung zum Gesamtbild oder zur Gesamtanzeige sind.
Drift kann ein Ergebnis von ungenauer Verschiebungsauswertung oder von
nicht transversaler Bewegung zwischen Bildern an einer Stelle des kardio
vaskulären Zyklus sein. Wenn kartesische Stabilisierung implementiert ist,
kann Verschiebung z. B. die Verschiebung eines relativ großen Teils des
Bildes aus der Anzeige heraus verursachen. Wenn Drehstabilisierung im
plementiert ist, kann Drift die zunehmende Drehung des Bildes in einer
bestimmten Richtung verursachen.
Fig. 3 ist ein Bild, das das Auftreten von Drift in polaren und kartesischen
Koordinaten darstellt. Das linke Bild ist die Originalanzeige des Bildes,
wohingegen das rechte Bild das gleiche Bild ist, nachdem polare und
kartesische Stabilisierung durchgeführt worden sind. Man beachte, wie das
rechte Bild um einen großen Winkel im Gegenuhrzeigersinn gedreht und in
bezug auf das linke Bild nach unten verschoben ist. In diesem Fall kom
pensieren Drehverschiebung und kartesische Verschiebung nicht tatsächliche
Verschiebungen im Bild, sondern folgen statt dessen aus ungenauer Verschie
bungsauswertung.
Die Verschiebungslogik muß in der Lage sein, mit dieser Drift umzugehen,
so daß eine minimale Implementierung von falsch ausgewerteten Verschiebun
gen erfolgt. Ein Verfahren zum Verhindern oder wenigstens zum Begrenzen
der Drift ist das Setzen einer Grenze für die Größe zulässiger Verschiebun
gen. Dies minimiert die Drift, allerdings mit dem Preis der Nichtkompensa
tion mancher tatsächlicher Verschiebungen. Zusätzliche Verfahren können
eingesetzt werden, um Verschiebung zu verhindern oder zu minimieren.
Diese können eventuell mit den später behandelten kardiovaskulären Periodi
zitätserfassungsverfahren verknüpft werden.
Die in Fig. 4 gezeigten Bilder stellen die Wirkung der Durchführung von
Stabilisierungsoperationen (Drehverschiebungen und kartesischen Verschiebun
gen) auf ein Bild dar. Das linke Bild ist ein IVUS-Bild aus einer Herz
kranzarterie, so wie es auf einem großen Teil einer Anzeige aussehen würde
(mit gelöschtem Katheter), wohingegen das rechte Bild zeigt, wie das linke
Bild angezeigt würde, nachdem Stabilisierungsoperationen implementiert
worden sind.
Mit einem eingehenden Blick auf das linke und rechte Bild in Fig. 4
können bestimmte Unterschiede beobachtet werden. Erstens ist das rechte
Bild geringfügig in Uhrzeigersinn (d. h. um ein paar Grad) in Beziehung
zum linken Bild gedreht. Dies ist das Ergebnis von Drehstabilisierung.
Weiterhin ist das rechte Bild allgemein nach links in Beziehung zum linken
Bild verschoben. Dies kann durch Feststellen des Abstands des Lumens
(Hohlraum) von den Rändern des Bildes in jedem Bild erfaßt werden. Dies
ist ein Ergebnis von kartesischen Verschiebungsstabilisierungsoperationen.
Die Vorteile der Stabilisierung des angezeigten Bildes können nicht durch
Betrachten einzelner Bilder, wie in Fig. 4 gezeigt, eingeschätzt werden.
Das Betrachten eines Films solcher Bilder würde die Vorteile jedoch sofort
zeigen. Bei einer Anzeige, die keine Stabilisierung umfaßt, würde die Stelle
des Katheters immer in der Mitte der Anzeige liegen, und die morphologi
schen Merkmale würden sich hierum bewegen und auf der Anzeige rotieren.
In einer stabilisierten Anzeige hingegen würde sich die Stelle des Katheters
herumbewegen und die morphologischen Merkmale würden im wesentlichen
stationär bleiben. Eine Stabilisierung muß nicht zwangsläufig auf einer
tatsächlichen Anzeige dargestellt sein. Sie kann für den Benutzer in dem
Sinne unsichtbar sein, daß die Stabilisierung nachfolgende Verarbeitungs
schritte verbessert, doch die tatsächliche Anzeige zeigt die resultierenden
verarbeiteten Bilder in ihrer ursprünglichen (nicht stabilisierten) Stellung und
Orientierung.
Fig. 5 zeigt globale Kontraktion oder Aufweitung eines Gefäßes, ausgedrückt
in der polaren Darstellung des Bildes als eine Bewegung der Merkmale
entlang der r-Koordinaten, d. h. Bewegung entlang der Polarvektoren. Fig.
5 zeigt auch die gleiche globale Kontraktion oder Aufweitung, ausgedrückt
in der kartesischen Darstellung des Bildes. Fig. 5(a) zeigt das Aussehen
der Grundlinie des Querschnitts eines Gefäßes in polarer sowie kartesischer
Darstellung. Fig. 5(b) zeigt eine Kontraktion des Gefäßes relativ zur
Grundlinie. Fig. 5(c) zeigt eine gleichförmige Aufweitung des Gefäßes
relativ zur Grundlinie.
Da globale Gefäßbewegung ausgedrückt wird als eine gleichförmige Ände
rung in der Weite des Gefäßes, kann jede zur Stabilisierung der polaren
Darstellung geeignete Operation verwendet werden, um globale Gefäßbewe
gung abzuschätzen, d. h. sie kann abgeschätzt werden durch eine Nahheits
operation unter Verwendung des gesamten polaren Bildes.
Nachdem eine zweidimensionale Verschiebungsauswertung durchgeführt
worden ist, wie oben behandelt, wird die Stelle des Maximums in der
Matrix C(shiftX, shiftY) an der θ-Achse für Drehstabilisierung verwendet.
Dies beläßt die Stelle des Extremums auf der r-Achse, die als eine Anzeige
für globale Gefäßbewegung verwendet werden kann. So ist die globale
Gefäßbewegungsüberwachung ein Nebenprodukt der zweidimensionalen Ver
schiebungsauswertung im polaren Bild.
Jedes Paar von aufeinanderfolgenden Bildern ergibt einen Anzeigewert der
Gefäßbewegung. Sowohl die Größe als auch das Vorzeichen der resultieren
den Verschiebung zwischen den Bildern kennzeichnen die Änderung im
Gefäß, d. h. die Gefäßbewegung. Negative Verschiebungen zeigen Auf
weitung an, positive Verschiebungen zeigen Kontraktion an. Die Größe des
Wertes gibt die Größe der Gefäßbewegungsänderung an.
Unter bestimmten Umständen kann Bewegung oder Gefäßbewegung nicht
gleichförmig/starr sein, obwohl sie auf die Ebene des Bildes, d. h. die
Transversalebene, beschränkt ist. Um die Art von Bewegung oder Gefäßbe
wegung zu bestimmen, kann das Bild in Abschnitte unterteilt und eine
globale Stabilitätsauswertung für jeden dieser Abschnitte durchgeführt werden.
Durch Untersuchen der angegebenen Verschiebungen dieser Abschnitte relativ
zu den entsprechenden Abschnitten im Vorgängerbild kann eine Bestimmung
hinsichtlich der Art der Bewegung erfolgen. Zum Beispiel kann, wie in
Fig. 6 gezeigt, das Bild in Fig. 6(a) in vier Abschnitte, wie in Fig. 6(b)
gezeigt, unterteilt werden. Verschiebungsauswertung kann für jeden dieser
vier Abschnitte getrennt ausgeführt werden. Ein Vergleich zwischen den
Ergebnissen der Verschiebungsauswertung für jeden dieser vier Abschnitte
kann möglicherweise die Art der tatsächlichen Bewegung identifizieren. So
kann die Art der angewendeten Stabilisierung je nach Art der erfaßten
Bewegung variiert werden.
Stabilisierung für lokale Bewegung wird erreicht durch Ausführen von
Nahheitsoperationen auf einer lokalen Grundlage. Kleine Bereiche des
Vorgängerbildes A ("Muster"-Bereiche) und kleine Bereiche des gegenwärti
gen Bildes B ("Suchbereiche") nehmen am lokalen Stabilisierungsprozeß teil.
Manchmal ist es am besten, eine lokale Stabilisierung durchzuführen, nach
dem eine globale Stabilisierung durchgeführt worden ist.
Während der lokalen Stabilisierung werden Musterbereiche im Vorgängerbild
(A) innerhalb von Suchbereichen verschoben und unter Verwendung von
Nahheitsoperationen mit Bereichen mit Größe der Muster im gegenwärtigen
Bild (B) verglichen. Jedes Pixel im (neu) gebildeten stabilisierten Bild (B')
bekommt auf Grundlage der Ergebnisse der durchgeführten Such- und
Nahheitsauswertung einen neuen Wert.
Lokale Stabilisierung wird dargestellt anhand des folgenden Beispiels, bei
dem der Musterbereich ein 1 × 1 Pixel-Bereich, d. h. ein einziges Pixel und
der Suchbereich ein 3 × 3 Pixel-Bereich und die Nahheitsoperation SAD ist.
Im vorliegenden Diagramm sind das mit 3 ausgewertete Pixel in A und das
mit 9 ausgewertete Pixel in B entsprechende Pixel. Die 3 × 3 Pixel-Umge
bung des Pixels mit Wert 9 ist auch dargestellt.
Bei diesem Beispiel wird nach den oben beschriebenen Bedingungen das
"Muster"-Pixel mit Wert 3 unter Verwendung von SAD mit allen im 3 ×
3-Suchbereich um das Pixel mit Wert 9 gefundenen Pixeln verglichen. Das
mit 1 ausgewertete Pixel in der oberen linken Ecke des Suchbereichs liefert
von allen Möglichkeiten im Suchbereich den minimalen SAD-Wert (|1-3| =
2). Als Ergebnis wird im neu gebildeten stabilisierten Bild (B') dem Pixel,
dessen Stelle den mit 3 und 9 ausgewerteten Pixeln entspricht, der Wert 1
zugewiesen.
Im allgemeinen können die Abmessungen von Muster- und Suchbereich,
zusammen mit den verwendeten Nahheitsoperationen variieren. Der tatsächli
che Wert, der dem Pixel des neu gebildeten stabilisierten Wertes (B')
zugewiesen wird, muß nicht notwendigerweise ein tatsächlicher Pixelwert aus
dem gegenwärtigen Bild B sein (wie im Beispiel dargestellt), sondern eine
Funktion von Pixelwerten. Es ist wichtig zu beachten, daß als Ergebnis
von lokaler Stabilisierung, im Gegensatz zu den globalen/starren Verfahren
die "Zusammensetzung" des Bildes, d. h. die innere Beziehung zwischen
Pixeln und ihre Verteilung im stabilisierten Bild, sich in bezug zum ur
sprünglichen Bild ändert. Lokale Stabilisierung kann sowohl an polaren als
auch kartesischen Darstellungen des Bildes implementiert werden.
Fig. 7 zeigt ein Gefäß, sowohl in kartesischen als auch in Polarkoordinaten,
an dem lokale Gefäßbewegung erfaßt worden ist. Wenn lokale Gefäßbewe
gung erfaßt wird, ist dies ein Hinweis, daß Teile des Querschnitts des
Gefäßes sich anders verhalten als andere Teile des Querschnitts.
Fig. 7(a) zeigt eine Grundlinienfigur des Gefäßes vor der lokalen Gefäßbe
wegung. Fig. 7(b) zeigt ein Beispiel von lokaler Gefäßbewegung. Wie
sowohl in der kartesischen als auch der polaren Darstellung gezeigt, verhal
ten sich vier verschiedene Teile des Gefäßes unterschiedlich: zwei Segmente
des Gefäßes ändern ihre Weite nicht oder bewegen sich nicht relativ zu
ihren entsprechenden Segmenten im Vorgängerbild, ein Segment kontrahiert
oder bewegt sich aufwärts, und ein Segment weitet sich auf oder bewegt
sich abwärts.
Wie beobachtet werden kann, sind globale Gefäßbewegungs-Auswertungsver
fahren nicht geeignet, um lokale Gefäßbewegung auszuwerten, weil das
Gefäß sich nicht gleichförmig verhält. Wenn globale Gefäßbewegungs-Aus
wertung zum Beispiel auf das in Fig. 7 gezeigte Beispiel angewendet
würde, könnte sie eine insgesamt verschwindende Gefäßbewegung erfassen,
das heißt die Kontraktion und die Aufweitung würden einander auflieben.
Deshalb müssen lokale Gefäßbewegungs-Auswertungsverfahren verwendet
werden. Dies kann erreicht werden durch getrenntes Auswerten von Gefäß
bewegung in jedem Polarvektor, d. h. in jedem θ- oder Y-Vektor. Nahheits
operationen werden angewendet unter Verwendung von eindimensionalen
Verschiebungen in entsprechenden Polarvektoren. Wenn zum Beispiel
Nahheit mit Kreuzkorrelation verwendet wird, zeigt die folgende Operation,
wie dies mit eindimensionalen Verschiebungen bewerkstelligt wird.
wobei:
A = Vorgängerbildmatrix;
B = gegenwärtige Bildmatrix;
.= pixelweise Multiplikation;
Σ = Summe der Pixel in der Matrix des Polarvektors;
C = zweidimensionale Korrelationskoeffizientenmatrix.
A = Vorgängerbildmatrix;
B = gegenwärtige Bildmatrix;
.= pixelweise Multiplikation;
Σ = Summe der Pixel in der Matrix des Polarvektors;
C = zweidimensionale Korrelationskoeffizientenmatrix.
Wie man erkennt, wird bei einer Verschiebung entlang einer Achse (X- oder
r-Achse) für jeden einzelnen Polarvektor (θ- oder Y-Vektor) durchgeführt.
Die in jedem Vektor für die Verschiebungsauswertung zugewiesenen Werte
müssen nicht die tatsächlichen Werte der Bilder sein, sondern zum Beispiel
kann jedem Pixel im Vektor der Mittelwert seiner seitlichen Nachbarn
zugewiesen werden, das heißt A (X, A) bekommt zum Beispiel den Mittel
wert von A (X, Y-1), A (X, Y) und A (X, Y+1) zugewiesen. Dasselbe
gilt für B (shiftX, Y). Dies kann den Kreuz-Korrelationsprozeß unempfind
licher gegen Rauschen machen.
Eine zweidimensionale Matrix (C(shiftX, Y)) wird gebildet. Jede Spalte in
der Matrix speichert die Ergebnisse von Nahheits-/Ähnlichkeitsoperationen,
die zwischen entsprechenden Polarvektoren aus dem gegenwärtigen Bild und
dem Vorgängerbild durchgeführt wurden. Diese Operation könnte auch
unter Anwendung von FFT implementiert worden sein.
Nach Erzeugung der Matrix wird die Stelle des Extremums (Maximum bei
der Kreuzkorrelations-Operation) in jeder Spalte erfaßt. Die Stelle des
Extremums gibt die Anpassung zwischen dem Polarvektor und seinem
Vorgänger an. So kann die Gefäßbewegung in jedem Vektor, d. h. die
radiale Bewegung in jedem spezifischen Winkelsektor des Gefäßes, gekenn
zeichnet werden.
Diese Information kann verwendet werden, um die lokale Gefäßbewegung
anzuzeigen, sie kann von einigen oder allen Polarvektoren aufaddiert und
gemittelt werden, um einen Mittelwert der Gefäßbewegung zu bestimmen,
oder sie kann für andere Zwecke verwendet werden. So kann durch
Auswerten der lokalen Gefäßbewegung sowohl lokale als auch globale Gefäß
bewegung ausgewertet werden.
Um effektiv gebraucht und/oder als quantitative physiologische Parameter
ausgedrückt zu werden, muß die Größe der Gefäßbewegung in irgendeiner
Weise auf die tatsächliche Weite des Gefäßes bezogen werden. So sollten
Messungen der Gefäßbewegungs-Überwachung im allgemeinen in Zusam
menhang mit automatischen oder manuellen Messungen der Weite des
Gefäßes verwendet werden.
Außer tatsächlicher Gefäßbewegung kann auch kartesische Verlagerung als
Gefäßbewegung erfaßt werden. Dies liegt daran, daß kartesische Verlage
rung, in Polarkoordinaten ausgedrückt, in Verschiebungen, sowohl entlang
der r- als auch der θ-Achse resultiert. Um tatsächliche Gefäßbewegung von
kartesischer Verlagerung zu unterscheiden, muß Verschiebungsauswertung im
kartesischen Bild wenig oder geringe Bewegung anzeigen. Wenn kartesische
Verlagerung erfaßt wird, muß sie erst stabilisiert werden. Danach können
die kartesischen Koordinaten zur Auswertung der Gefäßbewegung in Polar
koordinaten zurückkonvertiert werden. Dies ermöglicht einen größeren
Erfolg und liefert genauere Ergebnisse bei der Bestimmung der tatsächlichen
Gefäßbewegung.
Die Graphen in Fig. 8 zeigen die Ergebnisse von lokaler Gefäßbewegungs-Über
wachung in einem menschlichen Herzkranzgefäß in vivo. Lokale
Gefäßbewegungs-Überwachung wurde zweimal in etwa dem gleichen Segment
des Gefäßes durchgeführt und bestand aus 190 aufeinanderfolgenden Bildern
(X-Achse), wie in Fig. 8(a) und 8(b) gezeigt. Der Unterschied zwischen
den zwei Graphen ist, daß die in Fig. 8(a) gezeigte Gefäßbewegungs-Aus
wertung vor Behandlung der Arterie, d. h. vor Eingriff, durchgeführt wurde,
wohingegen die in Fig. 8(b) gezeigte Gefäßbewegungs-Auswertung nach
Behandlung der Arterie, d. h. nach Eingriff, durchgeführt wurde. In jedem
Bild wurde Gefäßbewegung lokal in jedem Polarvektor ausgewertet und dann
wurden alle erfaßten Einzelverschiebungen addiert und gemittelt, um eine
einzige globale Gefäßbewegungsanzeige (Y-Achse) für jedes Bild zu erhalten,
d. h. eine Anzeige für die Gefäßbewegungsaktivität.
Die Einheiten auf der Y-Achse haben keine direkte physiologische Bedeu
tung, da die tatsächliche Weite des Gefäßes nicht berechnet wurde, doch hat
die Beziehung zwischen den Werten in Fig. 8(a) und 8(b) eine Bedeutung,
da sie von dem gleichen Gefäß gewonnen wurden. So kann wichtige
Information aus diesen Figuren abgeleitet werden. Man beachte, wie die
Gefäßbewegung nach der Behandlung zunahm (maximale Gefäßbewegung von
ca. 40 auf ca. 150). Obwohl somit die Gefäßbewegung nicht völlig quanti
fiziert wurde, wurde eine physiologische Änderung (wahrscheinlich mit der
Behandlung verknüpft) belegt.
Kardiovaskuläre Periodizität kann allein auf Grundlage der in IVUS-Bildern
gespeicherten Information überwacht werden, wodurch der Bedarf nach einem
EKG oder einem anderen externen Signal beseitigt wird. Dies bedeutet, daß
eine Verbindung zwischen jedem Bild und seiner jeweiligen zeitlichen Phase
im Kardiovaskulärzyklus ohne Bedarf für ein äußeres Signal hergestellt
werden kann. Sobald diese Verknüpfung hergestellt ist, kann die Über
wachung das EKG-Signal in einer großen Zahl von Anwendungen ersetzen,
die Herz-Gating erfordern. Diese Überwachung kann bewerkstelligt werden
unter Verwendung von Nahheitsoperationen zwischen aufeinanderfolgenden
Bildern. Des weiteren können die gleichen Nahheitsoperationen Information
über die Qualität der IVUS-Bilder und ihr Verhalten liefern.
Der Herzzyklus manifestiert sich im zyklischen Verhalten bestimmter Para
meter, die aus IVUS-Bildern gewonnen werden. Wenn das Verhalten dieser
Parameter überwacht wird, kann die Periodizität des Herzzyklus bestimmt
werden. Kenntnis der Rahmenaufnahme-Geschwindigkeit ermöglicht auch die
Bestimmung des Kardiovaskulärzyklus als eine zeitliche Größe.
Die Nahheit zwischen aufeinanderfolgenden IVUS-Bildern ist ein Parameter,
der sich deutlich nach einem periodischen Muster verhält. Dies ist ein
Ergebnis der Periodizität der meisten vorhandenen Arten von Bild-zu-Bild-Be
wegung. Eine Nahheitsfunktion kann gebildet werden, bei der jeder Wert
aus einer Nahheitsoperation zwischen einem Paar von aufeinanderfolgenden
Bildern resultiert. Zum Beispiel liefert ein Satz von zehn Bildern neun
aufeinanderfolgende Nahheitswerte.
Die Nahheitsfunktion kann abgeleitet werden von einer kreuzkorrelations
artigen Operation, einer SAD-Operation oder jeder anderen Art von Opera
tion, die eine n 35681 00070 552 001000280000000200012000285913557000040 0002019827460 00004 35562ahheitsartige Funktion liefert. Normierte Kreuzkorrelation
liefert sehr gute Ergebnisse, wenn sie zur Überwachung der Periodizität
eingesetzt wird.
Die folgende Formel zeigt die Formel für den Kreuzkorrelationskoeffizienten
(als Funktion des N-ten Bildes) zur Berechnung der Nahheitsfunktion:
wobei:
Correlation_function(N) = eindimensionale Funktion, die einen Wert für jedes Bildpaar ergibt;
A = Vorgängerbildmatrix (N-tes Bild);
B = gegenwärtige Bildmatrix (N+1-tes Bild);
. = pixelweise Multiplikation;
Σ = Summe über alle Pixel in der Matrix.
Correlation_function(N) = eindimensionale Funktion, die einen Wert für jedes Bildpaar ergibt;
A = Vorgängerbildmatrix (N-tes Bild);
B = gegenwärtige Bildmatrix (N+1-tes Bild);
. = pixelweise Multiplikation;
Σ = Summe über alle Pixel in der Matrix.
Der Kreuzkorrelationskoeffizient ist ein Nebenprodukt des Stabilisierungs
prozesses, weil der Mittenwert (shiftX = 0, shiftY = 0) der normierten
Kreuzkorrelationsmatrix (C(shiftX, shiftY) immer berechnet wird. Dies gilt
für alle Arten von Nahheitsfunktionen, die zur Stabilisierung verwendet
werden. Der Mittenwert der Nahheitsmatrix (C(shiftX = 0, shiftY = 0),
entweder Kreuzkorrelation oder eine andere Art von zur Stabilisierung
verwendeter Operation, kann immer zur Erzeugung einer Nahheitsfunktion
verwendet werden.
Die Nahheitsfunktion kann auch aus Bildern berechnet werden, die in
Beziehung zueinander verschoben sind, d. h. der zum Bilden der Funktion
verwendete Wert ist C(shiftX, shiftY), wobei shiftX und shiftY nicht gleich
Null sind. Die Nahheitsfunktion muß nicht notwendigerweise mit ganzen
Bildern erzeugt werden, sondern kann auch aus Teilen von Bildern berechnet
werden, die einander entsprechen oder in bezug zueinander verschoben sind.
Fig. 9 zeigt ein EKG und einen Kreuzkorrelationskoeffizienten, der gra
phisch in synchroner Weise aufgetragen ist. Beide Kurven beziehen sich
auf denselben Satz von Bildern. Fig. 9(a) zeigt einen Graph des EKG-Sig
nals und Fig. 9(b) zeigt einen Graph des Kreuzkorrelationskoeffizienten,
der von aufeinanderfolgenden IVUS-Bildern abgeleitet wurde. Die horizonta
le Achse zeigt die Bildnummer an (insgesamt 190 aufeinanderfolgende
Bilder). Wie zu sehen ist, zeigt die Kreuzkorrelationskoeffizientenfunktion
in Fig. 9(b) ein periodisches Muster und ihre Periodizität ist die gleiche wie
die, die durch das EKG-Signal in Fig. 9(a) angezeigt wird (beide zeigen
ungefähr sechs Herzschläge).
Die Überwachung der Periodizität der Nahheitsfunktion kann kompliziert
sein, weil die Nahheitsfunktion keine typische Form hat, zeitlich variieren
kann, von der Art der Nahheitsfunktion, die verwendet wird, abhängt und
veränderlich sein kann von Gefäßsegment zu Gefäßsegment und von Subjekt
zu Subjekt.
Um die Periodizität der Nahheitsfunktion stetig und automatisch zu über
wachen, kann eine Vielzahl von Verfahren verwendet werden. Ein Ver
fahren beispielsweise ist ein Schwellentypverfahren. Dieses Verfahren
überwacht einen Wert der Nahheitsfunktion über einen bestimmten Wert, der
als Schwelle bekannt ist. Sobald dieser Wert erfaßt ist, überwacht das
Verfahren darauf, wann diese Schwelle überschritten ist. Die Periode wird
bestimmt als die zeitliche Differenz zwischen dem Überschreiten der Schwel
le. Ein Beispiel dieses Verfahrens ist in Fig. 10 als Tabelle gezeigt. Die
Tabelle zeigt eine Gruppe von Kreuzkorrelationskoeffizientenwerten (mittlere
Zeile), die zu aufeinanderfolgenden Bildern (Zahlen 1 bis 10, die in der
oberen Zeile gezeigt sind) gehören. Wenn die Schwelle beispielsweise
eingestellt ist auf einen Wert von 0,885, dann wird diese Schwelle zuerst
überschritten in dem Übergang von Bild #2 zu Bild #3. Die Schwelle wird
ein zweites Mal überschritten in dem Übergang von Bild #6 zu Bild #7.
Auf diese Weise ist die Zeitperiode der Periodizität gleich der Zeit, die
verwendet wird, um 7-3 = 4 Bilder zu nehmen.
Ein anderes Verfahren, das verwendet werden kann, um die Herzperiodizität
von der Nahheitsfunktion zu extrahieren, ist die interne Kreuzkorrelation.
Dieses Verfahren verwendet ein Segment der Nahheitsfunktion, d. h. eine
Gruppe von aufeinanderfolgenden Werten. Beispielsweise in der Tabelle, die
in Fig. 10 gezeigt ist, kann das Segment die ersten vier aufeinanderfolgen
den Bilder umfassen, d. h. die Bilder #1 bis #4. Wenn ein Segment einmal
gewählt worden ist, dann wird es mit sich selbst kreuzkorreliert, um einen
Kreuzkorrelationswert von 1 zu bilden. Als nächstes wird dieses Segment
kreuzkorreliert mit einem Segment der gleichen Größe, das von der Nah
heitsfunktion extrahiert wird, doch um ein Bild vorwärts verschoben ist.
Dies wird wiederholt, wobei das Segment um zwei Bilder vorwärts usw.
verschoben wird. In dem Beispiel, das in Fig. 10 gezeigt ist, würde das
Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment
{0,83, 0,89, 0,85, 0,82}, das um ein Bild verschoben ist; dann würde das
Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment
{0,89, 0,85, 0,82, 0,87}, das um zwei Bilder korreliert ist usw. Die
untere Zeile der Tabelle in Fig. 10 zeigt die Ergebnisse dieser internen
Kreuzkorrelationen. Der erste Wert von 1 ist ein Ergebnis der Kreuzkorre
lation des Segmentes mit sich selbst. Diese Kreuzkorrelationswerte werden
untersucht, um die Stelle der lokalen Maxima zu bestimmen. In diesem
Beispiel sind sie in dem Bild #1 und dem Bild #5 lokalisiert (ihre Werte
sind in Fettschrift angezeigt). Die sich ergebende Periodizität ist die Diffe
renz zwischen der Stelle der lokalen Maxima und der Stelle, von welcher
die Suche initiiert worden ist (d. h. Bild #1). In diesem Beispiel ist die
Periodizität die Zeit, die verstrichen ist von der Aufnahme des Bildes #1 bis
#5, welche gleich ist zu 5-1 = 4 Bilder. Wenn die Periode einmal
erfaßt worden ist, dann beginnt die Suche erneut unter Verwendung eines
Segmentes, das das lokale Maximum umgibt, d. h. Bild #5. In diesem
Beispiel könnte das neue Segment beispielsweise die Gruppe der Nahheits
werte sein, die zu den Bildern #4 bis #7 gehören.
Aufgrund des Wesens der Kalkulationsart, welche verwendet wird, erfordert
der interne Kreuzkorrelationsvorgang an einem bestimmten Zeitpunkt die
Nahheitswerte der Bilder, die in der zukünftigen Zeit erhalten werden.
Folglich erfordert das Nahheitsverfahren im Unterschied zum Schwellenver
fahren die Speicherung von Bildern (im Speicher) und die Periodizitäts-Er
fassung erfolgt retrospektiv. Die Herzperiodizität kann ebenfalls überwacht
werden durch Transformieren der Nahheitskurve in den Zeitfrequenzbereich
durch Fourier-Transformation. Im Frequenzbereich sollte die Periodizität
sich ausdrücken als eine Spitze entsprechend der Periodizität. Diese Spitze
kann durch Spektralanalyse erfaßt werden.
Die Nahheitsfunktion kann eine zusätzliche wichtige Information über die
IVUS-Bilder liefern, welche nicht von den externen Signalen extrahiert
werden kann, wie beispielsweise einem EKG, die nicht von den aktuellen
Bildern abgeleitet werden. Das Verhalten dieser Funktion kann bestimmte
Zustände in den IVUS-Bildern oder Bildteilen anzeigen, die verwendet
werden, um die Nahheitsfunktion zu bilden. Wichtige Merkmale in der
Nahheitsfunktion, welche ein Hinweis auf den Zustand der IVUS-Bilder sind,
sind die Anwesenheit der Periodizität und die "Rauhigkeit" der Nahheits
funktion. Normale IVUS-Bilder sollten eine relativ glatte und periodische
Nahheitsfunktion zeigen, wie beispielsweise in Fig. 9(b) gezeigt ist.
Wenn jedoch die "Rauhigkeit" und/oder Periodizität nicht vorhanden sind,
dann könnte dies ein Hinweis auf ein Problem in der Bildung der IVUS-Bil
der geben, d. h. die Anwesenheit eines Artifaktes in der Bildausbildung
verursacht beispielsweise entweder durch eine mechanische oder elektronische
Fehlfunktion. Die folgenden Figuren helfen, dies zu illustrieren. Fig. 11
zeigt einen Graph des Kreuzkorrelationskoeffizienten, der von aufeinand
erfolgenden IVUS-Bildern abgeleitet wurde. Dieser Graph ist in seiner
Ausbildung analog zu der Kreuzkorrelationsaufzeichnung in Fig. 9(b), doch
in diesem Beispiel ist er durch verschiedene Bildkatheter gebildet, die in
einem anderen Subjekt verwendet wurde.
In diesem Beispiel ist klar, daß die Nahheitsfunktion keine klare Periodizität
zeigt, und daß sie anstatt einer glatten Erscheinung eine rauhe oder stachlige
Erscheinung zeigt. In diesem Fall wurde das Verhalten des Nahheitsgraphen
verursacht durch die Uneinheitlichkeit der Drehung des IVUS-Senders, der
für das Senden/Aufnehmen der Ultraschallsignale verantwortlich ist, die in
dem Bild angezeigt sind. Dieser Typ von Artifakt erscheint manchmal in
IVUS-Katheter-Senderaufbauten, in welchen es sich bewegende mechanische
Teile gibt.
Die Nahheitsfunktion kann, wenn sie offensichtlich normale Bildbedingungen
reflektiert, einem weiteren Zweck dienen. Dies ist verbunden mit der Stelle
des Maximums in jedem Zyklus der Nahheitsfunktion. Die Lokalisierung
dieser Maxima kann wichtig sein für Bildverarbeitungs-Algorithmen, welche
mehrere aufeinanderfolgende Bilder zusammen verarbeiten. Bilder, die nahe
von Maxima-Bildern gefunden werden, neigen dazu, eine hohe Nahheit und
geringe Zwischenbildbewegung in bezug zueinander aufzuweisen. Wenn
zusätzlich Bilder, die zur gleichen Phase von aufeinanderfolgenden Herzzyk
len gehören, ausgewählt werden müssen, dann ist es gewöhnlich am besten,
sie unter Verwendung der Maxima (der Nahheitsfunktion) in jedem Zyklus
zu wählen.
Beispielsweise in einem Anzeigeverfahren werden diese Bilder auf die
Anzeige projiziert und die Lücken durch Interpolationsbilder gefüllt. Bei
diesem Anzeigeverfahren können alle Typen von periodischen Bewegungen
stabilisiert werden.
Die Verschiebelogik-Stufe in dem Stabilisierungsprozeß kann ebenfalls die
kardiovaskulare Periodizitätüberwachung verwenden. Wenn Drift vermieden
werden soll, dann sollte die akkumulierte Verschiebung nach jedem (einzel
nen) Herzzyklus gering oder gleich Null sein, d. h. die Summe aller Ver
schiebungen über eine Periode des Zyklus sollte Null oder nahe Null erge
ben. Das bedeutet, daß das Drift-Phänomen durch Verwenden einer Ver
schiebungslogik begrenzt werden kann, welche mit der Periodizitätsüber
wachung gekoppelt ist.
Mit Bezug auf Fig. 12 können die meisten IVUS-Bilder unterteilt werden in
drei Grundteile. Der mittlere Bereich (um den Katheter), der als Lumen in
Fig. 12 bezeichnet ist, ist das tatsächliche Lumen oder der innere Durch
gang (Hohlraum), durch welchen Flüssigkeit, z. B. Blut fließt. Um dieses
Lumen ist das tatsächliche Gefäß, das als Gefäß in Fig. 12 bezeichnet ist,
aus mehreren Schichten von Gewebe und Plaque (falls krankhaft) zusammen
gesetzt. Um das Gefäß herum befindet sich anderes Gewebe, das als
Umgebung in Fig. 12 bezeichnet ist, d. h. Muskel- oder Organgewebe, bei
spielsweise das Herz in dem Herzkranzgefäßbild.
Wenn IVUS-Bilder dynamisch betrachtet werden (d. h. in Filmformat), dann
zeigt die Anzeige des Inneren, wo das Blut fließt, und der Umgebung, die
das Gefäß umgibt, gewöhnlich ein anderes zeitliches Verhalten, als das
Gefäß selbst.
Die automatische Überwachung des zeitlichen Verhaltens von Pixeln in dem
dynamischen IVUS-Bild würde es erlauben, die Information zu verwenden,
die durch den Vorgang extrahiert wird, um die Interpretation der IVUS-Bil
der zu erleichtern. Diese Information kann verwendet werden, um die
IVUS-Anzeigen zu verbessern durch Filtern und Unterdrücken des Auftretens
von sich schnell ändernden Merkmalen, wie beispielsweise einer Flüssigkeit,
z. B. Blut, und des umgebenden Gewebes aufgrund ihres zeitlichen Verhal
tens. Diese Information kann ebenfalls verwendet werden für die automati
sche Segmentation, um die Größe des Lumens automatisch zu bestimmen
durch Identifizieren der Flüssigkeit, z. B. Blut und des umgebenden Gewebes
auf der Grundlage des zeitlichen Verhaltens von Texturattributen, die durch
ihre Bestandteilspixel gebildet werden.
Um das automatische Überwachen des zeitlichen Verhaltens durchzuführen,
muß eine Auswertung der Beziehung zwischen den Attributen, welche durch
entsprechende Pixel gebildet werden, die zu aufeinanderfolgenden Bildern
gehören, erfolgen. Die Extraktion des zeitlichen Verhaltens birgt Nahheiten
zu den Verfahren, die für Nahheitsoperationen auf einer lokalisierten Basis
verwendet werden, wie zuvor beschrieben worden ist.
Hohe zeitliche Veränderungen sind gekennzeichnet durch relativ große
relative Grauwertänderungen von entsprechenden Pixeln, wenn man von
einem zum nächsten Bild geht. Diese schnellen, zeitlichen Änderungen
können unterdrückt werden in der Anzeige durch Ausdrücken dieser Ände
rungen durch die Bildung einer Maske, welche das originale Bild multipli
ziert. Diese Maske reflektiert zeitliche Änderungen in den Pixelwerten.
Ein Problem, das sich in dieser Auswertung ergibt, ist die Bestimmung, ob
Grauwertänderungen in entsprechenden Pixelwerten von Fließen oder Ände
rungen im Material oder Bewegungen des Gefäßes/Katheters herrühren.
Mittels der Durchführung dieser Auswertung auf stabilisierten Bildern wird
dieses Problem überwunden oder zumindest minimiert.
Die folgenden Definitionen finden Anwendung:
B = gegenwärtiges (stabilisiertes oder nicht stabilisiertes) Bild;
A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild;
abs = absoluter Wert.
A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild;
abs = absoluter Wert.
Die Matrizen können entweder in kartesischer oder Polarform verwendet
werden.
Die folgende Operation, die zu einer Matrix D1 führt, soll wie folgt defi
niert werden: D1 ist eine Matrix, in welcher jedes Pixel mit Koordinaten
X, Y die Summe der absoluten Differenzen seiner unmittelbar umgebenden
Umgebung ist. d. h. 9 Elemente (X-2:X+2. Y-2:Y+2 - ein 3 × 3-Quadrat),
extrahiert von den Bildern A bzw. B.
Beispielsweise die folgende Darstellung zeigt entsprechende Pixel (in Fett) in
ihrer unmittelbaren Umgebung in den Matrizen A und B.
Das Pixel in Matrix D1 mit der Stelle entsprechend zu den Pixeln mit dem
Wert 4 (in B) und 7 (in A) bekommt den folgenden Wert zugewiesen.
abs(1-3) + abs(4-6) + abs(51-8) + abs(6-3) +
abs(7-4) + abs(15-70) + abs(3-2) + abs(5-1) + abs(83-6) = 190
abs(7-4) + abs(15-70) + abs(3-2) + abs(5-1) + abs(83-6) = 190
D2 ist ähnlich definiert, doch für die Matrizen B und C.
D1 und D2 sind in der Tat Differenzenmatrizen, welche unter Verwendung
einer 3 × 3-Nachbarschaft gemittelt werden, um lokale Fluktuationen oder
Rauschen zu vermindern. Große Grauwertänderungen zwischen den Bildern
A und B oder zwischen B und C werden ausgedrückt durch relativ hohe
Werte in den Matrizen D1 bzw. D2.
Eine neue Matrix, Dmax, wird als nächstes gebildet, in welcher jedes Pixel
das Maximum der entsprechenden Pixel in den Matrizen D1 und D2 ist.
Dmax = max(D1, D2)
wobei:
max(D1, D2) = jedes Pixel in Dmax enthält das höchste der zwei ent sprechenden Pixel in D1 und D2.
max(D1, D2) = jedes Pixel in Dmax enthält das höchste der zwei ent sprechenden Pixel in D1 und D2.
Auf diese Weise hebt die einzelne Matrix Dmax insbesondere große Pixel
änderungen zwischen den Matrizen A, B und C hervor. Eine Maskenmatrix
(MD) wird dann gebildet aus Dmax durch Normierung, d. h. jedes Pixel in
Dmax wird geteilt durch den maximalen Wert von Dmax. Auf diese Weise
liegen die Pixelwerte der Maske MD im Bereich von Null bis Eins.
Die Rolle der Maske besteht darin, das gegenwärtige Bild B in der folgen
den Weise zu multiplizieren, wodurch eine neue Matrix oder ein neues Bild,
die/das als BOUT definiert ist, gebildet wird.
BOUT = (1-MDn).B
wobei:
B = ursprüngliches gegenwärtiges Bild;
BOUT = das neue Bild;
n = jedes Pixel in der Matrix MD wird zur n-ten Potenz erhoben. n ist allgemein eine Zahl mit einem Wert von beispielsweise 2-10;
1-MDn = eine Matrix, in welcher jeder Pixelwert gleich eins minus dem Wert des entsprechenden Pixels in MD ist.
B = ursprüngliches gegenwärtiges Bild;
BOUT = das neue Bild;
n = jedes Pixel in der Matrix MD wird zur n-ten Potenz erhoben. n ist allgemein eine Zahl mit einem Wert von beispielsweise 2-10;
1-MDn = eine Matrix, in welcher jeder Pixelwert gleich eins minus dem Wert des entsprechenden Pixels in MD ist.
Durch Ausführen der Subtraktion 1-MDn werden kleine Werte von MD, die
langsam veränderliche Merkmale wiedergeben, zu hohen Werten in 1-MDn.
Weiterhin wird die Chance, daß nur langsam veränderliche Merkmale hohe
Werte ergeben, erhöht, aufgrund der vorigen Hervorhebung der hohen MD-Wer
te (durch Bilden von MD als das Maximum zwischen Matrizen D1 und
D2).
Die Multiplikation der Maske (1-MDn) mit dem gegenwärtigen Bild B bildet
ein neues Bild BOUT, in welchem das Auftreten von langsam veränderlichen
Pixeln hervorgehoben ist, wohingegen die Werte von schnell veränderlichen
Pixeln vermindert sind. Die Zahl n bestimmt, wie stark die Unterdrückung
der schnell veränderlichen Merkmale auf der Anzeige in Erscheinung tritt.
Fig. 13 zeigt die Ergebnisse der zeitlichen Filterung. Das linke Bild ist ein
ursprüngliches IVUS-Bild (d. h. Matrix B) von einem Herzkranzgefäß, wie
es in der gegenwärtigen Anzeige aussehen würde. Das rechte Bild unterlag
den Verarbeitungsschritten, die oben beschrieben wurden, d. h. der zeitlichen
Filterung (Matrix BOUT). Man beachte, daß im rechten Bild Blut und
umgebendes Gewebe gefiltert (unterdrückt) wurden und Lumen und Gefäß
ränder viel leichter zu identifizieren sind.
Die automatische Segmentation differenziert Flüssigkeit, z. B. Blut und
Äußeres von der Gefäßwand aufgrund der Differenzen zwischen dem zeitli
chen Verhalten einer Texturqualität. In dem Fall der zeitlichen Filterung
wird dieses Verfahren abgeleitet von der Beziehung zwischen entsprechenden
Pixeln von einer Anzahl aufeinanderfolgender Bilder. Wenn die Pixelwerte
sich ändern aufgrund einer Zwischenbildbewegung, dann wird die Durch
führung des Algorithmus beeinträchtigt. Die Ausführung einer Stabilisierung
vor der automatischen Segmentation löst dieses Problem oder minimiert es
zumindest.
Wie in dem Fall der zeitlichen Filterung gelten die folgenden Definitionen:
B = gegenwärtiges (stabilisiertes oder nicht stabilisiertes) Bild;
A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild.
A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild.
Die Matrizen können entweder in kartesischer oder polarer Form vorliegen.
Die Texturqualität kann wie folgt definiert werden: angenommen, die vier
nächsten Nachbarn eines Pixels mit Wert "a" sind "b", "c", "d" und "e",
dann ist die Klassifikation von "a" abhängig von seinen Beziehungen mit
"b", "c", "d" und "e". Dies kann mit der folgenden Darstellung gezeigt
werden:
Die folgenden Kategorien können gebildet werden:
In der vertikalen Richtung:
In der vertikalen Richtung:
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie I;
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie II;
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie III;
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie IV;
wenn a=b oder a=e, dann "a" klassifiziert als zugehörig zur Kategorie V.
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie II;
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie III;
wenn a<b und a<e, dann "a" klassifiziert als zugehörig zur Kategorie IV;
wenn a=b oder a=e, dann "a" klassifiziert als zugehörig zur Kategorie V.
In der horizontalen Richtung:
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie I;
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie II;
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie III;
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie IV;
wenn a=c oder a=d, dann "a" klassifiziert als zugehörig zur Kategorie V.
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie II;
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie III;
wenn a<c und a<d, dann "a" klassifiziert als zugehörig zur Kategorie IV;
wenn a=c oder a=d, dann "a" klassifiziert als zugehörig zur Kategorie V.
Die vertikalen und horizontalen Kategorien werden als nächstes kombiniert,
um eine neue Kategorie zu bilden. Als ein Ergebnis kann Pixel "a" zu 5
×5 = 25 möglichen Kategorien gehören. Dies bedeutet, daß die Textur
qualität von "a" gekennzeichnet ist durch seine Zugehörigkeit zu einem der
(25) Kategorien.
Beispielsweise in der folgenden Nachbarschaft,
ist Pixel "a" = 10 klassifiziert als zugehörig zur Kategorie, welche die
Kategorie I vertikal (weil 10<7 und 10<3) und Kategorie V horizontal
(weil 10=10) einschließt.
Wenn jedoch das Pixel "a" in der folgenden Nachbarschaft angeordnet
gewesen wäre:
dann wäre es klassifiziert worden als zugehörig zu einer anderen Kategorie,
da seine horizontale Kategorie nun die Kategorie III ist (10<11 und
10<14).
Durch Bestimmen der Beziehung von jedem Pixel zu seiner engen Nach
barschaft wurde eine Texturqualität gebildet, welche jedes Pixel in 25 mögli
che Kategorien klassifiziert. Die Anzahl der Kategorien kann verändert
werden (erhöht oder vermindert), d. h. beispielsweise durch Ändern der
Kategorisierungsbedingungen, ebenso wie die Anzahl der nächsten Nachbarn,
die verwendet werden, beispielsweise anstelle von vier können acht nahe
Nachbarn verwendet werden.
Das Grundkonzept, durch welches die Texturänderungen verwendet werden,
um Flüssigkeit, z. B. Blut, von Gefäßen zu unterscheiden, ist die Über
wachung der Änderung in den Kategorien der entsprechenden Pixel in
aufeinanderfolgenden Bildern. Um dies zu erreichen, wird die Kategorie in
jedem einzelnen Pixel in den Matrizen A, B und C bestimmt. Als nächstes
werden entsprechende Pixel getestet, um zu sehen, ob diese Kategorie sich
geändert hat. Wenn dies der Fall ist, dann wird das Pixel verdächtigt, eine
Flüssigkeit zu sein, z. B. Blut, oder ein Pixel des umgebenden Gewebes.
Wenn sie sich nicht geändert hat, dann wird das Pixel verdächtigt, ein
Gefäßpixel zu sein.
Das folgende Beispiel zeigt drei entsprechende Pixel (mit Werten 8, 12 und
14) und ihre Nachbarschaften in aufeinanderfolgenden Matrizen A, B und C.
In diesem Beispiel ist die Kategorie des Pixels mit dem Wert 12 (in B) die
gleiche wie in A und C, folglich wird es klassifiziert als ein Pixel mit
einer höheren Chance, daß es ein Gefäßwandpixel ist. Wenn jedoch die
Situation dergestalt war, wie es unten gezeigt ist (20 in C ändert sich zu
13):
dann hat das Pixel 8 in A und 12 in B die gleichen Kategorien, doch 14
in C hat eine andere Kategorie als in dem vorangegangenen Beispiel. Im
Ergebnis wird Pixel 12 in B klassifiziert als ein Pixel mit einer höheren
Chance, daß es eine Flüssigkeit (Lumen), d. h. Blut, oder ein äußeres
Gewebepixel ist.
Das Klassifikationsverfahren, das bisher beschrieben wurde, überwacht die
Änderung in der Textur oder Muster, die mit der kleinen Nachbarschaft um
jedes Pixel verbunden ist. Wenn diese Änderung einmal bestimmt worden
ist, wie oben beschrieben wurde, dann kann jedes Pixel einem binaren Wert
zugeordnet werden. Beispielsweise ein Wert von 0, wenn vermutet wird,
daß es ein Gefäßpixel ist, oder einen Wert von 1, wenn vermutet wird, daß
es ein Blutpixel oder ein Pixel, das zum Äußeren eines Gefäßes gehört, ist.
Das binare Bild dient als eine Eingabe für den Prozeß der Identifikation des
Lumens und die ursprünglichen Pixelwerte hören auf, eine Rolle zu spielen
in dem Segmentationsprozeß.
Die Identifikation des Lumens unter Verwendung des binären Bildes basiert
auf zwei Annahmen, welche im allgemeinen gültig sind bei IVUS-Bildern,
die in der oben beschriebenen Weise verarbeitet wurden. Die erste ist, daß
die Flächen in den Bildern, weiche Blut enthalten oder auf dem Äußeren
des Gefäßes gefunden werden, gekennzeichnet sind durch eine hohe Dichte
von Pixeln mit einem binären Wert von 1 (oder einer niedrigen Dichte von
Pixeln mit einem Wert von 0). Der Ausdruck Dichte wird benötigt, weil
es immer Pixel gibt, die falsch klassifiziert wurden. Die zweite Annahme
ist, daß von einem morphologischen Gesichtspunkt verbundene Flächen von
hoher Dichte von Pixeln mit dem Wert 1 (Lumen) gefunden werden sollten
um den Katheter und umgeben sein sollten durch verbundene Flächen von
niedriger Dichte von Pixeln mit dem Wert 1 (Gefäß), welche ihrerseits
umgeben sind durch verbundene Flächen von hoher Dichte von Pixeln mit
dem Wert 1 (Gefäßäußeres). Der Grund für diese Annahme ist die typische
morphologische Anordnung, die von einem Blutgefäß erwartet wird.
Diese zwei Annahmen bilden die Grundlage für den nachfolgenden Ver
arbeitungsalgorithmus, welcher die tatsächliche Fläche, welche mit dem
Lumen verbunden ist, aus dem binaren Bild extrahiert. Dieser Algorithmus
kann bekannte Bildverarbeitungstechniken verwenden, wie beispielsweise das
Schwellenbilden des Dichtemerkmals in lokalisierten Bereichen (um Blut/-
Äußeres vom Gefäß zu unterscheiden) und morphologische Operationen wie
beispielsweise Dilation oder Verbinden, um einen verbundenen Bereich
zwischenzuverbinden oder zu bilden, welcher das gegenwärtige Lumen
wiedergibt, das in den Gefäßwandgrenzen gefunden wurde.
Fig. 14 zeigt ein Bild der Ergebnisse des Algorithmus für die automatische
Extraktion des Lumens. Das Bild ist ein ursprüngliches IVUS-Bild (bei
spielsweise, wie oben beschrieben wurde, als Bild B) und die Lumengrenzen
sind überlagert (durch den Algorithmus) als eine helle Linie. Der Algorith
mus für die Extraktion der Lumengrenzen war gegründet auf der Über
wachung der Änderung der Texturqualität, wie oben beschrieben, unter
Verwendung von drei aufeinanderfolgenden Bildern.
Die oben beschriebenen Beispiele der zeitlichen Filterung und automatischen
Segmentation umfassen die Verwendung von zwei zusätzlichen Bildern
(beispielsweise, wie oben beschrieben wurde, als Bilder A und C) zusätzlich
zu dem gegenwärtigen Bild (beispielsweise, wie oben beschrieben wurde, als
Bild B). Jedoch können beide Verfahren verändert werden, um weniger
(d. h. nur ein zusätzliches Bild) oder mehr zusätzliche Bilder zu verwenden.
Die Leistung der zwei Verfahren, die oben beschrieben wurden, wird stark
verbessert, wenn sie mit kardiovaskulärer Periodizitätsüberwachung kombiniert
werden. Dies gilt insbesondere für aufeinanderfolgende Bilder, in welchen
kardiovaskulare Periodizitätsüberwachung hohe Zwischenbild-Nahheitswerte
erzeugt. Diese Bilder haben gewöhnlich keine Zwischenbildbewegung.
Folglich können höchst zuverlässige Ergebnisse erwartet werden, wenn
aufeinanderfolgende Bilder mit maximaler Zwischenbildnahheit eingespeist
werden als Eingänge, entweder in die zeitliche Filterung oder automatische
Segmentation.
Während der Behandlung der Blutgefäße unter Verwendung der Katheterisie
rung ist es übliche Praxis, IVUS-Pullback-Untersuchungen in dem gleichen
Gefäßsegment zu wiederholen. Beispielsweise eine typische Situation ist
zunächst, das fragliche Segment durchzusehen, die Krankheit auszuwerten
(falls gegeben), den IVUS-Katheter zu entfernen, therapeutische Optionen
abzuwägen, eine Therapie durchzuführen und dann unmittelbar danach
(während derselben Sitzung) das behandelte Segment erneut zu untersuchen
unter Verwendung von IVUS, um die Ergebnisse der Therapie zu bestim
men.
Um die Ergebnisse einer solchen Therapie korrekt zu bestimmen, sollten
entsprechende Segmente vor Behandlung und nach Behandlung, die an
denselben Stellen entlang der Länge des Blutgefäßes liegen, d. h. entsprechen
de Segmente, miteinander verglichen werden. Das folgende Verfahren liefert
das Zuordnen, d. h. automatisches Identifizieren (Registration) von entspre
chenden Segmenten.
Um das Zuordnen von entsprechenden Segmenten zu erreichen, werden
Nahheits-/Ähnlichkeitsoperationen angewendet zwischen Bildern, die zu einer
ersten Gruppe von aufeinanderfolgenden Bildern, d. h. einem Referenzseg
ment eines ersten Pullback-Films gehören und Bildern, die zu einer zweiten
Gruppe von aufeinanderfolgenden Bildern eines zweiten Pullback-Films gehö
ren. Das Zuordnen des Referenzsegments in dem ersten Film mit dem
entsprechenden Segment in dem zweiten Film wird erhalten, wenn einige
Kriterienfunktionen maximiert sind.
Von einem der zwei Filme wird ein Referenzsegment gewählt. Das Refer
enzsegment kann eine Gruppe von aufeinanderfolgenden Bildern sein, die
beispielsweise wenige Sekunden des Films eines IVUS-Bildes wiedergeben.
Es ist wichtig, ein Referenzsegment von einer Stelle in einem Gefäß auszu
wählen, das in den zwei Filmen vorhanden ist und keine Änderung als
Ergebnis einer Prozedur erfahren hat, d. h. das Referenzsegment ist proximal
oder distal zu dem behandelten Segment.
Als ein Beispiel hilft die Tabelle in Fig. 15, um das Verfahren zum Zuor
dnen von entsprechenden Segmenten zu klären.
Die linke Spalte zeigt den Zeitablauf des ersten Films, wobei in diesem Fall
der Film aus 20 aufeinanderfolgenden Bildern besteht. Die mittlere Spalte
zeigt das Referenzsegment, welches gewählt wurde von dem zweiten Film
und aus 10 aufeinanderfolgenden Bildern besteht. Die rechte Spalte listet
die 10 aufeinanderfolgenden Bilder von dem ersten Film (#5-#14) auf, die
tatsächlich den Bildern des Referenzsegmentes von dem zweiten Film (#1-
#10) entsprechen (oder zugehören). Der Zweck des Zuordnungsprozesses ist
es, diese Zuordnung tatsächlich aufzuzeigen.
Wenn ein Referenzsegment einmal gewählt worden ist, dann wird es entlang
des anderen Films verschoben, ein Bild (oder mehrere) zu jeder Zeit und
ein Satz von Stabilisierungs- und Nahheitsoperationen wird durchgeführt
zwischen den entsprechenden Bildern in jedem Segment. Die Richtung der
Verschiebung hängt ab von der relativen Stelle des Referenzsegmentes in der
Zeitabfolge der zwei Filme. Wenn sie jedoch im allgemeinen nicht bekannt
ist, dann kann die Verschiebung in beiden Richtungen ausgeführt werden.
Beispielsweise, wo
r = Referenzsegment; und
f = erster Film ist,
f = erster Film ist,
findet der erste Satz von Operationen statt zwischen den Bildern, welche die
folgenden Paare umfassen: r#1-f#1, r#2-f#2, r#3-f#3, . . ., r#10-f#10.
Der zweite Satz von Operationen findet statt zwischen den Bildern, die die
folgenden Paare umfassen: r#1-f#2, r#2-f#3, r#3-f#4, . . ., r#10-f#1 1.
Der dritte Satz von Operationen findet statt zwischen den Bildern, die die
folgenden Paare umfassen: r#1-f#3, r#2-f#4, r#3-f#5, . . ., f#10-f#12 usw.
Wie man feststellen kann, wird in diesem Beispiel die Verschiebung Bild für
Bild und nur in einer Richtung durchgeführt.
Beispielsweise können die folgenden Operationen zwischen den Bildern in
jedem Paar durchgeführt werden. Zunächst wird ein Bild von dem Refer
enzsegment stabilisiert für die Drehung und die kartesische Bewegung in
bezug auf sein Gegenstück in dem ersten Film. Dann werden Nahheits
operationen durchgeführt zwischen den Bildern in jedem Paar. Diese
Operation kann beispielsweise die normierte Kreuzkorrelation sein (oben
diskutiert in bezug auf die Periodizitäterfassung). Eine jede solche Opera
tion erzeugt einen Nahheitswert (beispielsweise einen Kreuzkorrelationskoeffi
zienten), wenn die normierte Kreuzkorrelation verwendet wird. Ein Satz
von solchen Operationen erzeugt eine Anzahl von Kreuzkorrelationswerten.
In dem Beispiel, das in der Tabelle von Fig. 15 gezeigt ist, werden jedes
mal, wenn das Referenzsegment verschoben ist, zehn neue Kreuzkorrela
tionskoeffizienten erzeugt.
Die Nahheitswerte, die durch einen Satz von Operationen erzeugt wurden,
können abgebildet werden in einer Art Nahheitsfunktion, beispielsweise einer
Mittelungsfunktion. Unter Verwendung des obigen Beispiels werden die
Kreuzkorrelationskoeffizienten aufsummiert und dann durch die Anzahl von
Paaren, d. h. zehn, dividiert. Jeder Satz von Operationen ergibt daher einen
einzigen Wert, d. h. eine mittlere Nahheit, welche den Grad der Nahheit
zwischen dem Referenzsegment und seinem zeitweiligen Gegenstück in dem
ersten Film wiedergibt. Auf diese Weise wird das Ergebnis des ersten
Satzes von Operationen ein einziger Wert sein, das Ergebnis des zweiten
Satzes von Operationen wird ein anderer Wert sein, usw.
Man kann erwarten, daß die maximale mittlere Nahheit auftreten wird als
ein Ergebnis der Operationen, die zwischen Segmenten durchgeführt werden,
die sehr ähnlich sind, d. h. entsprechende oder übereinstimmende Segmente.
In dem obigen Beispiel sollten diese Segmente übereinstimmen während der
fünf Sätze von Operationen, die zwischen den Bildern stattfinden, welche die
folgenden Paare umfassen: r#1-f#5, r#2-f#6, r#3-f#7, . . ., r#10-f#14.
Die maximale mittlere Nahheit sollte daher die entsprechenden Segmente
anzeigen, da jedes Paar von Bildern in der Tat die entsprechenden Bilder
sind, d. h. sie zeigen die gleiche Morphologie. Das Kriterium muß jedoch
nicht diesem Algorithmus folgen. Beispielsweise kann es die Form der
Nahheitsfunktion berücksichtigen, die von vielen verschobenen Segmentposi
tionen abgeleitet wird, anstatt nur einen dieser Werte zu verwenden, der
sich als das Maximum herausstellt.
Wenn entsprechende Segmente einmal identifiziert sind, dann kann der
vollständige erste und zweite Film in bezug zueinander synchronisiert wer
den. Dies ist das Ergebnis einer geeigneten Rahmenverschiebung, die sich
aus dem Zuordnungsprozeß ergibt, und in einen Film in bezug auf den
anderen implementiert ist. Wenn man daher die beiden Filme Seite an
Seite betrachtet, dann erscheint das Segment vor der Behandlung gleichzeitig
mit dem Abschnitt nach der Behandlung.
Neben der Synchronisierung der entsprechenden Segmente stabilisiert die
obige Operation auch die entsprechenden Segmente in bezug zueinander.
Dies erhöht weiterhin die Fähigkeit, Änderungen in der Morphologie zu
verstehen. Selbst wenn daher der Katheter erneut in das Gefäß eingeführt
wird und seine Positionsorientierung sich wahrscheinlich geändert hat, werden
die Bilder der Filme vor der Behandlung und nach der Behandlung in bezug
zueinander stabilisiert.
Die Anzahl der Bilder, die für das Referenzsegment verwendet werden,
können verändert werden. Je mehr Bilder in dem Zuordnungsprozeß ver
wendet werden, umso mehr ist es gegenüber lokalen Fehlern widerstands
fähig und weniger anfällig. Jedoch ist zum Ausgleich mehr Rechnerzeit
erforderlich für die Berechnungen jedes Zuordnungsprozesses, wenn die
Anzahl der Paare sich erhöht.
Bei der Aufnahme des Pullback-Films ist es wichtig, daß die Pullback-Ge
schwindigkeit stabil bleibt und bekannt ist. Es ist vorteilhaft, wenn die
Pullback-Geschwindigkeit in den zwei Aufnahmen identisch ist.
Viele verschiedene Variationen der vorliegenden Erfindung sind möglich.
Die verschiedenen Merkmale, die oben beschrieben wurden, können einzeln
und unabhängig voneinander verwirklicht werden. Diese Merkmale können
auch in verschiedenen Gruppierungen kombiniert werden.
Claims (124)
1. Intravaskulare Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Lumen angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Lumen angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von erfaßten Ultraschallsignalen abzuleiten;
- b. ein zweites Bild von den erfaßten Ultraschallsignalen abzulei ten;
- c. das erste Bild mit dem zweiten Bild zu vergleichen; und
- d. das erste und zweite Bild zu verarbeiten.
2. Vorrichtung nach Anspruch 1, worin der Vergleich des zweiten
Bildes mit dem ersten Bild die Auswertung des zweiten Bildes in
bezug zu dem ersten Bild umfaßt.
3. Vorrichtung nach Anspruch 1, worin der Prozessor, der zum Ablei
ten programmiert ist, Verarbeiten und/oder Digitalisieren umfaßt.
4. Vorrichtung nach Anspruch 1, die weiterhin eine Anzeige umfaßt,
die an den Prozessor gekoppelt ist.
5. Vorrichtung nach Anspruch 1, worin das Ableiten die Konfiguration
einer zweidimensionalen Anordnung umfaßt.
6. Vorrichtung nach Anspruch 5, worin die zweidimensionale Anord
nung in Polarkoordinaten und/oder kartesischen Koordinaten kon
figuriert ist.
7. Vorrichtung nach Anspruch 5, worin die zweidimensionale Anord
nung in Polarkoordinaten und kartesische Koordinaten konfiguriert
ist.
8. Vorrichtung nach Anspruch 5, worin die zweidimensionale Anord
nung eine Anzahl von Elementen aufweist, wobei jedes der Anzahl
von Elementen ein erfaßtes Ultraschallsignal von einer vorbestimmten
räumlichen Stelle wiedergibt.
9. Vorrichtung nach Anspruch 2, worin das Auswerten des zweiten
Bildes in bezug auf das erste Bild eine Verschiebungsauswertung
umfaßt.
10. Vorrichtung nach Anspruch 2, worin das Auswerten des zweiten
Bildes in bezug auf das erste Bild mindestens eine Nahheitsoperation
umfaßt.
11. Vorrichtung nach Anspruch 10, worin die mindestens eine Nahheits
operation eine Kreuzkorrelation und/oder normierte Kreuzkorrelation
und/oder SAD umfaßt.
12. Vorrichtung nach Anspruch 11, worin die Kreuzkorrelation eine
direkte Kreuzkorrelation und/oder Fourier-Transformation umfaßt.
13. Vorrichtung nach Anspruch 2, worin die Auswertung des zweiten
Bildes in bezug auf das erste Bild unter Verwendung von kartesi
schen Koordinaten und/oder Polarkoordinaten durchgeführt wird.
14. Vorrichtung nach Anspruch 2, worin die Auswertung des zweiten
Bildes in bezug auf das erste Bild in mindestens einer Dimension
durchgeführt wird.
15. Vorrichtung nach Anspruch 1, worin der Prozessor weiterhin pro
grammiert ist, um eine kartesische Verlagerung und/oder Drehbe
wegung und/oder Gefäßbewegung zu detektieren.
16. Vorrichtung nach Anspruch 15, worin die kartesische Verlagerung
und/oder die Drehbewegung starr ist.
17. Vorrichtung nach Anspruch 15, worin die kartesische Verlagerung
und/oder die Drehbewegung lokal ist.
18. Vorrichtung nach Anspruch 15, worin die Gefäßbewegung global ist.
19. Vorrichtung nach Anspruch 15, worin die Gefäßbewegung lokal ist.
20. Vorrichtung nach Anspruch 1, worin der Prozessor weiterhin pro
grammiert ist, um automatisch eine Änderung in den erfaßten Ul
traschallsignalen für eine Bildverbesserung und/oder Lumenidenti
fikation zu überwachen.
21. Vorrichtung nach Anspruch 20, worin das Verarbeiten eine Klassifi
kation von zeitlichen Änderungen in der Textur und/oder zeitliches
Filtern umfaßt.
22. Vorrichtung nach Anspruch 1, worin der Prozessor weiterhin pro
grammiert ist, um die kardiovaskuläre Periodizität automatisch zu
überwachen.
23. Vorrichtung nach Anspruch 1, worin der Prozessor weiterhin pro
grammiert ist, um die Bildqualität automatisch zu überwachen.
24. Intravaskuläre Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von einem ersten Satz von erfaßten Ultraschall signalen abzuleiten;
- b. ein zweites Bild von einem zweiten Satz von erfaßten Ultra schallsignalen abzuleiten;
- c. das zweite Bild mit dem ersten Bild zu vergleichen;
- d. automatisch eine Änderung in den erfaßten Ultraschallsignalen zu überwachen;
- e. automatisch die kardiovaskuläre Periodizität zu überwachen; und das zweite Bild in bezug auf das erste Bild zu stabilisieren.
25. Intravaskuläre Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist und sich durch einen Abschnitt des Körperlu mens bewegt;
einen Prozessor, der an den Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist und sich durch einen Abschnitt des Körperlu mens bewegt;
einen Prozessor, der an den Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von Ultraschallsignalen abzuleiten, die während einer ersten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt werden;
- b. ein zweites Bild von Ultraschallsignalen abzuleiten, die wäh rend einer zweiten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt werden;
- c. das zweite Bild mit dem ersten Bild zu vergleichen; und
- d. das erste und zweite Bild zu verarbeiten; und eine Anzeige, die an den Prozessor gekoppelt ist, worin der Prozes sor eine Anzeige des zweiten Bildes auf der Grundlage des Ver gleichs anpaßt.
26. Intavaskuläre Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist und sich durch einen Abschnitt des Körperlu mens bewegt;
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist und sich durch einen Abschnitt des Körperlu mens bewegt;
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von Ultraschallsignalen abzuleiten, die von einem ersten Teil des Abschnitts erfaßt wurden;
- b. ein zweites Bild von Ultraschallsignalen abzuleiten, die von einem zweiten Teil des Abschnitts erfaßt wurden;
- c. das zweite Bild mit dem ersten Bild zu vergleichen; und
- d. das erste und zweite Bild zu verarbeiten; und eine Anzeige, die mit dem Prozessor gekoppelt ist, worin der Prozessor eine Anzeige des zweiten Bildes auf der Grundlage des Vergleichs anpaßt.
27. Intravaskuläre Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von einem ersten Satz von erfaßten Ultraschall signalen abzuleiten;
- b. ein zweites Bild von einem zweiten Satz von erfaßten Ultra schallsignalen abzuleiten;
- c. eine automatische Überwachung durchzuführen, und das zweite Bild in bezug auf das erste Bild auszuwerten.
28. Vorrichtung nach Anspruch 27, worin der Prozessor automatisch das
erste Bild und das zweite Bild auf Gefäßbewegungen überwacht.
29. Vorrichtung nach Anspruch 28, worin die Gefäßbewegung eine
lokale Gefäßbewegung und/oder eine globale Gefäßbewegung ist.
30. Vorrichtung nach Anspruch 27, worin der Prozessor weiterhin
programmiert ist, um eine Nahheitsfunktion zu bilden.
31. Vorrichtung nach Anspruch 30, worin die Nahheitsfunktion unter
Verwendung von einer Kreuzkorrelation und/oder normierten Kreuz
korrelation und/oder SAD gebildet ist.
32. Vorrichtung nach Anspruch 30, worin der Prozessor automatisch die
Nahheitsfunktion auf kardiovaskulare Periodizität überwacht.
33. Vorrichtung nach Anspruch 32, worin der Prozessor automatisch die
Nahheitsfunktion auf kardiovaskulare Periodizität überwacht unter
Verwendung von einer Schwellenwert-Überschreitung und/oder inter
nen Nahheit und/oder Fourier-Transformation und/oder Spektralanaly
se.
34. Vorrichtung nach Anspruch 30, worin die Nahheitsfunktion für die
Bildqualität analysiert wird.
35. Vorrichtung nach Anspruch 30, worin die Auswertung eine Ver
schiebungsauswertung umfaßt.
36. Intravaskuläre Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. ein erstes Bild von einem ersten Satz von erfaßten Ultraschall signalen abzuleiten;
- b. ein zweites Bild von einem zweiten Satz von erfaßten Ultra schallsignalen abzuleiten;
- c. das zweite Bild in bezug auf das erste Bild auszuwerten; und
- d. das zweite Bild in bezug auf das erste Bild zu stabilisieren.
37. Vorrichtung nach Anspruch 36, weiterhin eine Anzeige umfassend,
die mit dem Prozessor gekoppelt ist, zur Anzeige des ersten Bildes
und des stabilisierten zweiten Bildes.
38. Vorrichtung nach Anspruch 36, worin die Stabilisierung des zweiten
Bildes in bezug auf das erste Bild unter Verwendung von kartesi
schen Koordinaten und/oder polaren Koordinaten erfolgt.
39. Vorrichtung nach Anspruch 36, worin die Stabilisierung des zweiten
Bildes in bezug auf das erste Bild in mindestens einer Dimension
ausgeführt wird.
40. Vorrichtung nach Anspruch 36, worin die Stabilisierung eine Stabili
sierung für eine kartesische Verlagerung und/oder Drehbewegung
und/oder Gefäßbewegung umfaßt.
41. Vorrichtung nach Anspruch 40, worin die Stabilisierung eine Stabili
sierung für eine globale und/oder lokale und/oder starre Bewegung
umfaßt.
42. Vorrichtung nach Anspruch 36, worin die Stabilisierung eine Stabili
sierung von jeder einer Anzahl von Stellen in dem zweiten Bild
umfaßt.
43. Vorrichtung nach Anspruch 36, worin die Stabilisierung eine Ver
schiebung des zweiten Bildes umfaßt.
44. Vorrichtung nach Anspruch 36, worin die Stabilisierung die An
passung des zweiten Bildes auf der Grundlage der Auswertung
umfaßt.
45. Vorrichtung nach Anspruch 36, worin der Prozessor weiterhin
programmiert ist, um Drift zu begrenzen.
46. Vorrichtung nach Anspruch 43, worin der Prozessor weiterhin
programmiert ist, um Drift durch Einstellen der Verschiebung des
zweiten Bildes unter Verwendung der Information, die aus der
Überwachung der kardiovaskulären Periodizität abgeleitet wurde, zu
begrenzen.
47. Verfahren zum intravaskulären Ultraschallabbilden, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von den erfaßten Ultraschallsignalen;
Vergleichen des zweiten Bildes mit dem ersten Bild; und
Verarbeiten des ersten und des zweiten Bildes.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von den erfaßten Ultraschallsignalen;
Vergleichen des zweiten Bildes mit dem ersten Bild; und
Verarbeiten des ersten und des zweiten Bildes.
48. Verfahren nach Anspruch 47, weiterhin umfassend den Schritt des
Anzeigens des ersten Bildes und des zweiten Bildes.
49. Verfahren nach Anspruch 47, worin das Vergleichen die Auswertung
des zweiten Bildes in bezug auf das erste Bild umfaßt.
50. Verfahren nach Anspruch 47, worin das Ableiten ein Verarbeiten
und/oder Digitalisieren umfaßt.
51. Verfahren nach Anspruch 47, worin das Ableiten die Konfiguration
einer zweidimensionalen Anordnung umfaßt.
52. Verfahren nach Anspruch 51, worin die zweidimensionale Anord
nung in Polarkoordinaten und/oder kartesische Koordinaten konfigu
riert ist.
53. Verfahren nach Anspruch 51, worin die zweidimensionale Anord
nung eine Anzahl von Elementen aufweist und jedes der Anzahl von
Elementen ein erfaßtes Ultraschallsignal von einer bestimmten räum
lichen Stelle wiedergibt.
54. Verfahren nach Anspruch 49, worin das Auswerten eine Verschie
bungsauswertung umfaßt.
55. Verfahren nach Anspruch 49, worin die Auswertung mindestens eine
Nahheitsoperation umfaßt.
56. Verfahren nach Anspruch 55, worin die mindestens eine Nahheits
operation eine Kreuzkorrelation und/oder normierte Kreuzkorrelation
und/oder SAD umfaßt.
57. Verfahren nach Anspruch 56, worin die Kreuzkorrelation direkte
Kreuzkorrelation und/oder Fourier-Transformation umfaßt.
58. Verfahren nach Anspruch 49, worin die Auswertung unter Verwen
dung von kartesischen Koordinaten und/oder Polarkoordinaten durch
geführt wird.
59. Verfahren nach Anspruch 49, worin die Auswertung in mindestens
einer Dimension durchgeführt wird.
60. Verfahren nach Anspruch 47, weiterhin umfassend den Schritt des
Erfassens von kartesischer Verlagerung und/oder Drehbewegung und
Gefäßbewegung.
61. Verfahren nach Anspruch 60, worin die kartesische Verlagerung
und/oder die Drehbewegung starr ist.
62. Verfahren nach Anspruch 60, worin die kartesische Verschiebung
und/oder die Drehbewegung lokal ist.
63. Verfahren nach Anspruch 60, worin die Gefäßbewegung global ist.
64. Verfahren nach Anspruch 60, worin die Gefäßbewegung lokal ist.
65. Verfahren nach Anspruch 47, weiterhin umfassend den Schritt des
automatischen Überwachens von Änderung in den erfaßten Ultra
schallsignalen.
66. Verfahren nach Anspruch 65, weiterhin umfassend den Schritt der
Bildverbesserung.
67. Verfahren nach Anspruch 65, weiterhin umfassend den Schritt der
Lumenidentifikation.
68. Verfahren nach Anspruch 47, weiterhin umfassend den Schritt der
automatischen Überwachung der kardiovaskulären Periodizität.
69. Verfahren nach Anspruch 47, weiterhin umfassend den Schritt des
automatischen Überwachens der Bildqualität.
70. Verfahren zur intravaskulären Ultraschallabbildung, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
automatisches Überwachen;
Auswerten des zweiten Bildes in bezug auf das erste Bild; und
Verarbeiten des ersten Bildes und des zweiten Bildes.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
automatisches Überwachen;
Auswerten des zweiten Bildes in bezug auf das erste Bild; und
Verarbeiten des ersten Bildes und des zweiten Bildes.
71. Verfahren nach Anspruch 70, weiterhin umfassend den Schritt des
Bildens einer Nahheitsfunktion.
72. Verfahren nach Anspruch 71, worin die Nahheitsfunktion gebildet
wird unter Verwendung von Kreuzkorrelation und/oder normierter
Kreuzkorrelation und/oder SAD.
73. Verfahren nach Anspruch 70, worin die automatische Überwachung
das erste Bild und das zweite Bild auf Gefäßbewegungen überwacht.
74. Verfahren nach Anspruch 73, worin die Gefäßbewegung lokale
Gefäßbewegung und/oder globale Gefäßbewegung ist.
75. Verfahren nach Anspruch 71, worin die automatische Überwachung
die Nahheitsfunktion auf kardiovaskularer Periodizität überwacht.
76. Verfahren nach Anspruch 75, worin die automatische Überwachung
Schwellenüberschreitung und/oder interne Nahheit und/oder Fourier-Trans
formation und/oder Spektralanalyse umfaßt.
77. Verfahren nach Anspruch 71, worin die Nahheitsfunktion für die
Bildqualität analysiert wird.
78. Verfahren nach Anspruch 70, worin die Auswertung eine Verschie
bungsauswertung umfaßt.
79. Verfahren zur intravaskulären Ultraschallabbildung, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
Auswerten des zweiten Bildes in bezug auf das erste Bild; und
Stabilisieren des zweiten Bildes in bezug auf das erste Bild.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
Auswerten des zweiten Bildes in bezug auf das erste Bild; und
Stabilisieren des zweiten Bildes in bezug auf das erste Bild.
80. Verfahren nach Anspruch 79, weiterhin umfassend den Schritt des
Anzeigens des ersten Bildes und des zweiten stabilisierten Bildes.
81. Verfahren nach Anspruch 79, worin die Stabilisierung durchgeführt
wird unter Verwendung von kartesischen Koordinaten und/oder
polaren Koordinaten.
82. Verfahren nach Anspruch 79, worin die Stabilisierung in mindestens
einer Dimension durchgeführt wird.
83. Verfahren nach Anspruch 79, worin die Stabilisierung eine Stabili
sierung für kartesische Verlagerung und/oder Drehbewegung und/
oder Gefäßbewegung umfaßt.
84. Verfahren nach Anspruch 83, worin die Stabilisierung eine Stabili
sierung für globale und/oder lokale und/oder starre Bewegung um
faßt.
85. Verfahren nach Anspruch 79, worin die Stabilisierung eine Stabili
sierung von jeder einer Anzahl von Stellen in dem zweiten Bild
umfaßt.
86. Verfahren nach Anspruch 79, worin die Stabilisierung eine Verschie
bung des zweiten Bildes umfaßt.
87. Verfahren nach Anspruch 79, worin die Stabilisierung das Anpassen
des zweiten Bildes auf der Grundlage der Auswertung umfaßt.
88. Verfahren nach Anspruch 79, das weiterhin den Schritt der Driftbe
grenzung umfaßt.
89. Verfahren nach Anspruch 86, das weiterhin den Schritt der Driftbe
grenzung umfaßt, und worin die Begrenzung die Anpassung der
Verschiebung des zweiten Bildes unter Verwendung der Information,
die aus der Überwachung der kardiovaskulären Periodizität abgeleitet
wird, umfaßt.
90. Verfahren zur intravaskulären Ultraschallabbildung, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignaien;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
Vergleichen des zweiten Bildes mit dem ersten Bild;
automatisches Überwachen von Änderung in den erfaßten Ultraschall signalen;
automatisches Überwachen der kardiovaskularen Periodizität; und
Stabilisieren des zweiten Bildes in bezug auf das erste Bild.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignaien;
Ableiten eines ersten Bildes von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten eines zweiten Bildes von einem zweiten Satz von erfaßten Ultraschallsignalen;
Vergleichen des zweiten Bildes mit dem ersten Bild;
automatisches Überwachen von Änderung in den erfaßten Ultraschall signalen;
automatisches Überwachen der kardiovaskularen Periodizität; und
Stabilisieren des zweiten Bildes in bezug auf das erste Bild.
91. Verfahren zur intravaskularen Ultraschallabbilden, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Bewegen des Ultraschallsignal-Senders und -Detektors durch einen Abschnitt des Körperlumens;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von den Ultraschallsignalen, die wäh rend einer ersten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt wurden;
Ableiten eines zweiten Bildes von den Ultraschallsignalen, die wäh rend einer zweiten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt wurden;
Vergleichen des zweiten Bildes mit dem ersten Bild;
Anpassen des zweiten Bildes; und
Anzeigen eines angepaßten zweiten Bildes.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Bewegen des Ultraschallsignal-Senders und -Detektors durch einen Abschnitt des Körperlumens;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von den Ultraschallsignalen, die wäh rend einer ersten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt wurden;
Ableiten eines zweiten Bildes von den Ultraschallsignalen, die wäh rend einer zweiten Bewegung des Ultraschallsignal-Senders und -De tektors durch den Abschnitt erfaßt wurden;
Vergleichen des zweiten Bildes mit dem ersten Bild;
Anpassen des zweiten Bildes; und
Anzeigen eines angepaßten zweiten Bildes.
92. Verfahren zur intravaskulären Ultraschallabbildung, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Bewegen des Ultraschallsignal-Senders und -Detektors durch einen Abschnitt des Körperlumens;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von den Ultraschallsignalen, die von einem ersten Teil des Abschnitts erfaßt wurden;
Ableiten eines zweiten Bildes von den Ultraschallsignalen, die von einem zweiten Teil des Abschnitts erfaßt wurden;
Vergleichen des zweiten Bildes mit dem ersten Bild;
Anpassen des zweiten Bildes; und
Anzeigen eines angepaßten zweiten Bildes.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Bewegen des Ultraschallsignal-Senders und -Detektors durch einen Abschnitt des Körperlumens;
Erfassen von Ultraschallsignalen;
Ableiten eines ersten Bildes von den Ultraschallsignalen, die von einem ersten Teil des Abschnitts erfaßt wurden;
Ableiten eines zweiten Bildes von den Ultraschallsignalen, die von einem zweiten Teil des Abschnitts erfaßt wurden;
Vergleichen des zweiten Bildes mit dem ersten Bild;
Anpassen des zweiten Bildes; und
Anzeigen eines angepaßten zweiten Bildes.
93. Verfahren zur intravaskulären Ultraschallabbildung, umfassend die
Schritte:
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten einer ersten Serie von Bildern von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten einer zweiten Serie von Bildern von einem zweiten Satz von erfaßten Ultraschallsignalen;
Vergleich der ersten Serie von Bildern mit der zweiten Reihe von Bildern; und
automatisches Zuordnen der ersten Serie von Bildern zu der zweiten Reihe von Bildern.
Anordnen eines Ultraschallsignal-Senders und -Detektors in einem Körperlumen;
Erfassen von Ultraschallsignalen;
Ableiten einer ersten Serie von Bildern von einem ersten Satz von erfaßten Ultraschallsignalen;
Ableiten einer zweiten Serie von Bildern von einem zweiten Satz von erfaßten Ultraschallsignalen;
Vergleich der ersten Serie von Bildern mit der zweiten Reihe von Bildern; und
automatisches Zuordnen der ersten Serie von Bildern zu der zweiten Reihe von Bildern.
94. Verfahren nach Anspruch 93, worin das Zuordnen die Identifikation
von entsprechenden Bildern umfaßt.
95. Verfahren nach Anspruch 93, worin mindestens ein Teil der ersten
Serie von Bildern ein Referenzsegment ist und worin mindestens ein
Teil der zweiten Serie von Bildern ein Nicht-Referenzsegment ist.
96. Verfahren nach Anspruch 95, worin das Zuordnen das Verschieben
des Nicht-Referenzsegmentes um ein Bild in bezug auf das Refe
renzsegment umfaßt.
97. Verfahren nach Anspruch 95, worin das Zuordnen die Stabilisierung
des Nicht-Referenzsegmentes in bezug auf das Referenzsegment um
faßt.
98. Verfahren nach Anspruch 97, worin das Stabilisieren an jedem der
entsprechenden Bilder von dem Referenz- und dem Nicht-Referenz
segment individuell ausgeführt wird.
99. Verfahren nach Anspruch 97, worin das Stabilisieren an jedem der
entsprechenden Bilder von der ersten Serie und der zweiten Serie
von Bildern individuell durchgeführt wird.
100. Verfahren nach Anspruch 93, worin das Zuordnen eine Nahheits
operation umfaßt.
101. Verfahren nach Anspruch 100, worin die Nahheitsoperation eine
Kreuzkorrelation und/oder eine normierte Kreuzkorrelation umfaßt.
102. Verfahren nach Anspruch 93, worin die erste Serie von Bildern
von einer ersten Bewegung des Ultraschallsignal-Senders und -Detek
tors entlang eines ersten Abschnitts des Körperlumens abgeleitet
wird, und worin die zweite Serie von Bildern von einer zweiten
Bewegung des Ultraschallsignal-Senders und -Detektors entlang eines
zweiten Abschnitts des Körperlumens abgeleitet wird.
103. Verfahren nach Anspruch 102, worin der erste Abschnitt und der
zweite Abschnitt des Körperlumens ungefähr deckungsgleich sind.
104. Verfahren nach Anspruch 93, worin der Vergleich die Auswertung
des zweiten Bildes in bezug auf das erste Bild umfaßt.
105. Intravaskulare Ultraschall-Abbildungsvorrichtung, umfassend:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
einen Ultraschallsignal-Sender und -Detektor, der in einem Körperlu men angeordnet ist; und
einen Prozessor, der mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist, wobei der Prozessor programmiert ist, um:
- a. eine erste Serie von Bildern von einem ersten Satz von erfaß ten Ultraschallsignalen abzuleiten;
- b. eine zweite Serie von Bildern von einem zweiten Satz von er faßten Ultraschallsignalen abzuleiten;
- c. die erste Serie von Bildern mit der zweiten Serie von Bildern zu vergleichen; und
- d. automatisch die erste Serie von Bildern der zweiten Serie von Bildern zuzuordnen.
106. Vorrichtung nach Anspruch 105, worin der Vergleich des zweiten
Bildes mit dem ersten Bild die Auswertung des zweiten Bildes in
bezug auf das erste Bild umfaßt.
107. Vorrichtung nach Anspruch 105, worin das Zuordnen die Identifika
tion von entsprechenden Bildern umfaßt.
108. Vorrichtung nach Anspruch 105, worin mindestens ein Teil der
ersten Serie von Bildern ein Referenzsegment ist und worin minde
stens ein Teil der zweiten Serie von Bildern ein Nicht-Referenzseg
ment ist.
109. Vorrichtung nach Anspruch 108, worin das Zuordnen ein Verschie
ben des Nicht-Referenzsegmentes um ein Bild in bezug auf das
Referenzsegment umfaßt.
110. Vorrichtung nach Anspruch 108, worin das Zuordnen die Stabilisie
rung des Nicht-Referenzsegmentes in bezug auf das Referenzsegment
umfaßt.
111. Vorrichtung nach Anspruch 110, worin die Stabilisierung individuell
für jedes der entsprechenden Bilder von dem Referenz- und dem
Nicht-Referenzsegment durchgeführt wird.
112. Vorrichtung nach Anspruch 110, worin die Stabilisierung individuelle
durchgeführt wird für jedes der entsprechenden Bilder von der
ersten und der zweiten Serie von Bildern.
113. Vorrichtung nach Anspruch 105, worin das Zuordnen eine Nahheits
operation umfaßt.
114. Vorrichtung nach Anspruch 113, worin die Nahheitsoperation Kreuz
korrelation und/oder normierte Kreuzkorrelation umfaßt.
115. Vorrichtung nach Anspruch 105, worin die erste Serie von Bildern
von einer ersten Bewegung des Ultraschallsignal-Senders und -Detek
tors entlang eines ersten Abschnitts des Körperlumens abgeleitet
wird, und worin die zweite Serie von Bildern von einer zweiten
Bewegung des Ultraschallsignal-Senders und -Detektors entlang eines
zweiten Abschnitts des Körperlumens abgeleitet wird.
116. Vorrichtung nach Anspruch 115, worin der erste Abschnitt und der
zweite Abschnitt des Körperlumens ungefähr deckungsgleich sind.
117. Vorrichtung nach Anspruch 1, weiterhin umfassend eine Sonde, die
mit dem Ultraschallsignal-Sender und -Detektor gekoppelt ist.
118. Vorrichtung nach einem der Ansprüche 1, 25, 26, 27, 36 oder 115,
worin der Ultraschallsignal-Sender und -Detektor einen unabhängigen
Sender und einen unabhängigen Detektor umfaßt.
119. Vorrichtung nach einem der Ansprüche 25, 26, 115, weiterhin
umfassend eine Sonde, die mit dem Ultraschallsignal-Sender und -De
tektor gekoppelt ist und den Ultraschallsignal-Senders und -De
tektors durch den Abschnitt bewegt.
120. Vorrichtung nach Anspruch 117 oder 119, worin die Sonde ein
Katheter und/oder ein Führungsdraht ist.
121. Verfahren nach Anspruch 47, worin der Ultraschallsignal-Sender und -De
tektor mit einer Sonde gekoppelt sind.
122. Verfahren nach einem der Ansprüche 47, 70 79, 91, 92, 93, worin
der Ultraschallsignal-Sender und -Detektor einen unabhängigen Sen
der und einen unabhängigen Detektor umfaßt.
123. Verfahren nach einem der Ansprüche 91, 92, 102, worin der Ul
traschallsignal-Sender und -Detektor mit einer Sonde, und die Sonde
den Ultraschallsignal-Sender und -Detektor bewegt gekoppelt ist.
124. Verfahren nach einem der Ansprüche 121 oder 123, worin die
Sonde ein Katheter und/oder ein Führungsdraht ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US87912597A | 1997-06-19 | 1997-06-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19827460A1 true DE19827460A1 (de) | 1998-12-24 |
Family
ID=25373482
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69827857T Expired - Fee Related DE69827857T2 (de) | 1997-06-19 | 1998-06-18 | Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen |
DE69813087T Expired - Fee Related DE69813087T2 (de) | 1997-06-19 | 1998-06-18 | Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen |
DE19827460A Withdrawn DE19827460A1 (de) | 1997-06-19 | 1998-06-19 | Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69827857T Expired - Fee Related DE69827857T2 (de) | 1997-06-19 | 1998-06-18 | Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen |
DE69813087T Expired - Fee Related DE69813087T2 (de) | 1997-06-19 | 1998-06-18 | Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen |
Country Status (25)
Country | Link |
---|---|
US (2) | US6095976A (de) |
EP (2) | EP0885594B1 (de) |
JP (1) | JPH11151246A (de) |
KR (1) | KR19990007305A (de) |
AR (1) | AR015123A1 (de) |
AT (2) | ATE283497T1 (de) |
AU (2) | AU8032298A (de) |
BR (1) | BR9814778A (de) |
CA (1) | CA2240651A1 (de) |
CZ (1) | CZ190198A3 (de) |
DE (3) | DE69827857T2 (de) |
DK (1) | DK0885594T3 (de) |
EE (1) | EE04166B1 (de) |
ES (1) | ES2192290T3 (de) |
GB (1) | GB2326479B (de) |
HK (1) | HK1050242A1 (de) |
IL (1) | IL125000A (de) |
NO (1) | NO982817L (de) |
PL (1) | PL326831A1 (de) |
PT (1) | PT885594E (de) |
RU (1) | RU2238041C2 (de) |
SG (1) | SG68672A1 (de) |
SK (1) | SK87098A3 (de) |
UA (1) | UA57011C2 (de) |
WO (1) | WO1998057580A1 (de) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004008371A1 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zum Durchführen und Überwachen von Artherektomie |
DE102004008366B3 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zur Durchführung von Laserangioplastie mit OCT-Überwachung |
DE102004008370A1 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zur Durchführung und Überwachung von Rotablation |
DE102004008373B3 (de) * | 2004-02-20 | 2005-09-29 | Siemens Ag | Vorrichtung zum Durchführen und Überwachen der endovaskulären Brachytherapie |
DE102004008368B4 (de) * | 2004-02-20 | 2006-05-24 | Siemens Ag | Katheter zur Durchführung und Überwachung von Rotablation |
DE102005045071A1 (de) * | 2005-09-21 | 2007-04-12 | Siemens Ag | Kathetervorrichtung mit einem Positionssensorsystem zur Behandlung eines teilweisen und/oder vollständigen Gefäßverschlusses unter Bildüberwachung |
WO2007124953A1 (de) * | 2006-05-02 | 2007-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung |
US7729745B2 (en) | 2005-09-22 | 2010-06-01 | Siemens Aktiengesellschaft | Device for carrying out rotablation |
US7860576B2 (en) | 2004-12-23 | 2010-12-28 | Siemens Aktiengesellschaft | Intravenous pacemaker electrode |
DE102010019421A1 (de) | 2010-05-05 | 2011-11-10 | Siemens Aktiengesellschaft | Bildgebendes Verfahren zur Darstellung von Ergebnissen intravaskulärer Bildgebung und CFD-Ergebnissen sowie Medizinsystem zur Durchführung des Verfahrens |
US8126534B2 (en) | 2005-06-16 | 2012-02-28 | Siemens Aktiengesellschaft | Medical catheter and system for inserting a catheter into a vessel |
US8167810B2 (en) | 2005-12-12 | 2012-05-01 | Siemens Aktiengesellschaft | Catheter device for treating a blockage of a vessel |
US8265733B2 (en) | 2005-09-23 | 2012-09-11 | Siemens Aktiengesellschaft | Injector and method for facilitating imaging of a patient |
US8452397B2 (en) | 2006-03-31 | 2013-05-28 | Siemens Aktiengesellschaft | Implantable pacemaker |
US8750964B2 (en) | 2005-09-22 | 2014-06-10 | Siemens Aktiengesellschaft | Device for determining the position of a medical instrument |
US9237919B2 (en) | 2005-10-20 | 2016-01-19 | Siemens Aktiengesellschaft | Cryocatheter for introduction into a body vessel together with medical investigation and treatment equipment |
Families Citing this family (196)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6240307B1 (en) | 1993-09-23 | 2001-05-29 | Endocardial Solutions, Inc. | Endocardial mapping system |
US7930012B2 (en) * | 1992-09-23 | 2011-04-19 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Chamber location method |
WO1994006349A1 (en) * | 1992-09-23 | 1994-03-31 | Endocardial Therapeutics, Inc. | Endocardial mapping system |
US7189208B1 (en) * | 1992-09-23 | 2007-03-13 | Endocardial Solutions, Inc. | Method for measuring heart electrophysiology |
US6027451A (en) * | 1997-09-26 | 2000-02-22 | Ep Technologies, Inc. | Method and apparatus for fixing the anatomical orientation of a displayed ultrasound generated image |
US5885218A (en) * | 1997-11-07 | 1999-03-23 | Scimed Life Systems, Inc. | Method and apparatus for spatial filtering in an intravascular ultrasound imaging system |
US7806829B2 (en) * | 1998-06-30 | 2010-10-05 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for navigating an ultrasound catheter to image a beating heart |
US7670297B1 (en) | 1998-06-30 | 2010-03-02 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Chamber mapping system |
US7263397B2 (en) | 1998-06-30 | 2007-08-28 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Method and apparatus for catheter navigation and location and mapping in the heart |
US6120445A (en) * | 1998-10-02 | 2000-09-19 | Scimed Life Systems, Inc. | Method and apparatus for adaptive cross-sectional area computation of IVUS objects using their statistical signatures |
US7837624B1 (en) | 1998-11-20 | 2010-11-23 | Siemens Medical Solutions Usa, Inc. | Medical diagnostic ultrasound imaging methods for extended field of view |
US6352509B1 (en) * | 1998-11-16 | 2002-03-05 | Kabushiki Kaisha Toshiba | Three-dimensional ultrasonic diagnosis apparatus |
US6352508B1 (en) * | 1998-11-20 | 2002-03-05 | Acuson Corporation | Transducer motion compensation in medical diagnostic ultrasound extended field of view imaging |
US9572519B2 (en) | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
US7386339B2 (en) * | 1999-05-18 | 2008-06-10 | Mediguide Ltd. | Medical imaging and navigation system |
US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
US6381350B1 (en) * | 1999-07-02 | 2002-04-30 | The Cleveland Clinic Foundation | Intravascular ultrasonic analysis using active contour method and system |
US6586411B1 (en) | 2000-08-16 | 2003-07-01 | Mayo Foundation For Medical Education And Research | System for monitoring the location of transgenes |
US6200268B1 (en) * | 1999-09-10 | 2001-03-13 | The Cleveland Clinic Foundation | Vascular plaque characterization |
US6896881B1 (en) * | 1999-09-24 | 2005-05-24 | Mayo Foundation For Medical Education And Research | Therapeutic methods and compositions using viruses of the recombinant paramyxoviridae family |
JP2001184492A (ja) * | 1999-12-27 | 2001-07-06 | Fuji Photo Film Co Ltd | 画像表示方法および画像表示装置 |
US6402693B1 (en) * | 2000-01-13 | 2002-06-11 | Siemens Medical Solutions Usa, Inc. | Ultrasonic transducer aligning system to replicate a previously obtained image |
US6368277B1 (en) * | 2000-04-05 | 2002-04-09 | Siemens Medical Solutions Usa, Inc. | Dynamic measurement of parameters within a sequence of images |
JP3854062B2 (ja) * | 2000-04-28 | 2006-12-06 | 株式会社モリタ製作所 | 断層面画像の表示方法、表示装置、この表示方法を実現するプログラムを記録した記録媒体 |
US6517488B1 (en) * | 2000-06-29 | 2003-02-11 | Acuson Corporation | Medical diagnostic ultrasound system and method for identifying constrictions |
CA2314794A1 (en) * | 2000-08-01 | 2002-02-01 | Dimitre Hristov | Apparatus for lesion or organ localization |
US6716166B2 (en) * | 2000-08-18 | 2004-04-06 | Biosense, Inc. | Three-dimensional reconstruction using ultrasound |
US7118740B1 (en) * | 2000-09-22 | 2006-10-10 | Mayo Foundation For Medical Education And Research | Method for limiting the growth of cancer cells using an attenuated measles virus |
EP1341443B1 (de) | 2000-10-18 | 2010-12-29 | Paieon Inc. | System zur positionierung einer einrichtung in einem rohrförmigen organ |
US6508768B1 (en) * | 2000-11-22 | 2003-01-21 | University Of Kansas Medical Center | Ultrasonic elasticity imaging |
US6537221B2 (en) * | 2000-12-07 | 2003-03-25 | Koninklijke Philips Electronics, N.V. | Strain rate analysis in ultrasonic diagnostic images |
US6773402B2 (en) | 2001-07-10 | 2004-08-10 | Biosense, Inc. | Location sensing with real-time ultrasound imaging |
NL1018864C2 (nl) | 2001-08-31 | 2003-03-03 | Technologiestichting Stw | Inrichting en werkwijze voor het genereren van driedimensionale beelden met hardheidsinformatie van weefsel. |
WO2006103644A1 (en) | 2005-03-31 | 2006-10-05 | Paieon Inc. | Method and apparatus for positioning a device in a tubular organ |
US6782284B1 (en) * | 2001-11-21 | 2004-08-24 | Koninklijke Philips Electronics, N.V. | Method and apparatus for semi-automatic aneurysm measurement and stent planning using volume image data |
US6589176B2 (en) * | 2001-12-05 | 2003-07-08 | Koninklijke Philips Electronics N.V. | Ultrasonic image stabilization system and method |
NL1019612C2 (nl) * | 2001-12-19 | 2003-06-20 | Gemeente Amsterdam | Stoomoververhitter. |
US7024025B2 (en) * | 2002-02-05 | 2006-04-04 | Scimed Life Systems, Inc. | Nonuniform Rotational Distortion (NURD) reduction |
US6961468B2 (en) * | 2002-03-29 | 2005-11-01 | Sun Microsystems, Inc. | Method and apparatus for adaptive local image quantification verification |
US7092571B2 (en) | 2002-03-29 | 2006-08-15 | Sun Microsystems, Inc. | Method and apparatus for regional image quantification verification |
US7092572B2 (en) * | 2002-03-29 | 2006-08-15 | Sun Microsystems, Inc. | Method and apparatus for global image quantification verification |
JP4088104B2 (ja) | 2002-06-12 | 2008-05-21 | 株式会社東芝 | 超音波診断装置 |
US7359554B2 (en) * | 2002-08-26 | 2008-04-15 | Cleveland Clinic Foundation | System and method for identifying a vascular border |
US7927275B2 (en) * | 2002-08-26 | 2011-04-19 | The Cleveland Clinic Foundation | System and method of aquiring blood-vessel data |
US7074188B2 (en) * | 2002-08-26 | 2006-07-11 | The Cleveland Clinic Foundation | System and method of characterizing vascular tissue |
TR201902962T4 (tr) * | 2002-08-26 | 2019-03-21 | Cleveland Clinic Found | Vasküler dokunun karakterize edilmesine yönelik sistem ve yöntem. |
US7356172B2 (en) * | 2002-09-26 | 2008-04-08 | Siemens Medical Solutions Usa, Inc. | Methods and systems for motion tracking |
CN1720464A (zh) | 2002-12-02 | 2006-01-11 | 皇家飞利浦电子股份有限公司 | 用于识别成像系统中的流动区域的分割工具 |
WO2004051579A2 (en) * | 2002-12-04 | 2004-06-17 | Philips Intellectual Property & Standards Gmbh | Apparatus and method for assisting the navigation of a catheter in a vessel |
US7927278B2 (en) * | 2002-12-13 | 2011-04-19 | California Institute Of Technology | Split-screen display system and standardized methods for ultrasound image acquisition and multi-frame data processing |
AU2003279484A1 (en) * | 2002-12-13 | 2004-07-09 | Koninklijke Philips Electronics N.V. | System and method for processing a series of image frames representing a cardiac cycle |
ATE441360T1 (de) * | 2003-02-25 | 2009-09-15 | Koninkl Philips Electronics Nv | Intravaskuläre bilddarstellung |
US7314448B2 (en) * | 2003-03-28 | 2008-01-01 | Scimed Life Systems, Inc. | Imaging transducer assembly |
JP4468677B2 (ja) * | 2003-05-19 | 2010-05-26 | オリンパス株式会社 | 超音波画像生成方法及び超音波画像生成プログラム |
US6942618B2 (en) * | 2003-06-19 | 2005-09-13 | Siemens Medical Solutions U.S.A., Inc. | Change detection for optimized medical imaging |
JP4799833B2 (ja) * | 2003-06-19 | 2011-10-26 | サラヤ株式会社 | エコーを用いた血管径測定方法およびその装置 |
CA2533538A1 (en) * | 2003-07-21 | 2005-01-27 | Paieon Inc. | Method and system for identifying an optimal image within a series of images that depict a moving organ |
WO2005024729A1 (en) * | 2003-09-04 | 2005-03-17 | Philips Intellectual Property & Standards Gmbh | Device and method for displaying ultrasound images of a vessel |
DE10343808B4 (de) | 2003-09-22 | 2017-06-01 | Siemens Healthcare Gmbh | Medizinisches Untersuchungs- und/oder Behandlungssystem |
JP5129480B2 (ja) | 2003-09-25 | 2013-01-30 | パイエオン インコーポレイテッド | 管状臓器の3次元再構成を行うシステム及び血管撮像装置の作動方法 |
CA2449080A1 (en) | 2003-11-13 | 2005-05-13 | Centre Hospitalier De L'universite De Montreal - Chum | Apparatus and method for intravascular ultrasound image segmentation: a fast-marching method |
DE10354496B4 (de) | 2003-11-21 | 2011-03-31 | Siemens Ag | Medizinisches Untersuchungs- und/oder Behandlungssystem |
EP1697903B1 (de) * | 2003-12-19 | 2010-08-04 | Philips Intellectual Property & Standards GmbH | Verfahren zur computerunterstützten visualisierung diagnostischer bilddaten |
US7542544B2 (en) * | 2004-01-06 | 2009-06-02 | The Regents Of The University Of Michigan | Ultrasound gating of cardiac CT scans |
US7874990B2 (en) * | 2004-01-14 | 2011-01-25 | The Cleveland Clinic Foundation | System and method for determining a transfer function |
US20080051660A1 (en) * | 2004-01-16 | 2008-02-28 | The University Of Houston System | Methods and apparatuses for medical imaging |
WO2005070299A1 (en) * | 2004-01-16 | 2005-08-04 | The University Of Houston System | Methods and apparatus for medical imaging |
US7215802B2 (en) * | 2004-03-04 | 2007-05-08 | The Cleveland Clinic Foundation | System and method for vascular border detection |
DE102004011156A1 (de) * | 2004-03-08 | 2005-10-06 | Siemens Ag | Verfahren zur endoluminalen Bildgebung mit Bewegungskorrektur |
DE102004015639B4 (de) | 2004-03-31 | 2007-05-03 | Siemens Ag | Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit IVUS-Überwachung |
DE102004015642B3 (de) | 2004-03-31 | 2006-02-02 | Siemens Ag | Vorrichtung zur Beseitigung eines vollständigen Gefäßverschlusses mit OCT-Überwachung |
DE102004015640B4 (de) | 2004-03-31 | 2007-05-03 | Siemens Ag | Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit OCT-Überwachung |
US7654958B2 (en) * | 2004-04-20 | 2010-02-02 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Method and apparatus for ultrasound imaging with autofrequency selection |
US7397935B2 (en) | 2004-05-10 | 2008-07-08 | Mediguide Ltd. | Method for segmentation of IVUS image sequences |
US7578790B2 (en) * | 2004-07-20 | 2009-08-25 | Boston Scientific Scimed, Inc. | Systems and methods for detecting and presenting textural information from medical images |
US20060173318A1 (en) * | 2004-07-20 | 2006-08-03 | Scimed Life Systems Inc. | Systems and methods for detecting and presenting textural information from medical images |
US20060036147A1 (en) * | 2004-07-20 | 2006-02-16 | Scimed Life Systems, Inc. | Systems and methods for detecting and presenting textural information from medical images |
WO2006076409A2 (en) | 2005-01-11 | 2006-07-20 | Volcano Corporation | Vascular image co-registration |
US8295577B2 (en) | 2005-03-31 | 2012-10-23 | Michael Zarkh | Method and apparatus for guiding a device in a totally occluded or partly occluded tubular organ |
US8858441B2 (en) * | 2005-05-12 | 2014-10-14 | The Trustees Of Columbia University In The City Of New York | System and method for electromechanical wave imaging of body structures |
DE102005022120B4 (de) * | 2005-05-12 | 2009-04-09 | Siemens Ag | Katheter, Kathetereinrichtung und bildgebende Diagnosevorrichtung |
US10687785B2 (en) | 2005-05-12 | 2020-06-23 | The Trustees Of Columbia Univeristy In The City Of New York | System and method for electromechanical activation of arrhythmias |
DE102005029476A1 (de) * | 2005-06-24 | 2007-02-08 | Siemens Ag | Vorrichtung zur Durchführung intravaskulärer Untersuchungen |
JP2008543511A (ja) | 2005-06-24 | 2008-12-04 | ヴォルケイノウ・コーポレーション | 脈管の画像作製方法 |
DE102005032755B4 (de) | 2005-07-13 | 2014-09-04 | Siemens Aktiengesellschaft | System zur Durchführung und Überwachung minimal-invasiver Eingriffe |
DE102005034167B4 (de) * | 2005-07-21 | 2012-01-26 | Siemens Ag | Einrichtung und Verfahren zur Ermittlung einer Position eines Implantats in einem Körper |
US7988633B2 (en) * | 2005-10-12 | 2011-08-02 | Volcano Corporation | Apparatus and method for use of RFID catheter intelligence |
US8303505B2 (en) | 2005-12-02 | 2012-11-06 | Abbott Cardiovascular Systems Inc. | Methods and apparatuses for image guided medical procedures |
US20090221916A1 (en) * | 2005-12-09 | 2009-09-03 | The Trustees Of Columbia University In The City Of New York | Systems and Methods for Elastography Imaging |
US8660325B2 (en) * | 2006-07-17 | 2014-02-25 | Koninklijke Philips N.V. | Efficient user interaction with polygonal meshes for medical image segmentation |
US9867530B2 (en) | 2006-08-14 | 2018-01-16 | Volcano Corporation | Telescopic side port catheter device with imaging system and method for accessing side branch occlusions |
DE102006061178A1 (de) | 2006-12-22 | 2008-06-26 | Siemens Ag | System zur Durchführung und Überwachung minimal-invasiver Eingriffe |
US10716528B2 (en) | 2007-03-08 | 2020-07-21 | Sync-Rx, Ltd. | Automatic display of previously-acquired endoluminal images |
US9305334B2 (en) | 2007-03-08 | 2016-04-05 | Sync-Rx, Ltd. | Luminal background cleaning |
US11197651B2 (en) | 2007-03-08 | 2021-12-14 | Sync-Rx, Ltd. | Identification and presentation of device-to-vessel relative motion |
US8781193B2 (en) | 2007-03-08 | 2014-07-15 | Sync-Rx, Ltd. | Automatic quantitative vessel analysis |
US9375164B2 (en) | 2007-03-08 | 2016-06-28 | Sync-Rx, Ltd. | Co-use of endoluminal data and extraluminal imaging |
US11064964B2 (en) | 2007-03-08 | 2021-07-20 | Sync-Rx, Ltd | Determining a characteristic of a lumen by measuring velocity of a contrast agent |
US8700130B2 (en) | 2007-03-08 | 2014-04-15 | Sync-Rx, Ltd. | Stepwise advancement of a medical tool |
US9968256B2 (en) | 2007-03-08 | 2018-05-15 | Sync-Rx Ltd. | Automatic identification of a tool |
US9629571B2 (en) | 2007-03-08 | 2017-04-25 | Sync-Rx, Ltd. | Co-use of endoluminal data and extraluminal imaging |
EP2129284A4 (de) | 2007-03-08 | 2012-11-28 | Sync Rx Ltd | Bildgebung und werkzeuge zur verwendung mit beweglichen organen |
WO2008151676A1 (de) | 2007-06-15 | 2008-12-18 | Ge Inspection Technologies Gmbh | Sensor array for navigation on surfaces |
US9596993B2 (en) | 2007-07-12 | 2017-03-21 | Volcano Corporation | Automatic calibration systems and methods of use |
WO2009009802A1 (en) | 2007-07-12 | 2009-01-15 | Volcano Corporation | Oct-ivus catheter for concurrent luminal imaging |
WO2009009799A1 (en) | 2007-07-12 | 2009-01-15 | Volcano Corporation | Catheter for in vivo imaging |
CA2696190C (en) * | 2007-08-17 | 2014-02-18 | Bell Helicopter Textron Inc. | System for optical recognition, interpretation, and digitization of human readable instruments, annunciators, and controls |
JP5134932B2 (ja) * | 2007-12-03 | 2013-01-30 | 株式会社東芝 | 超音波診断装置及び超音波診断装置の制御プログラム |
WO2011035312A1 (en) | 2009-09-21 | 2011-03-24 | The Trustees Of Culumbia University In The City Of New York | Systems and methods for opening of a tissue barrier |
US20090259099A1 (en) * | 2008-04-10 | 2009-10-15 | Georgia Tech Research Corporation | Image-based control systems |
US9451929B2 (en) | 2008-04-17 | 2016-09-27 | Boston Scientific Scimed, Inc. | Degassing intravascular ultrasound imaging systems with sealed catheters filled with an acoustically-favorable medium and methods of making and using |
RU2520369C2 (ru) * | 2008-06-25 | 2014-06-27 | Конинклейке Филипс Электроникс Н.В. | Устройство и способ локализации представляющего интерес объекта у субъекта |
WO2010014977A1 (en) | 2008-08-01 | 2010-02-04 | The Trustees Of Columbia University In The City Of New York | Systems and methods for matching and imaging tissue characteristics |
WO2010030819A1 (en) | 2008-09-10 | 2010-03-18 | The Trustees Of Columbia University In The City Of New York | Systems and methods for opening a tissue |
US9101286B2 (en) | 2008-11-18 | 2015-08-11 | Sync-Rx, Ltd. | Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points |
US9144394B2 (en) | 2008-11-18 | 2015-09-29 | Sync-Rx, Ltd. | Apparatus and methods for determining a plurality of local calibration factors for an image |
US9095313B2 (en) | 2008-11-18 | 2015-08-04 | Sync-Rx, Ltd. | Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe |
US8855744B2 (en) | 2008-11-18 | 2014-10-07 | Sync-Rx, Ltd. | Displaying a device within an endoluminal image stack |
US11064903B2 (en) | 2008-11-18 | 2021-07-20 | Sync-Rx, Ltd | Apparatus and methods for mapping a sequence of images to a roadmap image |
US9974509B2 (en) | 2008-11-18 | 2018-05-22 | Sync-Rx Ltd. | Image super enhancement |
US10362962B2 (en) | 2008-11-18 | 2019-07-30 | Synx-Rx, Ltd. | Accounting for skipped imaging locations during movement of an endoluminal imaging probe |
BRPI0917609A2 (pt) * | 2008-12-10 | 2019-10-15 | Koninklijke Philips Electrnics N. V. | ''sistema para executar a análise de vasos, estação de trabalho para imagens médicas, método para executar a análise de vasos, e, produto de programa de computador'' |
US8545412B2 (en) * | 2009-05-29 | 2013-10-01 | Boston Scientific Scimed, Inc. | Systems and methods for making and using image-guided intravascular and endocardial therapy systems |
WO2011015952A1 (en) * | 2009-08-07 | 2011-02-10 | Medinol Ltd. | Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images |
KR101812492B1 (ko) * | 2009-10-12 | 2017-12-27 | 실리콘 밸리 메디컬 인스트루먼츠, 인코포레이티드 | 동시 기록 방식 촬영용 혈관내 초음파 시스템 |
US20110118590A1 (en) * | 2009-11-18 | 2011-05-19 | Siemens Medical Solutions Usa, Inc. | System For Continuous Cardiac Imaging And Mapping |
FR2955007B1 (fr) * | 2010-01-04 | 2012-02-17 | Sagem Defense Securite | Estimation de mouvement global et dense |
WO2011122200A1 (ja) | 2010-03-29 | 2011-10-06 | ソニー株式会社 | データ処理装置およびデータ処理方法、画像処理装置および方法、並びに、プログラム |
AU2011272764B2 (en) * | 2010-06-30 | 2015-11-19 | Muffin Incorporated | Percutaneous, ultrasound-guided introduction of medical devices |
EP2611920B1 (de) | 2010-09-02 | 2015-05-13 | Mayo Foundation For Medical Education And Research | Viren für vesikuläre stomatitis |
US9951117B2 (en) | 2010-09-02 | 2018-04-24 | Mayo Foundation For Medical Education And Research | Vesicular stomatitis viruses |
JP5944913B2 (ja) * | 2010-10-28 | 2016-07-05 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | 超音波画像内の不均一回転歪みを低減するためのコンピュータ可読媒体及び同コンピュータ可読媒体を含むシステム |
GB2485390A (en) * | 2010-11-12 | 2012-05-16 | Sony Corp | Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image |
WO2012066446A1 (en) * | 2010-11-18 | 2012-05-24 | Koninklijke Philips Electronics N.V. | Sensing apparatus for sensing an object |
US11141063B2 (en) | 2010-12-23 | 2021-10-12 | Philips Image Guided Therapy Corporation | Integrated system architectures and methods of use |
US20120330145A1 (en) * | 2010-12-31 | 2012-12-27 | Volcano Corporation | Pulmonary Embolism Therapeutic Methods and Associated Devices and Systems |
US11040140B2 (en) | 2010-12-31 | 2021-06-22 | Philips Image Guided Therapy Corporation | Deep vein thrombosis therapeutic methods |
US9320491B2 (en) | 2011-04-18 | 2016-04-26 | The Trustees Of Columbia University In The City Of New York | Ultrasound devices methods and systems |
WO2012162664A1 (en) | 2011-05-26 | 2012-11-29 | The Trustees Of Columbia University In The City Of New York | Systems and methods for opening of a tissue barrier in primates |
WO2013033489A1 (en) | 2011-08-31 | 2013-03-07 | Volcano Corporation | Optical rotary joint and methods of use |
JP6106190B2 (ja) * | 2011-12-21 | 2017-03-29 | ボルケーノ コーポレイション | 血管画像における血液及び血液尤度の可視化方法 |
CA2875346A1 (en) | 2012-06-26 | 2014-01-03 | Sync-Rx, Ltd. | Flow-related image processing in luminal organs |
US9292918B2 (en) | 2012-10-05 | 2016-03-22 | Volcano Corporation | Methods and systems for transforming luminal images |
US9286673B2 (en) | 2012-10-05 | 2016-03-15 | Volcano Corporation | Systems for correcting distortions in a medical image and methods of use thereof |
US10568586B2 (en) | 2012-10-05 | 2020-02-25 | Volcano Corporation | Systems for indicating parameters in an imaging data set and methods of use |
JP2015532536A (ja) | 2012-10-05 | 2015-11-09 | デイビッド ウェルフォード, | 光を増幅するためのシステムおよび方法 |
US10070827B2 (en) | 2012-10-05 | 2018-09-11 | Volcano Corporation | Automatic image playback |
US9324141B2 (en) | 2012-10-05 | 2016-04-26 | Volcano Corporation | Removal of A-scan streaking artifact |
US9367965B2 (en) | 2012-10-05 | 2016-06-14 | Volcano Corporation | Systems and methods for generating images of tissue |
US9307926B2 (en) | 2012-10-05 | 2016-04-12 | Volcano Corporation | Automatic stent detection |
US11272845B2 (en) | 2012-10-05 | 2022-03-15 | Philips Image Guided Therapy Corporation | System and method for instant and automatic border detection |
US9858668B2 (en) | 2012-10-05 | 2018-01-02 | Volcano Corporation | Guidewire artifact removal in images |
WO2014059170A1 (en) | 2012-10-10 | 2014-04-17 | The Trustees Of Columbia University In The City Of New York | Systems and methods for mechanical mapping of cardiac rhythm |
US9840734B2 (en) | 2012-10-22 | 2017-12-12 | Raindance Technologies, Inc. | Methods for analyzing DNA |
EP2931132B1 (de) | 2012-12-13 | 2023-07-05 | Philips Image Guided Therapy Corporation | Vorrichtung zur gezielten kanülierung |
JP2016506276A (ja) | 2012-12-20 | 2016-03-03 | ジェレミー スティガール, | 血管内画像の位置の特定 |
US11406498B2 (en) | 2012-12-20 | 2022-08-09 | Philips Image Guided Therapy Corporation | Implant delivery system and implants |
US10942022B2 (en) | 2012-12-20 | 2021-03-09 | Philips Image Guided Therapy Corporation | Manual calibration of imaging system |
WO2014099899A1 (en) | 2012-12-20 | 2014-06-26 | Jeremy Stigall | Smooth transition catheters |
US9709379B2 (en) | 2012-12-20 | 2017-07-18 | Volcano Corporation | Optical coherence tomography system that is reconfigurable between different imaging modes |
US10939826B2 (en) | 2012-12-20 | 2021-03-09 | Philips Image Guided Therapy Corporation | Aspirating and removing biological material |
US9486143B2 (en) | 2012-12-21 | 2016-11-08 | Volcano Corporation | Intravascular forward imaging device |
US10058284B2 (en) | 2012-12-21 | 2018-08-28 | Volcano Corporation | Simultaneous imaging, monitoring, and therapy |
US9383263B2 (en) | 2012-12-21 | 2016-07-05 | Volcano Corporation | Systems and methods for narrowing a wavelength emission of light |
US9612105B2 (en) | 2012-12-21 | 2017-04-04 | Volcano Corporation | Polarization sensitive optical coherence tomography system |
CA2895993A1 (en) | 2012-12-21 | 2014-06-26 | Jason Spencer | System and method for graphical processing of medical data |
WO2014099672A1 (en) | 2012-12-21 | 2014-06-26 | Andrew Hancock | System and method for multipath processing of image signals |
US10993694B2 (en) | 2012-12-21 | 2021-05-04 | Philips Image Guided Therapy Corporation | Rotational ultrasound imaging catheter with extended catheter body telescope |
US10413317B2 (en) | 2012-12-21 | 2019-09-17 | Volcano Corporation | System and method for catheter steering and operation |
US10166003B2 (en) | 2012-12-21 | 2019-01-01 | Volcano Corporation | Ultrasound imaging with variable line density |
US10191220B2 (en) | 2012-12-21 | 2019-01-29 | Volcano Corporation | Power-efficient optical circuit |
AU2014223201B2 (en) * | 2013-03-01 | 2017-03-02 | Boston Scientific Scimed, Inc. | Systems and methods for lumen border detection in intravascular ultrasound sequences |
JP6243453B2 (ja) | 2013-03-07 | 2017-12-06 | ボルケーノ コーポレイション | 血管内画像におけるマルチモーダルセグメンテーション |
US10226597B2 (en) | 2013-03-07 | 2019-03-12 | Volcano Corporation | Guidewire with centering mechanism |
US20140276923A1 (en) | 2013-03-12 | 2014-09-18 | Volcano Corporation | Vibrating catheter and methods of use |
CN105228518B (zh) | 2013-03-12 | 2018-10-09 | 火山公司 | 用于诊断冠状微脉管疾病的系统和方法 |
US10758207B2 (en) | 2013-03-13 | 2020-09-01 | Philips Image Guided Therapy Corporation | Systems and methods for producing an image from a rotational intravascular ultrasound device |
US11026591B2 (en) | 2013-03-13 | 2021-06-08 | Philips Image Guided Therapy Corporation | Intravascular pressure sensor calibration |
US9301687B2 (en) | 2013-03-13 | 2016-04-05 | Volcano Corporation | System and method for OCT depth calibration |
US20160030151A1 (en) | 2013-03-14 | 2016-02-04 | Volcano Corporation | Filters with echogenic characteristics |
US10219887B2 (en) | 2013-03-14 | 2019-03-05 | Volcano Corporation | Filters with echogenic characteristics |
US10292677B2 (en) | 2013-03-14 | 2019-05-21 | Volcano Corporation | Endoluminal filter having enhanced echogenic properties |
US9247921B2 (en) | 2013-06-07 | 2016-02-02 | The Trustees Of Columbia University In The City Of New York | Systems and methods of high frame rate streaming for treatment monitoring |
US10322178B2 (en) | 2013-08-09 | 2019-06-18 | The Trustees Of Columbia University In The City Of New York | Systems and methods for targeted drug delivery |
KR102185723B1 (ko) * | 2013-08-26 | 2020-12-02 | 삼성메디슨 주식회사 | 경동맥의 경직도를 측정하는 초음파 장치 및 그 측정 방법 |
US10028723B2 (en) | 2013-09-03 | 2018-07-24 | The Trustees Of Columbia University In The City Of New York | Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening |
JP6353038B2 (ja) * | 2013-10-07 | 2018-07-04 | アシスト・メディカル・システムズ,インコーポレイテッド | 血管内撮像の信号処理 |
BR112015029058A2 (pt) * | 2014-01-30 | 2017-07-25 | Koninklijke Philips Nv | sistema de ultrassom para detectar uma bolsa de gás em uma região de interesse, e, método de detecção de uma bolsa de gás em uma região de interesse |
CN104537645A (zh) * | 2014-12-15 | 2015-04-22 | 北京工业大学 | 一种基于血管内超声图像的roi标记点匹配方法 |
US11369337B2 (en) | 2015-12-11 | 2022-06-28 | Acist Medical Systems, Inc. | Detection of disturbed blood flow |
KR102182489B1 (ko) * | 2016-07-26 | 2020-11-24 | 지멘스 메디컬 솔루션즈 유에스에이, 인크. | 초음파 영상을 생성하는 방법, 초음파 시스템 및 기록매체 |
EP3569154A1 (de) | 2018-05-15 | 2019-11-20 | Koninklijke Philips N.V. | Ultraschallverarbeitungseinheit und -verfahren sowie bildgebungssystem |
US11911213B2 (en) * | 2019-06-03 | 2024-02-27 | General Electric Company | Techniques for determining ultrasound probe motion |
US11024034B2 (en) | 2019-07-02 | 2021-06-01 | Acist Medical Systems, Inc. | Image segmentation confidence determination |
JP7157098B2 (ja) * | 2019-10-30 | 2022-10-19 | i-PRO株式会社 | 血管内視鏡システムおよび血管径測定方法 |
CN111856474B (zh) * | 2020-07-30 | 2023-07-25 | 重庆大学 | 一种基于子阵的空时域条件相干系数超声成像方法 |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4063549A (en) * | 1975-12-22 | 1977-12-20 | Technicon Instruments Corporation | Ultrasonic method and apparatus for imaging and characterization of bodies |
GB1590950A (en) * | 1976-12-11 | 1981-06-10 | Emi Ltd | System for comparing representations of a scene |
US4581581A (en) * | 1983-06-30 | 1986-04-08 | General Electric Company | Method of projection reconstruction imaging with reduced sensitivity to motion-related artifacts |
US4803990A (en) * | 1985-12-03 | 1989-02-14 | U.S. Philips Corporation | Examining moving objects by ultrasound echograpy |
US4794931A (en) * | 1986-02-28 | 1989-01-03 | Cardiovascular Imaging Systems, Inc. | Catheter apparatus, system and method for intravascular two-dimensional ultrasonography |
US5000185A (en) * | 1986-02-28 | 1991-03-19 | Cardiovascular Imaging Systems, Inc. | Method for intravascular two-dimensional ultrasonography and recanalization |
US5582178A (en) * | 1986-02-28 | 1996-12-10 | Cardiovascular Imaging Systems, Inc. | Method and apparatus for intravascular ultrasonography |
US4841977A (en) * | 1987-05-26 | 1989-06-27 | Inter Therapy, Inc. | Ultra-thin acoustic transducer and balloon catheter using same in imaging array subassembly |
US5040225A (en) * | 1987-12-07 | 1991-08-13 | Gdp, Inc. | Image analysis method |
US4951677A (en) * | 1988-03-21 | 1990-08-28 | Prutech Research And Development Partnership Ii | Acoustic imaging catheter and the like |
GB2233094B (en) * | 1989-05-26 | 1994-02-09 | Circulation Res Ltd | Methods and apparatus for the examination and treatment of internal organs |
JPH04146737A (ja) * | 1990-10-11 | 1992-05-20 | Toshiba Corp | 超音波診断装置 |
US5445155A (en) * | 1991-03-13 | 1995-08-29 | Scimed Life Systems Incorporated | Intravascular imaging apparatus and methods for use and manufacture |
US5353798A (en) * | 1991-03-13 | 1994-10-11 | Scimed Life Systems, Incorporated | Intravascular imaging apparatus and methods for use and manufacture |
US5608849A (en) * | 1991-08-27 | 1997-03-04 | King, Jr.; Donald | Method of visual guidance for positioning images or data in three-dimensional space |
JP3043873B2 (ja) * | 1991-11-29 | 2000-05-22 | フクダ電子株式会社 | 超音波開口面合成装置 |
US5217456A (en) * | 1992-02-24 | 1993-06-08 | Pdt Cardiovascular, Inc. | Device and method for intra-vascular optical radial imaging |
JP3213766B2 (ja) * | 1992-03-16 | 2001-10-02 | 株式会社日立製作所 | レプリケートファイル更新システム |
US5453575A (en) * | 1993-02-01 | 1995-09-26 | Endosonics Corporation | Apparatus and method for detecting blood flow in intravascular ultrasonic imaging |
US5331964A (en) * | 1993-05-14 | 1994-07-26 | Duke University | Ultrasonic phased array imaging system with high speed adaptive processing using selected elements |
US5419328A (en) * | 1993-08-09 | 1995-05-30 | Hewlett-Packard Company | Mean squared speed and myocardial performance |
JP3045642B2 (ja) * | 1994-01-25 | 2000-05-29 | アロカ株式会社 | 超音波診断装置 |
US5363849A (en) * | 1994-01-26 | 1994-11-15 | Cardiovascular Imaging Systems, Inc. | Enhancing intravascular ultrasonic blood vessel image |
US5363850A (en) * | 1994-01-26 | 1994-11-15 | Cardiovascular Imaging Systems, Inc. | Method for recognition and reduction of blood speckle in blood vessel imaging system |
NO943269D0 (no) * | 1994-09-02 | 1994-09-02 | Vingmed Sound As | Fremgangsmåte for analyse og måling av ultralydsignaler |
US5683451A (en) * | 1994-06-08 | 1997-11-04 | Cardiovascular Concepts, Inc. | Apparatus and methods for deployment release of intraluminal prostheses |
GB2296565B (en) * | 1994-12-23 | 1999-06-16 | Intravascular Res Ltd | Ultrasound imaging |
NO943696D0 (no) * | 1994-10-04 | 1994-10-04 | Vingmed Sound As | Fremgangsmåte ved ultralydavbildning |
US5538004A (en) * | 1995-02-28 | 1996-07-23 | Hewlett-Packard Company | Method and apparatus for tissue-centered scan conversion in an ultrasound imaging system |
US5575286A (en) * | 1995-03-31 | 1996-11-19 | Siemens Medical Systems, Inc. | Method and apparatus for generating large compound ultrasound image |
US5899861A (en) * | 1995-03-31 | 1999-05-04 | Siemens Medical Systems, Inc. | 3-dimensional volume by aggregating ultrasound fields of view |
US5655535A (en) * | 1996-03-29 | 1997-08-12 | Siemens Medical Systems, Inc. | 3-Dimensional compound ultrasound field of view |
JPH08280684A (ja) * | 1995-04-18 | 1996-10-29 | Fujitsu Ltd | 超音波診断装置 |
US5752522A (en) * | 1995-05-04 | 1998-05-19 | Cardiovascular Concepts, Inc. | Lesion diameter measurement catheter and method |
US5596990A (en) * | 1995-06-06 | 1997-01-28 | Yock; Paul | Rotational correlation of intravascular ultrasound image with guide catheter position |
US5566674A (en) * | 1995-06-30 | 1996-10-22 | Siemens Medical Systems, Inc. | Method and apparatus for reducing ultrasound image shadowing and speckle |
US5623929A (en) * | 1995-06-30 | 1997-04-29 | Siemens Medical Systems, Inc. | Ultrasonic doppler flow imaging method for eliminating motion artifacts |
US5503153A (en) * | 1995-06-30 | 1996-04-02 | Siemens Medical Systems, Inc. | Noise suppression method utilizing motion compensation for ultrasound images |
US5601085A (en) * | 1995-10-02 | 1997-02-11 | Nycomed Imaging As | Ultrasound imaging |
US5771895A (en) * | 1996-02-12 | 1998-06-30 | Slager; Cornelis J. | Catheter for obtaining three-dimensional reconstruction of a vascular lumen and wall |
US5830145A (en) * | 1996-09-20 | 1998-11-03 | Cardiovascular Imaging Systems, Inc. | Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction |
US5724978A (en) * | 1996-09-20 | 1998-03-10 | Cardiovascular Imaging Systems, Inc. | Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction |
US5876345A (en) * | 1997-02-27 | 1999-03-02 | Acuson Corporation | Ultrasonic catheter, system and method for two dimensional imaging or three-dimensional reconstruction |
US5971895A (en) * | 1997-09-26 | 1999-10-26 | Precor Incorporated | Combined press and row exercise arm |
US5885218A (en) * | 1997-11-07 | 1999-03-23 | Scimed Life Systems, Inc. | Method and apparatus for spatial filtering in an intravascular ultrasound imaging system |
US5921934A (en) * | 1997-11-25 | 1999-07-13 | Scimed Life Systems, Inc. | Methods and apparatus for non-uniform rotation distortion detection in an intravascular ultrasound imaging system |
-
1997
- 1997-06-19 US US08/879,125 patent/US6095976A/en not_active Expired - Fee Related
-
1998
- 1998-06-01 US US09/088,314 patent/US6152878A/en not_active Expired - Fee Related
- 1998-06-10 SG SG1998001390A patent/SG68672A1/en unknown
- 1998-06-16 CA CA002240651A patent/CA2240651A1/en not_active Abandoned
- 1998-06-16 PL PL98326831A patent/PL326831A1/xx unknown
- 1998-06-16 RU RU98112117/14A patent/RU2238041C2/ru not_active IP Right Cessation
- 1998-06-17 UA UA98063160A patent/UA57011C2/uk unknown
- 1998-06-17 CZ CZ981901A patent/CZ190198A3/cs unknown
- 1998-06-18 NO NO982817A patent/NO982817L/no not_active Application Discontinuation
- 1998-06-18 EP EP98111201A patent/EP0885594B1/de not_active Expired - Lifetime
- 1998-06-18 DE DE69827857T patent/DE69827857T2/de not_active Expired - Fee Related
- 1998-06-18 BR BR9814778-1A patent/BR9814778A/pt not_active IP Right Cessation
- 1998-06-18 AT AT02009251T patent/ATE283497T1/de not_active IP Right Cessation
- 1998-06-18 PT PT98111201T patent/PT885594E/pt unknown
- 1998-06-18 WO PCT/IL1998/000289 patent/WO1998057580A1/en active Application Filing
- 1998-06-18 AU AU80322/98A patent/AU8032298A/en not_active Abandoned
- 1998-06-18 AT AT98111201T patent/ATE236574T1/de not_active IP Right Cessation
- 1998-06-18 EP EP02009251A patent/EP1227342B1/de not_active Expired - Lifetime
- 1998-06-18 ES ES98111201T patent/ES2192290T3/es not_active Expired - Lifetime
- 1998-06-18 IL IL12500098A patent/IL125000A/en not_active IP Right Cessation
- 1998-06-18 AR ARP980102910A patent/AR015123A1/es not_active Application Discontinuation
- 1998-06-18 DE DE69813087T patent/DE69813087T2/de not_active Expired - Fee Related
- 1998-06-18 DK DK98111201T patent/DK0885594T3/da active
- 1998-06-18 GB GB9813217A patent/GB2326479B/en not_active Expired - Fee Related
- 1998-06-19 AU AU73074/98A patent/AU757314B2/en not_active Ceased
- 1998-06-19 EE EE9800196A patent/EE04166B1/xx not_active IP Right Cessation
- 1998-06-19 SK SK870-98A patent/SK87098A3/sk unknown
- 1998-06-19 JP JP10173569A patent/JPH11151246A/ja active Pending
- 1998-06-19 DE DE19827460A patent/DE19827460A1/de not_active Withdrawn
- 1998-06-19 KR KR1019980024006A patent/KR19990007305A/ko not_active Application Discontinuation
-
2003
- 2003-01-27 HK HK03100695.5A patent/HK1050242A1/zh unknown
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004008366B3 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zur Durchführung von Laserangioplastie mit OCT-Überwachung |
DE102004008370A1 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zur Durchführung und Überwachung von Rotablation |
DE102004008373B3 (de) * | 2004-02-20 | 2005-09-29 | Siemens Ag | Vorrichtung zum Durchführen und Überwachen der endovaskulären Brachytherapie |
DE102004008368B4 (de) * | 2004-02-20 | 2006-05-24 | Siemens Ag | Katheter zur Durchführung und Überwachung von Rotablation |
DE102004008371B4 (de) * | 2004-02-20 | 2006-05-24 | Siemens Ag | Atherektomiekatheter |
DE102004008370B4 (de) * | 2004-02-20 | 2006-06-01 | Siemens Ag | Katheter zur Durchführung und Überwachung von Rotablation |
US8359086B2 (en) | 2004-02-20 | 2013-01-22 | Siemens Aktiengesellschaft | Device for applying and monitoring medical atherectomy |
DE102004008371A1 (de) * | 2004-02-20 | 2005-09-15 | Siemens Ag | Vorrichtung zum Durchführen und Überwachen von Artherektomie |
US7785261B2 (en) | 2004-11-15 | 2010-08-31 | Siemens Aktiengesellschaft | Catheter device with a position sensor system for treating a vessel blockage using image monitoring |
US7860576B2 (en) | 2004-12-23 | 2010-12-28 | Siemens Aktiengesellschaft | Intravenous pacemaker electrode |
US8126534B2 (en) | 2005-06-16 | 2012-02-28 | Siemens Aktiengesellschaft | Medical catheter and system for inserting a catheter into a vessel |
DE102005045071A1 (de) * | 2005-09-21 | 2007-04-12 | Siemens Ag | Kathetervorrichtung mit einem Positionssensorsystem zur Behandlung eines teilweisen und/oder vollständigen Gefäßverschlusses unter Bildüberwachung |
US7753852B2 (en) | 2005-09-22 | 2010-07-13 | Siemens Aktiengesellschaft | Atherectomy catheter with combined OCT/IVUS imaging |
US7729745B2 (en) | 2005-09-22 | 2010-06-01 | Siemens Aktiengesellschaft | Device for carrying out rotablation |
US8750964B2 (en) | 2005-09-22 | 2014-06-10 | Siemens Aktiengesellschaft | Device for determining the position of a medical instrument |
US8265733B2 (en) | 2005-09-23 | 2012-09-11 | Siemens Aktiengesellschaft | Injector and method for facilitating imaging of a patient |
US9237919B2 (en) | 2005-10-20 | 2016-01-19 | Siemens Aktiengesellschaft | Cryocatheter for introduction into a body vessel together with medical investigation and treatment equipment |
US8167810B2 (en) | 2005-12-12 | 2012-05-01 | Siemens Aktiengesellschaft | Catheter device for treating a blockage of a vessel |
US8452397B2 (en) | 2006-03-31 | 2013-05-28 | Siemens Aktiengesellschaft | Implantable pacemaker |
WO2007124953A1 (de) * | 2006-05-02 | 2007-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung |
DE102010019421A1 (de) | 2010-05-05 | 2011-11-10 | Siemens Aktiengesellschaft | Bildgebendes Verfahren zur Darstellung von Ergebnissen intravaskulärer Bildgebung und CFD-Ergebnissen sowie Medizinsystem zur Durchführung des Verfahrens |
US8630468B2 (en) | 2010-05-05 | 2014-01-14 | Siemens Aktiengesellschaft | Imaging method for the representation of the results of intravascular imaging and CFD results and medical system for execution of the method |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19827460A1 (de) | Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung | |
DE69533183T2 (de) | Vorrichtung zur darstellung des gefäss-inneren mittels ultraschall | |
EP1904973B1 (de) | Verfahren, vorrichtung und computerprogrammprodukt zum auswerten von bildern einer kavität | |
DE60038382T2 (de) | Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode | |
DE60120360T2 (de) | Dehnungsratenanalyse in diagnostischen ultraschallbildern | |
DE60215964T2 (de) | Verfahren zur rekonstruktion eines 3d bildes mit hoher auflösung | |
DE69931647T2 (de) | Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen | |
DE19732125C1 (de) | Verfahren zur Aufnahme von Ultraschallbildern bewegter Objekte | |
DE60031616T2 (de) | Vorichtung zur intrakardialen Vermessung des Zustandes einer Herzkammer | |
DE10054106A1 (de) | EKG-gesteuerte Ultraschallbildzusammensetzung | |
DE4236757C2 (de) | Ultraschalldiagnosegerät | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE19611990A1 (de) | Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern | |
DE602005003015T2 (de) | Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder | |
DE102016117889B3 (de) | Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen | |
DE102017217599A1 (de) | Medizinische Informationsverarbeitungsvorrichtung, Röntgen-CT-Vorrichtung und medizinisches Informationsverarbeitungsverfahren | |
DE102004022902A1 (de) | Verfahren zur medizinischen Bilddarstellung und - verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt | |
DE102006002259A1 (de) | Verfahren zur Untersuchung von Gefäßen eines Patienten auf der Grundlage von innerhalb eines Untersuchungsbereichs mit einem Tomographiegerät erfassten Bilddaten | |
DE602004008175T2 (de) | Verfahren zur Erzeugung zeitunabhängiger Parameter-Bilder bewegter Objekte, wobei die Bildinformation von Eigenschaften des bewegten Objektes abhängt | |
NZ330692A (en) | Intravascular ultrasound imaging, image enhancement to compensate for movement of ultrasound probe and lumen | |
EP1833023B1 (de) | Verfahren und Vorrichtung zur Rekonstruktion und Darstellung von mehrdimensionalen Objekten aus ein- oder zweidimensionalen Bilddaten | |
DE60309455T2 (de) | Analyse der herzdurchblutung | |
DE102021102158A1 (de) | Ultraschallbilderfassungsoptimierung gemäss verschiedenen atmungsmodi | |
DE3610439C2 (de) | ||
DE102017126551B4 (de) | Verfahren zur Bestimmung eines physiologischen Parameters sowie Verfahren zur Bestimmung des Blutdruckes unter Berücksichtigung des physiologischen Parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8128 | New person/name/address of the agent |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, 853 |
|
8139 | Disposal/non-payment of the annual fee |