DE69827857T2 - Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen - Google Patents

Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen Download PDF

Info

Publication number
DE69827857T2
DE69827857T2 DE69827857T DE69827857T DE69827857T2 DE 69827857 T2 DE69827857 T2 DE 69827857T2 DE 69827857 T DE69827857 T DE 69827857T DE 69827857 T DE69827857 T DE 69827857T DE 69827857 T2 DE69827857 T2 DE 69827857T2
Authority
DE
Germany
Prior art keywords
image
movement
vessel
arrangement
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69827857T
Other languages
English (en)
Other versions
DE69827857D1 (de
Inventor
Ehud Nachtomy
Jacob Richter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medinol Ltd
Original Assignee
Medinol Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medinol Ltd filed Critical Medinol Ltd
Application granted granted Critical
Publication of DE69827857D1 publication Critical patent/DE69827857D1/de
Publication of DE69827857T2 publication Critical patent/DE69827857T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52046Techniques for image enhancement involving transmitter or receiver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • G01S15/8938Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions
    • G01S15/894Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions by rotation about a single axis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52025Details of receivers for pulse systems

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur verbesserten Bild- und Signalverarbeitung für intravaskuläre Ultraschall-Untersuchungen ("IVUS") und insbesondere eine Vorrichtung und ein Verfahren zum Verarbeiten von IVUS-Bild- und Signalinformation, das die Qualität und Nützlichkeit von IVUS-Bildern verbessert.
  • Hintergrundinformation
  • IVUS-Bilder werden gewonnen aus einem Strahl von Ultraschallenergie, der von einer Vorrichtung wie etwa einem Wandler oder einer Wandleranordnung abgegeben wird, der um einen in ein Blutgefäß eingeführten Katheter herum, an ihm entlang oder an dessen Spitze angeordnet ist. Ein Ultraschallstrahl von der Vorrichtung wird in dem Blutgefäß kontinuierlich gedreht und bildet ein 360°-Innenquerschnittbild, d. h., das Bild wird in einer transversalen (X-Y) Ebene gebildet. Je nach der speziellen Konfiguration der Vorrichtung kann das Bild entweder von der Transversalebene der Vorrichtung selbst oder von einer etwas vor der Transversalebene des Gerätes, d. h. distal, liegenden Transversalebene gewonnen werden. Wenn der Katheter in einem Blutgefäß und darin entlang (d. h. entlang der Z-Achse) bewegt wird, können Bilder verschiedener Segmente (Serien von aufeinander folgenden Querschnitten) des Gefäßes gebildet und angezeigt werden.
  • IVUS kann bei allen Arten von Blutgefäßen einschließlich, aber nicht beschränkt auf Arterien, Venen und andere periphere Gefäße und in allen Teilen eines Körpers eingesetzt werden.
  • Das Ultraschallsignal, das empfangen (erfasst) wird, ist ursprünglich ein Analogsignal. Dieses Signal wird unter Verwendung analoger und digitaler Verfahren verarbeitet, um schließlich einen Satz von Vektoren zu bilden, die digitalisierte Daten umfassen. Jeder Vektor stellt die Ultraschallantwort eines anderen Winkelsektors des Gefäßes, d. h. eines Abschnitts des Blutgefäßes dar. Die Anzahl von Datenelementen in jedem Vektor (axiale Abtastauflösung) und die Zahl der Vektoren, die benutzt wird, um einen vollständigen Querschnitt des Blutgefäßes abzutasten (seitliche Abtastauflösung), können je nach Art des verwendeten Systems variieren.
  • Die digitalisierten Vektoren können ursprünglich in einer zweidimensionalen Anordnung oder Matrix mit Polarkoordinaten, d. h. A(r, θ) angeordnet werden. In dieser Polarmatrix entspricht z. B. die X-Achse der r-Koordinate, und die Y-Achse entspricht der θ-Koordinate. Jeder Wert der Matrix ist ein Wert (von 0 bis 255, wenn das System ein 8-Bit-System ist), der die Stärke der Ultraschallantwort an dieser Stelle anzeigt.
  • Diese Polarmatrix wird üblicherweise nicht an eine Anzeige übertragen, weil das resultierende Bild für einen Arzt nicht leicht zu interpretieren ist. Die in der Polarmatrix A(r, θ) gespeicherte Information durchläuft mehrere Bearbeitungsstufen und wird in kartesische Koordinaten, d. h. X- und Y-Koordinaten (A(X, Y)) interpoliert, die für einen Arzt leichter zu interpretieren sind. So entsprechen die X- und Y-Achse der Matrix A(X, Y) der kartesischen Darstellung des Querschnitts des Gefäßes. Die Information in der kartesischen Matrix erfährt möglicherweise weitere Verarbeitung und wird schließlich für die Analyse durch einen Arzt angezeigt. Bilder werden mit, je nach System, variabler Rate aufgenommen und angezeigt. Manche Systeme können Bilder mit einer Video-Anzeigerate, d. h. bis zu 30 Bilder pro Sekunde, aufnehmen und anzeigen.
  • Eine IVUS-Untersuchung eines Segments eines Körperlumens bzw. Lumens, d. h. eines Gefäßes, wird üblicherweise durchgeführt, indem der Katheter distal (d. h. stromab) zu dem zu untersuchenden Segment angeordnet wird und dann der Kathe ter langsam entlang des Körperlumens (Z-Achse) zurückgezogen wird (pullback), so dass aufeinander folgende Bilder, die das Segment bilden, kontinuierlich angezeigt werden. In vielen Fällen ist der Katheter an eine mechanische Ziehvorrichtung angeschlossen, die den Katheter mit einer konstanten Geschwindigkeit (d. h. eine typische Geschwindigkeit ist ca. 0,5 bis 1 mm/s) zieht.
  • Bei IVUS-Abbildungssystemen wird heutzutage allgemein die oben beschriebene Technik zum Anzeigen eines Bildes eines Querschnitts eines Körperlumens, d. h. eines Blutgefäßes verwendet. Diese Systeme weisen jedoch Mängel auf, da sie keine Form von Bildstabilisierung enthalten, um Bewegungen des Katheters und/oder des Körperlumens, z. B. des Blutgefäßes, zu kompensieren. Es ist gut bekannt, dass während der IVUS-Abbildung eines Körperlumens der Katheter und/oder das Körperlumen immer Bewegung zeigen. Diese Bewegung könnte in der Transversalebene (X-Y) entlang der Gefäßachse (Z-Achse) oder als Kombination dieser Bewegungen auftreten. Der abbildende Katheter kann auch in Beziehung zu dem Gefäß gekippt sein, so dass die Abbildungssebene nicht senkrecht zur Z-Achse ist (diese Bewegung soll als Angulation bezeichnet werden). Diese Bewegungen werden unter anderem durch Herzschlag, Blut oder anderes durch den Lumen strömendes Fluid, Gefäßbewegung, vom Arzt ausgeübte Kräfte und andere durch die Physiologie des Patienten bewirkte Kräfte verursacht.
  • Bei heutigen IVUS-Systemen ist, wenn der abbildende Katheter stationär ist oder ein langsamer manueller oder mechanischer Pullback ausgeführt wird, eine Relativbewegung zwischen dem Katheter und dem Lumen der wesentliche Faktor für eine Änderung des Aussehens aufeinander folgender Bilder, d. h. wie sie auf der Anzeige und/oder im Film oder Video erscheinen. Diese Änderung des Aussehens tritt auf, weil die Änderungsgeschwindigkeit eines Bildes aufgrund von Bewegungen wesentlich größer ist als die Änderungsgeschwindigkeit in der tatsächlichen Morphologie aufgrund des Pullbacks.
  • Eine Stabilisierung tritt ein, wenn die Bilder eine Kompensation für die Relativbewegung zwischen dem Katheter und dem Lumen in aufeinander folgenden Bildern enthalten. Da keine der heutigen IVUS-Systeme Stabilisierung ausführen, gibt es keine Kompensation oder Korrektur von Relativbewegungen zwischen dem Katheter und dem Lumen. Infolgedessen bewegen oder drehen sich morphologische Merkmale ständig auf der Anzeige und/oder im Film oder Video. Dies macht es für den Arzt schwierig, eine Morphologie in einer dynamischen IVUS-Anzeige genau zu interpretieren. Außerdem kann dies, wenn nichtstabilisierte IVUS-Bilder als Eingabe eines Verarbeitungsalgorithmus, wie etwa 3D-Rekonstruktion oder verschiedener Arten von Filter, die einen Satz von aufeinander folgenden Bildern verarbeiten, verwendet wird, zu einer beeinträchtigten Leistung und Fehldiagnose oder ungenauen Bestimmungen führen.
  • Gegenwärtige IVUS-Abbildungsvorrichtungen oder Katheter können gelegentliche Funktionsstörungen mit elektronischen oder mechanischen Ursachen haben. Dies kann dazu führen, dass angezeigte Bilder sowohl erkannte als auch unerkannte Artefakte zeigen und die tatsächliche Morphologie überdecken. Gegenwärtig gibt es keine automatischen Verfahren, um zu bestimmen, ob Bilder diese Arten von Artefakten aufweisen, die die Analyse der Bilder des Gefäßes oder Körperlumens behindern.
  • Das Verhalten der Kardiovaskulärfunktion ist im Allgemeinen periodisch. Die Erfassung dieser Periodizität und die Fähigkeit, eine Korrelation zwischen einem Bild und einer zeitlichen Phase im Herzzyklus zu bestimmen, zu der es gehört, wird als Herz-Gating bezeichnet.
  • Gegenwärtig wird Herz-Gating unter Verwendung eines externen Signals, üblicherweise eines EKGs (Elektrokardiogramm) durchgeführt. EKG-Gating erfordert jedoch sowohl die Aufnahme des EGK-Signals als auch seine Verschachtelung (oder Synchronisation) mit dem IVUS-Bild. Hierfür ist zusätzliche Hardware/Software erforderlich.
  • Morphologische Merkmale in IVUS-Bildern von Blutgefäßen können in drei allgemeine Kategorien eingeteilt werden: das Lumen, d. h. die Fläche, durch die das Blut oder eine andere Körperflüssigkeit fließt, die Gefäßschichten, und die Umgebung, d. h. das Gewebe oder die Morphologie außerhalb des Gefäßes. Blut ist in den meisten IVUS-Filmen (-bildern) durch ein sich schnell veränderndes Fleckenmuster gekennzeichnet. Die Umgebung des Gefäßes alterniert ebenfalls mit hoher zeitlicher Frequenz. Gegenwärtig werden das zeitliche Verhalten von Pixeln und ihre Texturattribute nicht automatisch überwacht.
  • Gefäßbewegung (Vasomotion) im Zusammenhang mit Körperlumina, z. B. Blutgefäßen, ist definiert als die Änderung der Weite des Lumens, z. B. Gefäßes. Diese Änderung kann durch natürliche Umstände oder unter induzierten Bedingungen hervorgerufen werden. Gefäßbewegung kann eine dynamische Komponente, d. h. eine dynamische Änderung der Abmessungen des Lumens, z. B. der Weite des Gefäßes (Kontraktion und Dilatation bzw. Erweiterung) während des Kardiovaskulärzyklus, und eine statische Grundkomponente, d. h. eine Änderung in der Grundweite des Lumens, z. B. Gefäßes haben.
  • Gefäßbewegung kann durch quantitative physiologische Parameter ausgedrückt werden, die die Fähigkeit des Lumens, z. B. Gefäßes angeben, seine Weite unter bestimmten Bedingungen zu ändern. Diese Arten von Parametern haben gegenwärtige und möglicherweise zukünftige medizinische und diagnostische Bedeutung bei der Gewinnung von Information über den Zustand des Lumens, z. B. Gefäßes, und die Wirkung der durchgeführten Therapie.
  • IVUS kann verwendet werden, um Gefäßbewegung zu überwachen, weil es ein Bild der Grundweite des Gefäßes und ihrer dynamischen Änderung liefert. Zusätzlich kann IVUS eingesetzt werden, um zu überwachen, ob die Gefäßbewegung global (einheitlich) ist, d. h., ob der gesamte Querschnitt des Lumens sich in gleichem Ausmaß und Richtung ausdehnt/zusammenzieht. IVUS kann auch eingesetzt werden, um zu bestimmen, ob die Gefäßbewegung ungleichförmig ist, was zu lokalen Änderungen in der Weite des Lumens führt, d. h., verschiedene Teile des Lumenquerschnitts verhalten sich unterschiedlich.
  • Gegenwärtig werden alle Arten von Gefäßbewegungsüberwachung durch IVUS manuell durchgeführt. Dies ist mühselig, zeitaufwendig und verhindert eine Überwachung der Gefäßbewegung in Echtzeit.
  • Eine Interpretation von IVUS-Bildern wird erzielt durch Analyse der Zusammensetzung der statischen Bilder und Überwachen ihres zeitlichen Verhaltens. Die meisten IVUS-Bilder können in drei Grundbestandteile zerlegt werden. Der innerste Abschnitt ist der Flussdurchgang des Lumens, d. h. der Hohlraum, durch das Material, d. h. Blut, fließt. Um den Flussdurchgang liegt das tatsächliche Gefäß, das ein Blutgefäß und jedes beliebige andere Körpergefäß sein kann, das aus mehreren Schichten von Gewebe (und im Krankheitsfalle Plaque) gebildet sein kann. Außerhalb des Gefäßes liegt anderes Gewebe, das zur umgebenden Morphologie gehören kann, z. B. das Herz in einem Herzkranzgefäß-Bild.
  • Wenn der IVUS-Film dynamisch betrachtet wird, d. h. im Filmformat, zeigen die Pixel, die durch das Gefäß fließender Materie und der außerhalb des Gefäßes liegenden Morphologie entsprechen, ein anderes zeitliches Verhalten als das Gefäß selbst. Zum Beispiel ist in den meisten IVUS-Filmen durch das Gefäß fließendes Blut durch ein häufig wechselndes Fleckenmuster gekennzeichnet. Die Morphologie außerhalb des Gefäßes zeigt auch einen häufigen Wechsel. Gegenwärtig wird das zeitliche Verhalten von Pixeln in dynamischen IVUS-Bildern nicht automatisch überwacht.
  • Bei gegenwärtigen IVUS-Anzeigen werden, wenn sie als Teil des Systems konstruiert sind, zeitliche Änderungen mit hoher Frequenz mit Mitteln wie Mittelwertbildung über eine Anzahl von Bildern unterdrückt. Dadurch wird aber manchmal das Auftreten von Merkmalen mit hoher Amplitude, d. h. helle Grauwerte, nicht unterdrückt, und außerdem hat dies eine verwischende Wirkung.
  • Die Größe des Flussdurchgangs des Lumens ist ein sehr wichtiger diagnostischer Parameter. Wenn für die Diagnose erforderlich, wird er von Hand bestimmt, z. B. durch einen Arzt. Dies wird erreicht durch Zeichnen der Kontur der Flussdurchgangsgrenzen auf einem statischen, z. B. auf einer Video- oder Maschinenanzeige eingefrorenen Bild. Dieses Verfahren der manuellen Gewinnung ist zeitaufwendig, ungenau und Verfälschungen unterworfen.
  • Gegenwärtig gibt es kommerzielle Bildverarbeitungs-Software zur automatischen Gewinnung des Flussdurchgangs. Diese basiert jedoch auf der Grauwert-Zusammensetzung von statischen Bildern und berücksichtigt nicht das unterschiedliche zeitliche Verhalten, welches Material, z. B. Blut, das durch den Durchgang fließt, im Unterschied zu den Gefäßschichten zeigt.
  • Während der Behandlung von Gefäßen ist es gängige Praxis, IVUS-Pullback-Untersuchungen in den gleichen Gefäßsegmenten zu wiederholen. Eine typische Situation ist z. B., zuerst das betreffende Segment zu untersuchen, die Erkrankung (wenn vorhanden) zu bewerten, den IVUS-Katheter zu entfernen, Therapiemöglichkeiten zu erwägen, eine Therapie, z. B. mit einem PTCA-"Ballon" oder Stent durchzuführen und unmittelbar danach das behandelte Segment mit IVUS erneut zu untersuchen, um die Ergebnisse der Therapie einzuschätzen. Um die Ergebnisse richtig zu bewerten und die Wirkung der durchgeführten Therapie voll zu erkennen, ist es wünschenswert, dass die Bilder der Segmente vor und nach der Behandlung, die Querschnitte des Gefäßes an gleichen Stellen entlang der Z-Achse des Gefäßes zeigen (d. h. entsprechende Segmente), verglichen werden können. Um diesen Vergleich durchzuführen, muss bestimmt werden, welche Stellen in den Filmen der IVUS-Bilder vor der Behandlung und der IVUS-Bilder nach der Behandlung einander entsprechen. Diese als Zuordnen oder Matching (Registration) bezeichnete Pro zedur ermöglicht einen genauen Vergleich von IVUS-Bildern vor und nach einer Behandlung.
  • Gegenwärtig wird das Zuordnen üblicherweise durchgeführt durch Betrachten der IVUS-Pullback-Filme von Segmenten vor und nach Behandlung nacheinander oder nebeneinander unter Verwendung von identifizierbaren anatomischen Merkmalen, um die Sequenzen herauszufinden, die einander visuell entsprechen. Dieses Verfahren ist äußerst ungenau und schwierig durchzuführen, da die Bilder instabil sind und aufgrund des Fehlens einer Stabilisierung sich auf der Anzeige oft drehen und/oder hin- und herbewegen, und weil viele der anatomischen Merkmale, die im IVUS-Pullback-Film des Segments vor Behandlung zu finden sind, als Ergebnis der an dem Gefäß durchgeführten Therapie gestört oder verändert sein können. Außerdem ist es wahrscheinlich, dass das Aussehen des Gefäßes sich infolge von unterschiedlichen Orientierungen und Relativpositionen des IVUS-Katheters in Beziehung zu dem Gefäß aufgrund von dessen Entfernung und Wiedereinfügung nach beendeter Therapie ändert. Die Zuordnung, die durchgeführt wird, ist manuell und beruht im Wesentlichen auf manueller visueller Identifizierung, die äußerst zeitaufwendig und ungenau sein kann.
  • US 5,623,929 offenbart ein Ultraschall-Diagnose-System, welches die Wirkungen der Bildbewegung von den empfangenen Doppler-Informationssignalen entfernt, was die Anzeige eines Fluidstrombildes ohne Bildbewegungs-Artefakte ermöglicht. Die von einem Ultraschallwandler empfangenen Doppler-Informationssignale enthalten Geschwindigkeitskomponenten sowohl aufgrund des Fluidstroms durch ein Subjekt als auch aufgrund der Bildbewegung. Die Doppler-Informationssignale werden demoduliert, um Doppler-Basisband-Signalmuster vorzusehen, welche eine Fluidbewegungskomponente und eine Bildbewegungskomponente enthalten. Ein Bildbewegungsvektor wird abgeschätzt aus einem Vergleich von aufeinander folgenden Bilderrahmen, und eine relative Doppler-Frequenz zwischen der Fluidbewegungskomponente und der Bildbewegungskomponente wird abgeleitet unter Ver wendung des abgeschätzten Bildbewegungsvektors. Ein Fluidbewegungsvektor kann dann von der abgeleiteten relativen Doppler-Frequenz abgeleitet werden.
  • Weitere intravaskuläre Ultraschall-Bildgebungssysteme wurden veröffentlicht von Marraccini et al. im Journal of Electronic Imaging (April 1995, Seite 123 „Quantitative analysis of coronary dynamics by time-dependent ultrasonic imaging") und von Wenguang et al. in IEEE Computers in Cardiology (1992, Seite 353 "Semiautomatic Frame-to-Frame Tracking of the Luminal Border from Intravascular Ultrasound").
  • Kurzbeschreibung der Erfindung
  • Es ist die Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur Durchführung einer intravaskulären Ultraschall-Bildgebung vorzusehen, welche eine genauere Diagnose und Auswertung erlaubt.
  • Diese Aufgabe und andere Aufgaben werden gemäß der Erfindung erreicht durch eine Vorrichtung, wie sie in dem unabhängigen Anspruch 1 definiert ist. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen dargestellt.
  • Die vorliegende Erfindung verarbeitet IVUS- und Signalinformation, um Verzerrungen und Ungenauigkeiten zu beseitigen, die durch unterschiedliche Arten von Bewegung sowohl im Katheter als auch im Körperlumen verursacht werden. Dies führt sowohl zu verbesserter Qualität als auch Nützlichkeit der IVUS-Bilder. Ein durch die vorliegende Erfindung erreichter Vorteil ist, dass einzelne IVUS-Bilder mit Bezug auf das oder die vorherige(n) Bild(er) stabilisiert sind und dadurch negative Wirkungen auf jede spätere Verarbeitung von mehreren Bildern beseitigt werden. Wenn die Bewegungen in jedem Bild vom transversalen Typ sind, ist es möglich, die Bewegung in jedem aufgenommenen Bild vollständig zu kompensieren.
  • Die vorliegende Erfindung ermöglicht es auch Volumenrekonstruktionsalgorithmen, die Morphologie genau zu reproduzieren, da die Bewegung des Körperhohlraums stabilisiert ist. Die vorliegende Erfindung ist anwendbar auf und nützlich in jeder Art von System (IVUS oder andere), wo ein Bedürfnis zur Stabilisierung von Bildern besteht, weil eine Sonde (z. B. Ultraschall oder anderes), die sich durch ein Lumen bewegt, eine Relativbewegung (d. h. der Sonde und/oder des Lumens) erfährt.
  • Die vorliegende Erfindung sieht bevorzugt die Erfassung eines von einer Ultraschallvorrichtung in einem Körperlumen ausgesendeten Ultraschallsignals, die Umwandlung des empfangenen analogen Signals in Polarkoordinaten (A(r, θ)), Stabilisierung im Polarfeld, Umwandlung der stabilisierten Polarkoordinaten in kartesische Koordinaten (A(X, Y)), Stabilisierung im kartesischen Feld und dann Übertragung des stabilisierten Bildes als kartesische Koordinaten auf eine Anzeige vor. Stabilisierte Bilder, sowohl in polaren als auch in kartesischen Koordinaten, können vor dem Anzeigen weiter verarbeitet werden, oder sie können nicht angezeigt werden. Die Umwandlung in kartesische Koordinaten und/oder Stabilisierung im kartesischen Feld kann an einem beliebigen Punkt vor oder nach der Stabilisierung im polaren Feld erfolgen. Zusätzlich können polare oder kartesische Stabilisierung ausgelassen werden, je nach in dem Bild erfasster Verschiebung und/oder anderen Faktoren. Ferner können zusätzliche Formen von Stabilisierung einbezogen oder fortgelassen werden, je nach erfasster Verschiebung und/oder anderen Faktoren.
  • Zum Beispiel kann eine Stabilisierung einer starren Bewegung eingeführt werden, um eine Drehbewegung (in Winkelrichtung) oder eine globale Gefäßbewegung (Aufweitung oder Kontraktion in r-Richtung) im polaren Feld und/oder kartesische Verlagerung (X- und/oder Y-Richtung) im kartesischen Feld zu kompensieren.
  • Transversale starre Bewegung zwischen den Darstellungen von aufeinander folgenden Bildern wird als "Verschiebung" bezeichnet, d. h. eine gleichförmige Bewegung aller morphologischen Merkmale in der Ebene des Bildes. Um IVUS-Bilder zu stabilisieren, ist der erste Schritt, der durchgeführt wird, eine "Verschiebungsauswertung und Erfassung". Dabei wird die Verschiebung (wenn vorhanden) zwischen jedem Paar von aufeinander folgenden Bildern ausgewertet und erfasst. Das System kann einen Prozessor verwenden, um eine Operation an einem Paar von aufeinander folgenden IVUS-Bildern durchzuführen, um zu bestimmen, ob eine Verschiebung zwischen solchen Bildern aufgetreten ist. Der Prozessor kann einen einzigen Algorithmus verwenden oder kann unter einer Anzahl von bei dieser Bestimmung zu verwendenden Algorithmen auswählen.
  • Das System verwendet den Algorithmus/die Algorithmen, um eine Verschiebung in einem Bild zu simulieren, und vergleicht dann dieses verschobene Bild mit seinem Vorgängerbild. Die Vergleiche zwischen Bildern sind als Nahheitsoperationen bekannt, die auch im Stand der Technik als Matching bekannt sein können. Das System führt eine einzige Nahheitsoperation für jede Verschiebung aus. Die Ergebnisse der Serie von Nahheitsoperationen werden ausgewertet, um die Stelle (Richtung und Größe) des verschobenen Bildes zu auszuwerten, das die engste Ähnlichkeit zum unverschobenen Vorgängerbild aufweist. Ein Bild kann selbstverständlich in der gleichen Weise mit seinem Vorgängerbild verglichen werden. Nachdem die tatsächliche Verschiebung bestimmt ist, wird das gegenwärtige Bild zum Vorgängerbild, das nächste Bild wird das gegenwärtige Bild, und die obige Operation wird wiederholt.
  • Unter Verwendung von Verschiebungsauswertung und -erfassung bestimmt das System die Art von Querverschiebung, z. B. Drehung, Aufweitung, Kontraktion, Verlagerung (kartesisch) etc. zusammen mit der Richtung und Größe der Verschiebung. Der nächste Schritt ist eine "Verschiebungsimplementierung". Dabei führt das System eine Operation oder eine Serie von Operationen an aufeinander folgenden IVUS-Bildern durch, um jedes der Bilder mit Bezug auf sein angrenzendes Vorgängerbild zu stabilisieren. Diese Stabilisierung verwendet ein oder mehrere "Umkehrverschiebungen", die darauf abzielen, die erfasste Verschiebung aufzuheben. Das System kann einen Algorithmus enthalten oder kann aus einer Anzahl von zu verwendenden Algorithmen auswählen, um jede "Umkehrverschiebung" zu implementieren. Die Logik, die entscheidet, welche Umkehrverschiebung tatsächlich an einem Bild implementiert wird, bevor es zur weiteren Verarbeitung oder Anzeige weitergeleitet wird, wird als "Verschiebungslogik" bezeichnet. Nachdem die IVUS-Bilder für die gemischten Typen von erfasster Bewegung stabilisiert sind, kann das System dann die kartesische (oder polare) Bildinformation zur Weiterverarbeitung und schließlich zur Anzeige übertragen, wo die Ergebnisse der Stabilisierung betrachtet werden können, z. B. von einem Arzt. Alternativ kann die Stabilisierung für den Benutzer in dem Sinne unsichtbar sein, dass die Stabilisierung vor einigen anderen Verarbeitungsschritten verwendet wird, wonach die entstandenen Bilder auf die Anzeige in ihrer ursprünglichen nichtstabilisierten Stellung oder Orientierung projiziert werden.
  • Es ist möglich, dass die Transversalbewegung zwischen Bildern nicht starr, sondern eher von örtlicher Natur ist, d. h. verschiedene Teile des Bildes zeigen Bewegung in unterschiedlichen Richtungen und Ausmaßen. In diesem Fall können die oben beschriebenen Stabilisierungsverfahren oder andere Arten von Verfahren auf einer lokalen Grundlage implementiert werden, um solche Bewegung zu kompensieren.
  • Die vorliegende Erfindung sieht die Erfassung der Herzperiodizität durch Verwendung der nur von IVUS-Bildern abgeleiteten Information vor, ohne die Notwendigkeit eines äußeren Signals, wie etwa des EKGs. Dieser Prozess beinhaltet Nahheitsoperationen, die zum Teil auch in dem Stabilisierungsprozess verwendet werden. Eine wichtige Funktion der Erfassung der Periodizität (d. h. des Herz-Gating), wenn der Katheter stationär ist oder ein gesteuerter IVUS-Pullback durchgeführt wird, ist, dass sie die Auswahl von Bildern ermöglicht, die zu der gleichen Phase in aufeinander folgenden Herzzyklen gehören. Das Auswählen von Bildern auf Grundlage des Herz-Gating ermöglicht Stabilisierung aller Arten von periodischer Bewegung (einschließlich Transversalbewegung, Z-Achsen-Bewegung und Winkelbewegungen) in dem Sinne, dass Bilder aus der gleichen Phase in aufeinander folgenden Herzschlägen ausgewählt werden. Diese IVUS-Bilder können z. B. angezeigt werden und alle zwischen ihnen erzeugten Lücken können kompensiert werden durch Einfüllen und Anzeigen von interpolierten Bildern. Die durch diese Operation ausgewählten IVUS-Bilder können auch zur Weiterverarbeitung weitergeschickt werden.
  • Die für die Periodizitätserfassung verwendeten Nahheitsoperationen können auch zur Überwachung der Bildqualität eingesetzt werden und mit Funktionsstörungen der Abbildungs- und Verarbeitungsvorrichtung zusammenhängende Artefakte anzeigen.
  • Für die Verschiebungsauswertung verwendete Operationen können automatisch Gefäßbewegung anzeigen. Dies kann dem Stabilisierungsprozess dienen, da Gefäßbewegung dazu führt, dass aufeinander folgende Bilder aufgrund der Änderung in der Weite des Gefäßes sich voneinander unterscheiden. Wenn Bilder gegen Gefäßbewegung stabilisiert sind, wird diese Änderung kompensiert. Alternativ könnte die die Weiteänderung betreffende Information angezeigt werden, da sie physiologische Bedeutung haben könnte. Die Überwachung der Gefäßbewegung wird bewerkstelligt durch Anwenden von Nahheitsoperationen auf aufeinander folgende Bilder unter Verwendung ihrer polaren Darstellungen, d. h. A(r, θ). Diese Operationen können zwischen gesamten Bildern oder zwischen einzelnen polaren Vektoren (aus aufeinander folgenden Bildern) angewendet werden, je nach Art der gewünschten Information. Da globale Gefäßbewegung als eine gleichförmige Änderung in der Weite des Gefäßes ausgedrückt wird, kann sie durch eine Nahheitsoperation ausgewertet werden, die das gesamte polare Bild berücksichtigt. Im Allgemeinen kann jede zur globalen Stabilisierung in der polaren Darstellung geeignete Operation verwendet werden, um globale Gefäßbewegung auszuwerten.
  • Unter bestimmten Bedingungen kann während des IVUS-Abbildungsvorgangs ungleichförmige Gefäßbewegung auftreten, d. h. eine Bewegung nur in bestimmten Abschnitten des IVUS-Bildes, die spezifischen Stellen in dem Körperlumen entsprechen. Dies kann z. B. vorkommen, wenn eine Arterie an einer bestimmten Stelle eine Plaque-Ablagerung hat, so dass eine Aufweitung oder Kontraktion der Arterie nur in den von der Plaque-Ablagerung freien Flächen möglich ist. Wenn eine solche Bewegung erfasst wird, ist das System in der Lage, die Ultraschallsignale, die Querschnitte des Körperlumens darstellen, in mehrere Segmente zu unterteilen, die dann jeweils einzeln mit Bezug auf ein entsprechendes Segment im benachbarten Bild unter Verwendung bestimmter Algorithmen verarbeitet werden. Die resultierenden IVUS-Bilder können dann angezeigt werden. Diese Form von Stabilisierung kann einzeln oder in Verbindung mit den oben behandelten Stabilisierungstechniken eingesetzt werden. Alternativ kann die die lokale Änderung der Gefäßweite betreffende Information angezeigt werden, da sie physiologische Bedeutung haben könnte.
  • Das zeitliche Verhalten von Pixeln und ihre Texturattribute könnten zur Verbesserung der Anzeige und zur automatischen Segmentierung (Lumenextraktion) dienen. Bei Überwachung in einer stabilisierten Bildumgebung kann die Leistungsfähigkeit der Bildverbesserungs- und Segmentierungsprozesse verbessert werden.
  • Gemäß der vorliegenden Erfindung kann das zeitliche Verhalten von IVUS-Bildern automatisch überwacht werden. Die durch solche Überwachung gewonnene Information kann verwendet werden, um die Genauigkeit der IVUS-Bildinterpretation zu verbessern. Durch Filtern und Unterdrücken der schnell veränderlichen Merkmale wie etwa des durch das Gefäß fließenden Materials, z. B. Blut, und der Morphologie außerhalb des Gefäßes infolge ihres zeitlichen Verhaltens kann die menschliche Wahrnehmung des Gefäßes sowohl in statischen Bildern als auch in dynamischen Bildern, z. B. in Filmform abgespielten Bildern, verbessert werden.
  • Eine automatische Segmentierung, d. h. Identifizierung des Gefäßes und des Materials, z. B. Blut, das durch das Gefäß fließt, kann durch Verwendung eines Algorithmus durchgeführt werden, der das Material, z. B. Blut, automatisch auf Grundlage des zeitlichen Verhaltens von Texturattributen identifiziert, die von den es darstellenden Pixeln gebildet sind. Das zeitliche Verhalten, das aus diesen Bildern extrahiert wird, kann für vielfältige Zwecke verwendet werden. Zum Beispiel kann eine zeitliche Filterung zur Bildverbesserung durchgeführt werden und eine Erfassung der Änderungen in der Pixeltextur kann zur automatischen Identifizierung des Lumens und seines Umfanges verwendet werden.
  • In allen IVUS-Bildern wird der Katheter selbst (und die Abbildungsvorrichtung) am besten aus dem Bild vor der Stabilisierung oder zur Überwachung eliminiert. Wenn der Katheter nicht eliminiert wird, könnte dies Stabilisierungstechniken und Überwachung beeinträchtigen. Die Eliminierung des Katheters kann automatisch durchgeführt werden, da seine Abmessungen bekannt sind.
  • Die vorliegende Erfindung sieht auch die automatische Identifizierung (d. h. Zuordnung oder Registration) von entsprechenden Rahmen aus zwei verschiedenen IVUS-Pullback-Filmen des gleichen Segments eines Gefäßes, z. B. vor und nach Behandlung, vor. Um einen ersten IVUS-Pullback-Film, d. h. eine erste IVUS-Bildsequenz, mit einem zweiten IVUS-Pullback-Film, d. h. einer zweiten IVUS-Bildsequenz, des gleichen Segments eines Körperlumens zu vergleichen, das z. B. auf Video, Film oder in digitalisierter Form aufgenommen ist, müssen die Bildsequenzen synchronisiert werden. Die Zuordnung, durch die diese Synchronisation erreicht wird, umfasst die Durchführung von Nahheitsoperationen zwischen Gruppen von aufeinander folgenden Bildern, die zu den zwei Sätzen von IVUS-Bildsequenzen gehören.
  • Aus einer Bildsequenz wird eine Gruppe von aufeinander folgenden Bildern, als Referenzgruppe bezeichnet, ausgewählt. Diese Gruppe sollte aus einem Bereich des Gefäßes ausgewählt sein, der in beiden Bildsequenzen dargestellt ist, und es sollte ein Bereich sein, an dem keine Therapie durchgeführt wird, da es wahrscheinlich ist, dass sich die Morphologie des Gefäßes durch die Therapie ändert. Eine andere Bedingung für diesen Zuordnungsprozess ist, dass die zwei Bildsequenzen mit einer bekannten, konstanten und vorzugsweise der gleichen Pullback-Geschwindigkeit aufgenommen sind.
  • Nahheitsoperationen werden zwischen Bildern der Referenzgruppe und den Bildern aus der zweiten Gruppe durchgeführt, die die gleiche Zahl von aus der zweiten Bildsequenz entnommenen Bildern hat. Diese zweite Gruppe von Bildern wird dann um einen einzelnen Rahmen mit Bezug zur Referenzgruppe verschoben, und die Nahheitsoperationen werden wiederholt. Dies kann für eine vorgegebene Anzahl von Malen wiederholt werden, und die Nahheitsergebnisse jeder Rahmenverschiebung werden verglichen, um die maximale Nahheit zu bestimmen. Die maximale Nahheit bestimmt die Rahmenverschiebung zwischen den Bildern der zwei Bildsequenzen. Diese Verschiebung kann im ersten oder zweiten Film umgekehrt werden, so dass entsprechende Bilder automatisch identifiziert und/oder gleichzeitig betrachtet werden können.
  • So können entsprechende Bilder z. B. betrachtet werden, um die Wirksamkeit einer durchgeführten Therapie oder eine Änderung der Morphologie im Laufe der Zeit zu bestimmen.
  • Zusätzlich können die diversen oben diskutierten Arten von Stabilisierung innerhalb oder zwischen den Bildern der zwei Sequenzen vor, während oder nach dieser Zuordnungsoperation implementiert werden. So können die zwei Filme nicht nur synchronisiert, sondern auch in der gleichen Orientierung und Stellung mit Bezug zueinander angezeigt werden.
  • Kurzbeschreibung der Zeichnungen
  • Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der Erfindung werden nun anhand eines Ausführungsbeispiels unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1(a) und (b) eine zweidimensionale Anordnung der Matrix eines Bildes, angeordnet in digitalisierten Vektoren in polaren bzw. kartesischen Koordinaten;
  • 2 die Ergebnisse einer Verschiebungsauswertung zwischen zwei aufeinander folgenden Bildern in kartesischen Koordinaten;
  • 3 Bilder, die das Auftreten von Drift-Erscheinungen in polaren und kartesischen Koordinaten darstellen;
  • 4 die Wirkung der Durchführung von Stabilisierungsoperationen (Drehverschiebungen und kartesische Verschiebungen) an einem Bild;
  • 5 die globale Kontraktion oder Aufweitung eines Körperlumens, ausgedrückt in der polaren Darstellung des Bildes und in der kartesischen Darstellung des Bildes;
  • 6 ein in vier Abschnitte unterteiltes Bild für die Verarbeitung gemäß der vorliegenden Erfindung;
  • 7 ein Gefäß, sowohl in kartesischen als auch in Polarkoordinaten, in dem lokale Gefäßbewegung erfasst worden ist;
  • 8 die Ergebnisse lokaler Gefäßbewegungsüberwachung in einem realen Herzkranzgefäß in graphischer Form;
  • 9 ein EKG und einen Kreuzkorrelationskoeffizienten, synchron graphisch aufgetragen;
  • 10 eine Tabelle einer Gruppe von Kreuzkorrelationskoeffizienten (mittlere Reihe), die zu aufeinander folgenden Bildern (Nummern 1 bis 19, gezeigt in der oberen Reihe) gehören, und die Ergebnisse von internen Kreuzkorrelationen (untere Reihe);
  • 11 ein Diagramm eines Kreuzkorrelationskoeffizienten, der ein Artefakt in IVUS-Bildern zeigt;
  • 12 ein in drei Grundteile unterteiltes IVUS-Bild: das Lumen, durch den Fluid fließt, das tatsächliche Gefäß und das umgebende Gewebe;
  • 13 die Ergebnisse zeitlicher Filterung;
  • 14 ein Bild der Ergebnisse des Algorithmus zur automatischen Lumenextraktion;
  • 15 die Zeitsequenz eines ersten Films (linke Spalte), das Referenzsegment aus dem zweiten Film (mittlere Spalte) und die Bilder aus dem ersten Film, die den Bildern aus dem Referenzsegment entsprechen (oder ihnen zugeordnet sind) (rechte Spalte).
  • Detaillierte Beschreibung
  • Bei intravaskulären Ultraschall-Abbildungssystemen (IVUS) werden Ultraschallsignale von der Ultraschallvorrichtung, z. B. einem Wandler oder einer Wandleranordnung, ausgesendet und empfangen, verarbeitet und gegebenenfalls als digitalisierte Daten umfassende Vektoren angeordnet. Jeder Vektor stellt die Ultraschallantwort eines unterschiedlichen Winkelsektors des Körperlumens dar. Die Anzahl von Datenelementen in jedem Vektor (axiale Abtastauflösung) und die Anzahl von zum Abtasten des vollständigen Querschnitts des Körperlumens verwendeten Vektoren (seitliche Abtastauflösung) hängt von dem speziell verwendeten IVUS-System ab.
  • Die digitalisierten Vektoren werden ursprünglich in eine zweidimensionale Anordnung oder Matrix eingeordnet, die in 1(a) dargestellt ist. Allgemein hat diese Matrix so genannte Polarkoordinaten, d. h. Koordinaten A(r, θ). Die X-Achse der in 1(a) gezeigten Matrix entspricht der r-Koordinate, wohingegen die Y-Achse der Matrix der θ-Koordinate entspricht. Jeder Wert der Matrix ist im Allgemeinen ein Grauwert, z. B. zwischen 0 und 255, wenn es ein 8-Bit-Wert ist, der die Stärke des Ultraschallsignals an der entsprechenden Stelle in dem Körperlumen darstellt. Diese polare Matrix kann in eine kartesische Matrix, wie in 1(b) gezeigt, mit einer X-Achse und einer Y-Achse, umgewandelt werden, die der kartesischen Darstellung des Querschnitts des Gefäßes entspricht. Die ursprüngliche Anordnung und die Anzeige können jeweils polare oder kartesische Koordinaten verwenden. Die Werte der Matrix können andere als Grauwerte sein, z. B. können sie Farbwerte oder andere Werte sein, und können mehr oder weniger als 8 Bit umfassen.
  • Während einer IVUS-Abbildungsungs-Pullback-Prozedur können das Körperlumen, nachfolgend als ein Gefäß bezeichnet, und/oder der abbildende Katheter unterschiedliche Arten von Relativbewegung erfahren. Diese Arten von Bewegung umfassen: (1) Drehung in der Ebene des Bildes, d. h. eine Verschiebung in der θ-Koordinate des polaren Bildes; (2) kartesische Verlagerung, d. h. eine Verschiebung in der X- und/oder Y-Koordinate im kartesischen Bild; (3) globale Gefäßbewegung, gekennzeichnet durch eine radiale Kontraktion und Aufweitung des gesamten Gefäßes, d. h. eine gleichförmige Verschiebung in der r-Koordinate des polaren Bildes; (4) lokale Gefäßbewegung, gekennzeichnet durch eine radiale Kontraktion und Aufweitung verschiedener Teile des Gefäßes mit verschiedenen Stärken und Richtungen, d. h. lokale Verschiebungen in der r-Koordinate des polaren Bildes; (5) lokale Bewegung, gekennzeichnet durch unterschiedliche Gewebebewegung, die in Abhängigkeit von der genauen Stelle im Bild variiert; und (6) Bewegung durch die Ebene, d. h. Bewegungen, die senkrecht oder nahezu senkrecht zur Ebene des Bildes sind (Winkelbewegungen).
  • Eine Stabilisierung aufeinander folgender Rohbilder ist anwendbar auf die ersten fünf oben beschriebenen Arten von Bewegung, weil die Bewegung auf die Transversalebene beschränkt ist. Diese Arten von Bewegung können kompensiert und stabilisiert werden, indem jedes gegenwärtige Bild so transformiert wird, dass seine Ähnlichkeit zu seinem Vorgängerbild maximiert ist. Die ersten drei Arten von Bewegung können durch Verwendung von Nahheitsoperationen stabilisiert werden, die ganze Bilder oder große Teile davon miteinander vergleichen. Dies liegt daran, dass die Bewegung global oder starr von Natur ist. Die vierte und fünfte Art von Bewegung werden durch Anwendung von Nahheitsoperationen auf einer lokalisierten Basis stabilisiert, weil verschiedene Teile des Bildes unterschiedliche Bewegung aufweisen. Die sechste Art von Bewegung kann nur teilweise durch Anwendung von Nahheitsoperationen auf lokalisierter Basis stabilisiert werden. Dies liegt daran, dass die Bewegung nicht auf die Transversalebene beschränkt ist. Diese Art von Bewegung kann stabilisiert werden durch Anwendung von Kardiovaskulär-Periodizitätserfassung.
  • Die nächsten Abschnitte sollen Verfahren zur globalen Stabilisierung beschreiben, mit einer darauf folgenden Beschreibung von Verfahren zur lokalen Stabilisierung. Die Stabilisierung durch Anwendung von Kardiovaskulär-Periodizitätserfassung soll in den Abschnitten beschrieben werden, die die Periodizitätserfassung behandeln.
  • Um eine globale Stabilisierung zu erreichen, wird eine Verschiebungsauswertung unter Verwendung einer Art von Nahheitsoperation durchgeführt. Die Nahheitsoperation misst die Ähnlichkeit zwischen zwei Bildern. Die Verschiebungsauswertung wird ausgeführt durch Transformieren eines ersten Bildes und Messen seiner Nahheit, d. h. Ähnlichkeit, mit seinem vorhergehenden zweiten Bild. Die Transformation kann z. B. durchgeführt werden durch Verschieben des gesamten ersten Bildes entlang einer Achse oder einer Kombination von Achsen (X und/oder Y in kartesischen Koordinaten oder r und/oder θ in Polarkoordinaten), um ein einzelnes Pixel (oder mehr). Nachdem die Transformation, d. h. die Verschiebung, vollendet ist, wird das transformierte erste Bild mit dem vorhergehenden zweiten Bild unter Verwendung einer vordefinierten Funktion verglichen. Diese Transformation wird wiederholt, jedes Mal durch Verschieben des ersten Bildes um ein zusätzliches Pixel (oder mehr) entlang der gleichen und/oder einer anderen Achse und Vergleichen des transformierten ersten Bildes mit dem vorhergehenden zweiten Bild unter Verwendung einer vorgegebenen Funktion. Nachdem alle Verschiebungen ausgewertet worden sind, wird die Stelle des globalen Extremums der Vergleiche unter Verwendung der vordefinierten Funktion die Richtung und Größe der Bewegung zwischen dem ersten Bild und seinem zweiten Vorgängerbild zeigen.
  • Zum Beispiel zeigt 2 die Ergebnisse einer Verschiebungsauswertung zwischen zwei aufeinander folgenden Bildern in kartesischen Koordinaten. Bild A ist ein Vorgängerbild, das ein Muster zeigt, z. B. einen Querschnitt eines Gefäßes, dessen Mitte im unteren rechten Quadranten der Matrix angeordnet ist. Bild B ist ein gegenwärtiges Bild, das das gleiche Muster zeigt, allerdings nach oben und nach links verschoben und im oberen linken Quadranten der Matrix liegend. Größe und Richtung der Bewegung der Mitte des Gefäßes ist durch den Pfeil bezeichnet. Die untere Matrix ist die C-(shiftX, shiftY)-Matrix, die die resultierende Matrix nach Ausführung von Verschiebungsauswertungen unter Verwendung einer Art von Nahheitsoperation ist.
  • Es gibt viele verschiedene Algorithmen oder mathematische Funktionen, die verwendet werden können, um die Nahheitsoperationen auszuführen. Eine davon ist Kreuzkorrelation, möglicherweise unter Verwendung der Fourier-Transformation. Bei dieser werden gegenwärtiges und Vorgängerbild, jeweils bestehend aus z. B. 256 × 256 Pixeln, jeweils unter Verwendung des FFT Algorithmus Fourier-transformiert. Die Konjugierte der FFT des gegenwärtigen Bildes wird mit der FFT des Vorgängerbildes multipliziert. Das Ergebnis wird unter Verwendung des IFFT Algorithmus umgekehrt Fourier-transformiert. Die Formel für die Kreuzkorrelation unter Verwendung der Fourier-Transformation kann wie folgt dargestellt werden: C = real(ifft2((fft2(A))*conj(fft2(B)))),wobei:
    A = Vorgängerbildmatrix (z. B. 256 × 256);
    B = gegenwärtige Bildmatrix (z. B. 256 × 256);
    fft2 = zweidimensionale FFT;
    ifft2 = zweidimensionale umgekehrte FFT;
    conj = konjugiert;
    real = Realteil des komplexen Ausdrucks;
    * = elementweise Multiplikation; und
    C = Kreuzkorrelationsmatrix.
  • Eine Auswertung der Nahheit unter Verwendung von durch Fourier-Transformation implementierter Kreuzkorrelation ist tatsächlich eine Näherung. Dies liegt daran, dass die mathematische Formel für die Fourier-Transformation unendliche oder periodische Funktionen oder Matrizen betrifft, wohingegen im wirklichen Leben die Matrizen (oder Bilder) von endlicher Größe und nicht notwendigerweise periodisch sind. Wenn eine Kreuzkorrelation unter Verwendung von FFT implementiert wird, nimmt das Verfahren Periodizität in beiden Achsen an.
  • Als Ergebnis ist diese Formel eine gute Näherung und sie spiegelt die tatsächliche Situation an der θ-Achse der Polardarstellung des Bildes wider. doch spiegelt sie nicht die tatsächliche Situation an der r-Achse der Polardarstellung oder der X- oder Y-Achse der kartesischen Darstellung des Bildes wider.
  • Die Kreuzkorrelation unter Verwendung von FFT hat eine Anzahl von Vorteilen. Erstens werden alle Werte der Kreuzkorrelationsmatrix C(shiftX, shiftY) durch diese Grundoperation berechnet. Außerdem gibt es spezielle Hardware für die effiziente Implementierung der FFT Operation, d. h. Fourier-Transformationschips oder DSP-Leiterplatten.
  • Ein anderer Algorithmus, der verwendet werden kann, um Nahheitsoperationen durchzuführen, ist direkte Kreuzkorrelation, entweder normiert oder nicht. Diese wird durchgeführt durch Multiplizieren jedes Pixels im gegenwärtigen verschobenen Bild mit seinem entsprechenden Pixel im Vorgängerbild und Aufsummieren aller Ergebnisse und Normieren dieser Ergebnisse im Fall von normierter Kreuzkorrelation. Jede Verschiebung ergibt eine Summe, und die tatsächliche Verschiebung wird angezeigt durch die größte Summe unter den ausgewerteten Verschiebungen. Die Formel für Kreuzkorrelation kann durch folgende Formel dargestellt werden:
  • Figure 00220001
  • Die Formel für normierte Kreuzkorrelation ist:
    Figure 00220002
    wobei:
    A = Vorgänger-Bildmatrix;
    B = gegenwärtige Bildmatrix;
    * = Multiplikation eines Pixels mit entsprechendem Pixel;
    Σ = Summe aller Pixel in der Matrix;
    C = Matrix der Ergebnisse für alle durchgeführten Verschiebungen.
  • Unter Verwendung dieses direkten Kreuzkorrelationsverfahrens können C(shiftX, shiftY) für alle möglichen Werte von shiftX und shiftY ausgewertet werden. Zum Beispiel müssten, wenn die Originalmatrizen A und B jeweils 256 × 256 Pixel haben, shiftX- und shiftY-Werte jeweils von –127 bis +128 ausgewertet werden, was eine Summe von 256 × 256 = 65.536 Verschiebungsauswertungen ergibt, um C(shiftX, shiftY) für alle möglichen Werte von shiftX und shiftY zu berechnen. Nach Beendigung dieser Auswertungen wird das globale Maximum der Matrix bestimmt.
  • Direkte Kreuzkorrelation kann effektiver implementiert werden, indem die Anzahl benötigter Rechenoperationen verringert wird. Um die tatsächliche Verschiebung zwischen Bildern zu erfassen, ist nicht die Auswertung jedes möglichen shiftX und shiftY notwendig. Es genügt, die Stelle mit größtem C(shiftX, shiftY) für alle möglichen shiftX und shiftY zu finden.
  • Ein dritter Algorithmus, der verwendet werden kann, um Nahheitsoperationen auszuführen, ist die Summe von Differenzbeträgen (sum of absolute differences, SAD). Dieser wird durchgeführt durch Subtrahieren jedes Pixels in einem Bild von seinem entsprechenden Pixel in dem anderen Bild, Nehmen der Beträge und Aufsummieren aller Ergebnisse. Jede Verschiebung führt zu einer Summe, und die tatsächliche Verschiebung wird angezeigt durch die niedrigste Summe. Die Formel für die Differenzbetragssumme (SAD) kann wie folgt dargestellt werden: SAD = absolute(A – B).
  • Diese Formel kann auch wie folgt dargestellt werden:
    Figure 00240001
    wobei:
    A = Vorgänger-Bildmatrix;
    B = gegenwärtige Bildmatrix;
    abs = Betrag;
    - = elementweise Subtraktion; und
    Σ = Summe aller Differenzen.
  • Während die Genauigkeit jedes dieser Algorithmen/dieser Formeln geringfügig variieren kann, je nach spezifischer Art der vorgefundenen Bewegung und der Systemeinstellungen, versteht sich, dass keine einzelne Formel a priori als diejenige ausgewertet werden kann, die die besten oder genauesten Ergebnisse liefert. Außerdem gibt es zahlreiche Abwandlungen an den oben beschriebenen Formeln und andere Algorithmen/Formeln, die verwendet werden können, um eine Verschiebungsauswertung durchzuführen, und die für die oben beschriebenen Algorithmen/Formeln eingesetzt werden können. Diese Algorithmen/Formeln umfassen ebenfalls jene Operationen, die im Stand der Technik zur Verwendung als Zuordnungsoperationen bekannt sind.
  • Wiederum bezogen auf 2 wird, wenn die durchgeführte Nahheitsoperation eine Kreuzkorrelation ist, C(shiftX, shiftY) als Kreuzkorrelationsmatrix bezeichnet, und ihr globales Maximum (dargestellt durch den schwarzen Punkt im oberen linken Quadranten) liegt in einem Abstand und einer Richtung vom Mittelpunkt der Matrix (Pfeil in Matrix C), die gleich dem des Mittelpunkts des Gefäßes in Bild B relativ zum Mittelpunkt des Gefäßes in Bild A sind (Pfeil in Bild B).
  • Wenn die durchgeführte Nahheitsoperation SAD ist, würde der schwarze Punkt das globale Minimum anzeigen, das in einem Abstand und einer Richtung vom Mittel punkt der Matrix (Pfeil in Matrix C) liegt, die die gleichen sind wie die vom Mittelpunkt des Gefäßes in Bild B relativ zum Mittelpunkt des Gefäßes in Bild A (Pfeil in Bild B).
  • Drehbewegung wird ausgedrückt als eine Verschiebung des gegenwärtigen polaren Bildes entlang der θ-Koordinate in Bezug zu seinem Vorgänger. Die Drehverschiebung in einem gegenwärtigen Bild wird erfasst durch Maximieren der Nahheit zwischen dem gegenwärtigen polaren Bild und seinem Vorgänger. Maximale Nahheit wird erhalten, wenn das gegenwärtige Bild um die genaue Größe der tatsächlichen Verschiebung umgekehrt verschoben ist. Zum Beispiel in einem 256 × 256-Pixel-Bild gibt der Wert der Differenz (in Pixeln) zwischen 128 und der θ-Koordinate des Maximums in dem Kreuzkorrelationsbild (das Minimum im SAD-Bild) die (positive oder negative) Richtung und Größe der Drehung an.
  • Globale Gefäßbewegung ist gekennzeichnet durch Aufweitung und Kontraktion des gesamten Querschnitts des Gefäßes. Im polaren Bild wird diese Art von Bewegung ausgedrückt als eine Einwärts- und Auswärtsbewegung des Gefäßes entlang der r-Achse. Gefäßbewegung kann kompensiert werden durch Durchführen der entgegen gesetzten Gefäßbewegungsaktion an einem gegenwärtigen polaren Bild in Bezug auf sein polares Vorgängerbild unter Verwendung einer der oben behandelten oder einer anderen Formel. Im Gegensatz zur Winkelstabilisierung ändert Gefäßbewegungsstabilisierung nicht die Orientierung des Bildes, sondern transformiert das Bild, indem es dieses streckt oder komprimiert.
  • Kartesische Verlagerung wird ausgedrückt als eine Verschiebung in der X-Achse und/oder Y-Achse im kartesischen Bild relativ zu seinem Vorgänger. Diese Art von Bewegung wird eliminiert durch Verschieben des kartesischen Bildes in einer zur tatsächlichen Verschiebung entgegengesetzten Richtung. So kann kartesische Verlagerung in der kartesischen Darstellung durch im Wesentlichen dieselben Rechenoperationen erreicht werden, die zur Dreh- und Gefäßbewegungsstabilisierung in der polaren Darstellung verwendet werden.
  • Die Anzahl von zum Lokalisieren des globalen Extremums (Maximum oder Minimum, je nach Nahheitsfunktion) von C(shiftX, shiftY) notwendigen Verschiebungsauswertungen kann durch Anwendung diverser Rechentechniken verringert werden. Eine Technik nutzt beispielsweise die Tatsache, dass die Bewegung zwischen aufeinander folgenden IVUS-Bildern im Allgemeinen relativ klein in Beziehung zu den vollen Abmessungen der polaren und/oder kartesischen Matrizen ist. Dies bedeutet, dass C(shiftX, shiftY) nur in einem relativ kleinen Teil um den Mittelpunkt der Matrix, d. h. um shiftX = 0, shiftY = 0 herum ausgewertet werden muss. Es ist sicher, dass das Extremum dieses Teils das globale Extremum der Matrix C(shiftX, shiftY) einschließlich größerer Werte für shiftX und shiftY ist. Die Größe des minimalen Teils, die sicherstellt, dass das darin erfasste Extremum tatsächlich ein globales Extremum ist, variiert je nach Systemeinstellungen. Die Anzahl von notwendigen Auswertungsoperationen kann weiter reduziert werden durch Ausnutzen der von der C-Matrix (insbesondere in der Nähe des globalen Extremums) erwarteten Glattheits- und Monotonie-Eigenschaften. Deshalb ist, wenn der Wert in der C(shiftX, shiftY)-Matrix an einer bestimmten Stelle ein lokales Extremum ist (z. B. in einer 5 × 5-Pixel-Nachbarschaft), dieser wahrscheinlich das globale Extremum der gesamten Matrix C(shiftX, shiftY).
  • Die Implementierung dieser Verringerung der Anzahl von notwendigen Auswertungen kann erreicht werden, indem erst aus der Mitte der Matrix (shiftX = 0, shiftY = 0) herausgesucht wird und eine kleine Nachbarschaft, z. B. 5 × 5 Pixel um den Mittelpunkt, überprüft wird. Wenn das lokale Extremum innerhalb dieser Nachbarschaft gefunden wird, ist es wahrscheinlich, dass es das globale Extremum der gesamten Matrix C(shiftX, shiftY) ist, und die Suche kann beendet werden. Wenn jedoch das lokale Extremum an den Rändern dieser Nachbarschaft, z. B. bei shiftX = –2, shiftX = 2, shiftY = –2 oder shiftY = 2, gefunden wird, dann wird die Suche um dieses Pixel herum wiederholt, bis ein C(shiftX, shiftY)-Wert gefunden wird, der größer (kleiner) als der aller seiner engsten Nachbarn ist. Da bei einer großen Anzahl von Bildern keine Zwischenbildbewegung auftritt, ist die Gesamtheit der zum Lokalisieren des globalen Extremums benötigten Auswertungen in diesen Fällen ca. 5 × 5 = 25 anstatt der ursprünglichen 65.536 Auswertungen.
  • Die Anzahl von notwendigen Auswertungsoperationen kann auch verringert werden durch Abtasten der Bilder. Wenn z. B. in 256 × 256-Pixel-Bildern jedes zweite Pixel abgetastet wird, werden sie auf Matrizen von 128 × 128 reduziert. In diesem Falle umfasst eine direkte Kreuzkorrelation oder SAD zwischen solchen Matrizen 128 × 128 Operationen anstelle von 256 × 256 Operationen, jedes Mal, wenn die Bilder in Bezug zueinander um Eins verschoben werden. Die Abtastung als ein Verfahren zur Verringerung der Verschiebungsauswertungsoperationen kann mit anderen oben beschriebenen Verringerungsverfahren kombiniert werden.
  • Bezogen wiederum auf 2 hat als Ergebnis der Nahheitsoperation der angegebene shiftX einen positiven Wert und shiftY hat einen negativen. Um das Bild B zu stabilisieren, d. h. die Verschiebungen in X- und Y-Richtungen zu kompensieren, kehrt eine Verschiebungslogik die Verschiebungen um, d. h. ändert deren Vorzeichen, aber nicht ihre Größe, und implementiert diese Verschiebungen an der Bild B entsprechenden Matrix. Dies kehrt die Verschiebung im Bild B künstlich um und bewirkt, dass Bild B mit Bezug auf Bild A unverschoben ist.
  • Die tatsächlichen Werte, die in den Nahheitsberechnungen verwendet werden, müssen nicht notwendigerweise die ursprünglichen Werte der Matrix sein, so wie vom Abbildungssystem zur Verfügung gestellt. Zum Beispiel können verbesserte Ergebnisse erhalten werden, wenn die ursprünglichen Werte zur zweiten, dritten oder vierten Potenz erhoben oder durch ein anderes Verfahren verarbeitet werden.
  • Der abbildende Katheter und die umhüllende Scheide treten als ständige Artefakte in allen IVUS-Bildern auf. Dieses Merkmal verdeckt Nahheitsoperationen, die zwischen Bildern durchgeführt werden, da es nicht Teil der Morphologie des Gefäßes ist. Deshalb ist es notwendig, den Katheter und zugeordnete Objekte aus jedem Bild zu eliminieren, bevor Nahheitsoperationen durchgeführt werden, d. h. seinen Pixeln wird ein Wert Null zugewiesen. Die Eliminierung dieser Objekte aus dem Bild kann automatisch erfolgen, da die Abmessungen des Katheters bekannt sind.
  • Die Verschiebungsauswertung und Implementierung können modular sein. So können Verschiebungsauswertung und Implementierung auf Polarkoordinaten oder auf kartesische Koordinaten einzeln beschränkt sein, oder Verschiebungsauswertung und Implementierung können sequentiell für polare und kartesische Koordinaten implementiert sein. Weil der Abbildungsvorgang in IVUS-Systemen allgemein organisiert ist durch Anwendung zuerst von Polarkoordinaten und dann deren Umwandlung in kartesische Koordinaten, ist es am bequemsten, eine Verschiebungsauswertung und Implementierung in der gleichen Reihenfolge durchzuführen. Die Sequenz kann jedoch ohne negative Wirkungen und Ergebnisse abgewandelt oder verändert werden.
  • Der Verschiebungsauswertungsprozess kann entlang einer oder zweier Achsen durchgeführt werden. Im Allgemeinen ist zweidimensionale Verschiebungsauswertung bevorzugt, auch wenn die Bewegung entlang einer Achse ausgerichtet ist. Die Verschiebungsimplementierung kann auf beide Achsen, eine Achse oder keine Achse beschränkt sein.
  • Es besteht keine notwendige Identität zwischen der Fläche in dem Bild, die zur Verschiebungsauswertung verwendet wird und der Fläche, an der die Verschiebungsimplementation ausgeführt wird. Zum Beispiel kann eine Verschiebungsauswertung unter Verwendung einer relativ kleinen Fläche im Bild durchgeführt werden, während die Implementierung der Verschiebung das gesamte Bild entsprechend der durch diese Fläche angezeigten Verschiebung verschiebt.
  • Eine triviale Verschiebelogik ist eine, bei der die an jedem Bild (das dadurch ein stabilisiertes Bild bildet) implementierte Verschiebung eine gleiche Größe und entgegengesetzte Richtung zur ausgewerteten Verschiebung hat. Eine solche Logik kann jedoch zu einem als Drift definierten Prozess führen. Drift ist ein Prozess, bei dem implementierte Verschiebungen akkumulieren und eine wachsende Verschiebung erzeugen, deren Abmessungen signifikant in Beziehung zum Gesamtbild oder zur Gesamtanzeige sind. Drift kann ein Ergebnis von ungenauer Verschiebungsauswertung oder von nicht transversaler Bewegung zwischen Bildern an einer Stelle des kardiovaskulären Zyklus sein. Wenn kartesische Stabilisierung implementiert ist, kann Verschiebung z. B. die Verschiebung eines relativ großen Teils des Bildes aus der Anzeige heraus verursachen. Wenn Drehstabilisierung implementiert ist, kann Drift die zunehmende Drehung des Bildes in einer bestimmten Richtung verursachen.
  • 3 ist ein Bild, das das Auftreten von Drift in polaren und kartesischen Koordinaten darstellt. Das linke Bild ist die Originalanzeige des Bildes, wohingegen das rechte Bild das gleiche Bild ist, nachdem polare und kartesische Stabilisierung durchgeführt worden sind. Man beachte, wie das rechte Bild um einen großen Winkel im Gegenuhrzeigersinn gedreht und in Bezug auf das linke Bild nach unten verschoben ist. In diesem Fall kompensieren Drehverschiebung und kartesische Verschiebung nicht tatsächliche Verschiebungen im Bild, sondern folgen stattdessen aus ungenauer Verschiebungsauswertung.
  • Die Verschiebungslogik muss in der Lage sein, mit dieser Drift umzugehen, so dass eine minimale Implementierung von falsch ausgewerteten Verschiebungen erfolgt. Ein Verfahren zum Verhindern oder wenigstens zum Begrenzen der Drift ist das Setzen einer Grenze für die Größe zulässiger Verschiebungen. Dies minimiert die Drift, allerdings mit dem Preis der Nichtkompensation mancher tatsächlicher Verschiebungen. Zusätzliche Verfahren können eingesetzt werden, um Verschiebung zu verhindern oder zu minimieren. Diese können eventuell mit den später behandelten kardiovaskulären Periodizitätserfassungsverfahren verknüpft werden.
  • Die in 4 gezeigten Bilder stellen die Wirkung der Durchführung von Stabilisierungsoperationen (Drehverschiebungen und kartesischen Verschiebungen) auf ein Bild dar. Das linke Bild ist ein IVUS-Bild aus einer Herzkranzarterie, so wie es auf einem großen Teil einer Anzeige aussehen würde (mit gelöschtem Katheter), wohingegen das rechte Bild zeigt, wie das linke Bild angezeigt würde, nachdem Stabilisierungsoperationen implementiert worden sind.
  • Mit einem eingehenden Blick auf das linke und rechte Bild in 4 können bestimmte Unterschiede beobachtet werden. Erstens ist das rechte Bild geringfügig in Uhrzeigersinn (d. h. um ein paar Grad) in Beziehung zum linken Bild gedreht. Dies ist das Ergebnis von Drehstabilisierung. Weiterhin ist das rechte Bild allgemein nach links in Beziehung zum linken Bild verschoben. Dies kann durch Feststellen des Abstands des Lumens (Hohlraum) von den Rändern des Bildes in jedem Bild erfasst werden. Dies ist ein Ergebnis von kartesischen Verschiebungsstabilisierungsoperationen.
  • Die Vorteile der Stabilisierung des angezeigten Bildes können nicht durch Betrachten einzelner Bilder, wie in 4 gezeigt, eingeschätzt werden. Das Betrachten eines Films solcher Bilder würde die Vorteile jedoch sofort zeigen. Bei einer Anzeige, die keine Stabilisierung umfasst, würde die Stelle des Katheters immer in der Mitte der Anzeige liegen, und die morphologischen Merkmale würden sich hierum bewegen und auf der Anzeige rotieren. In einer stabilisierten Anzeige hingegen würde sich die Stelle des Katheters herumbewegen und die morphologischen Merkmale würden im Wesentlichen stationär bleiben. Eine Stabilisierung muss nicht zwangsläufig auf einer tatsächlichen Anzeige dargestellt sein. Sie kann für den Benutzer in dem Sinne unsichtbar sein, dass die Stabilisierung nachfolgende Verarbeitungsschritte verbessert, doch die tatsächliche Anzeige zeigt die resultierenden verarbeiteten Bilder in ihrer ursprünglichen (nicht stabilisierten) Stellung und Orientierung.
  • 5 zeigt globale Kontraktion oder Aufweitung eines Gefäßes, ausgedrückt in der polaren Darstellung des Bildes als eine Bewegung der Merkmale entlang der r-Koordinaten, d. h. Bewegung entlang der Polarvektoren. 5 zeigt auch die gleiche globale Kontraktion oder Aufweitung, ausgedrückt in der kartesischen Darstellung des Bildes. 5(a) zeigt das Aussehen der Grundlinie des Querschnitts eines Gefäßes in polarer sowie kartesischer Darstellung. 5(b) zeigt eine Kontraktion des Gefäßes relativ zur Grundlinie. 5(c) zeigt eine gleichförmige Aufweitung des Gefäßes relativ zur Grundlinie.
  • Da globale Gefäßbewegung ausgedrückt wird als eine gleichförmige Änderung in der Weite des Gefäßes, kann jede zur Stabilisierung der polaren Darstellung geeignete Operation verwendet werden, um globale Gefäßbewegung abzuschätzen, d. h. sie kann abgeschätzt werden durch eine Nahheitsoperation unter Verwendung des gesamten polaren Bildes.
  • Nachdem eine zweidimensionale Verschiebungsauswertung durchgeführt worden ist, wie oben behandelt, wird die Stelle des Maximums in der Matrix C(shiftX, shiftY) an der θ-Achse für Drehstabilisierung verwendet. Dies belässt die Stelle des Extremums auf der r-Achse, die als eine Anzeige für globale Gefäßbewegung verwendet werden kann. So ist die globale Gefäßbewegungsüberwachung ein Nebenprodukt der zweidimensionalen Verschiebungsauswertung im polaren Bild.
  • Jedes Paar von aufeinander folgenden Bildern ergibt einen Anzeigewert der Gefäßbewegung. Sowohl die Größe als auch das Vorzeichen der resultierenden Verschiebung zwischen den Bildern kennzeichnen die Änderung im Gefäß, d. h. die Gefäßbewegung. Negative Verschiebungen zeigen Aufweitung an, positive Verschiebungen zeigen Kontraktion an. Die Größe des Wertes gibt die Größe der Gefäßbewegungsänderung an.
  • Unter bestimmten Umständen kann Bewegung oder Gefäßbewegung nicht gleichförmig/starr sein, obwohl sie auf die Ebene des Bildes, d. h. die Transversalebene, beschränkt ist. Um die Art von Bewegung oder Gefäßbewegung zu bestimmen, kann das Bild in Abschnitte unterteilt und eine globale Stabilitätsauswertung für jeden dieser Abschnitte durchgeführt werden. Durch Untersuchen der angegebenen Verschiebungen dieser Abschnitte relativ zu den entsprechenden Abschnitten im Vorgängerbild kann eine Bestimmung hinsichtlich der Art der Bewegung erfolgen.
  • Zum Beispiel kann, wie in 6 gezeigt, das Bild in 6(a) in vier Abschnitte, wie in 6(b) gezeigt, unterteilt werden. Verschiebungsauswertung kann für jeden dieser vier Abschnitte getrennt ausgeführt werden. Ein Vergleich zwischen den Ergebnissen der Verschiebungsauswertung für jeden dieser vier Abschnitte kann möglicherweise die Art der tatsächlichen Bewegung identifizieren. So kann die Art der angewendeten Stabilisierung je nach Art der erfassten Bewegung variiert werden.
  • Stabilisierung für lokale Bewegung wird erreicht durch Ausführen von Nahheitsoperationen auf einer lokalen Grundlage. Kleine Bereiche des Vorgängerbildes A ("Muster"-Bereiche) und kleine Bereiche des gegenwärtigen Bildes B ("Suchbereiche") nehmen am lokalen Stabilisierungsprozess teil. Manchmal ist es am besten, eine lokale Stabilisierung durchzuführen, nachdem eine globale Stabilisierung durchgeführt worden ist.
  • Während der lokalen Stabilisierung werden Musterbereiche im Vorgängerbild (A) innerhalb von Suchbereichen verschoben und unter Verwendung von Nahheitsoperationen mit Bereichen mit Größe der Muster im gegenwärtigen Bild (B) verglichen. Jedes Pixel im (neu) gebildeten stabilisierten Bild (B') bekommt auf Grundlage der Ergebnisse der durchgeführten Such- und Nahheitsauswertung einen neuen Wert.
  • Lokale Stabilisierung wird dargestellt anhand des folgenden Beispiels, bei dem der Musterbereich ein 1 × 1 Pixel-Bereich, d. h. ein einziges Pixel und der Suchbereich ein 3 × 3 Pixel-Bereich und die Nahheitsoperation SAD ist. Im vorliegenden Diagramm sind das mit 3 ausgewertete Pixel in A und das mit 9 ausgewertete Pixel in B entsprechende Pixel. Die 3 × 3 Pixel-Umgebung des Pixels mit Wert 9 ist auch dargestellt.
  • Figure 00330001
  • Bei diesem Beispiel wird nach den oben beschriebenen Bedingungen das "Muster"-Pixel mit Wert 3 unter Verwendung von SAD mit allen im 3 × 3-Suchbereich um das Pixel mit Wert 9 gefundenen Pixeln verglichen. Das mit 1 ausgewertete Pixel in der oberen linken Ecke des Suchbereichs liefert von allen Möglichkeiten im Suchbereich den minimalen SAD-Wert (|1 – 3| = 2). Als Ergebnis wird im neu gebildeten stabilisierten Bild (B') dem Pixel, dessen Stelle den mit 3 und 9 ausgewerteten Pixeln entspricht, der Wert 1 zugewiesen.
  • Im Allgemeinen können die Abmessungen von Muster- und Suchbereich, zusammen mit den verwendeten Nahheitsoperationen variieren. Der tatsächliche Wert, der dem Pixel des neu gebildeten stabilisierten Wertes (B') zugewiesen wird, muss nicht notwendigerweise ein tatsächlicher Pixelwert aus dem gegenwärtigen Bild B sein (wie im Beispiel dargestellt), sondern eine Funktion von Pixelwerten. Es ist wichtig zu beachten, dass als Ergebnis von lokaler Stabilisierung, im Gegensatz zu den globalen/starren Verfahren die "Zusammensetzung" des Bildes, d. h. die innere Beziehung zwischen Pixeln und ihre Verteilung im stabilisierten Bild, sich in Bezug zum ursprünglichen Bild ändert. Lokale Stabilisierung kann sowohl an polaren als auch kartesischen Darstellungen des Bildes implementiert werden.
  • 7 zeigt ein Gefäß, sowohl in kartesischen als auch in Polarkoordinaten, an dem lokale Gefäßbewegung erfasst worden ist. Wenn lokale Gefäßbewegung erfasst wird, ist dies ein Hinweis, dass Teile des Querschnitts des Gefäßes sich anders verhalten als andere Teile des Querschnitts.
  • 7(a) zeigt eine Grundlinienfigur des Gefäßes vor der lokalen Gefäßbewegung. 7(b) zeigt ein Beispiel von lokaler Gefäßbewegung. Wie sowohl in der kartesischen als auch der polaren Darstellung gezeigt, verhalten sich vier verschiedene Teile des Gefäßes unterschiedlich: zwei Segmente des Gefäßes ändern ihre Weite nicht oder bewegen sich nicht relativ zu ihren entsprechenden Segmenten im Vorgängerbild, ein Segment kontrahiert oder bewegt sich aufwärts, und ein Segment weitet sich auf oder bewegt sich abwärts.
  • Wie beobachtet werden kann, sind globale Gefäßbewegungs-Auswertungsverfahren nicht geeignet, um lokale Gefäßbewegung auszuwerten, weil das Gefäß sich nicht gleichförmig verhält. Wenn globale Gefäßbewegungs-Auswertung zum Beispiel auf das in 7 gezeigte Beispiel angewendet würde, könnte sie eine insgesamt verschwindende Gefäßbewegung erfassen, das heißt die Kontraktion und die Aufweitung würden einander aufheben.
  • Deshalb müssen lokale Gefäßbewegungs-Auswertungsverfahren verwendet werden. Dies kann erreicht werden durch getrenntes Auswerten von Gefäßbewegung in jedem Polarvektor, d. h. in jedem θ- oder Y-Vektor. Nahheitsoperationen werden angewendet unter Verwendung von eindimensionalen Verschiebungen in entsprechenden Polarvektoren. Wenn zum Beispiel Nahheit mit Kreuzkorrelation verwendet wird, zeigt die folgende Operation, wie dies mit eindimensionalen Verschiebungen bewerkstelligt wird.
    Figure 00340001
    wobei:
    A = Vorgängerbildmatrix;
    B = gegenwärtige Bildmatrix;
    * = pixelweise Multiplikation;
    Σ = Summe der Pixel in der Matrix des Polarvektors;
    C = zweidimensionale Korrelationskoeffizientenmatrix.
  • Wie man erkennt, wird bei einer Verschiebung entlang einer Achse (X- oder r-Achse) für jeden einzelnen Polarvektor (θ- oder Y-Vektor) durchgeführt. Die in jedem Vektor für die Verschiebungsauswertung zugewiesenen Werte müssen nicht die tatsächlichen Werte der Bilder sein, sondern zum Beispiel kann jedem Pixel im Vektor der Mittelwert seiner seitlichen Nachbarn zugewiesen werden, das heißt A(X, A) bekommt zum Beispiel den Mittelwert von A(X, Y – 1), A(X, Y) und A(X, Y + 1) zugewiesen. Dasselbe gilt für B(shiftX, Y). Dies kann den Kreuz-Korrelationsprozess unempfindlicher gegen Rauschen machen.
  • Eine zweidimensionale Matrix (C(shiftX, Y)) wird gebildet. Jede Spalte in der Matrix speichert die Ergebnisse von Nahheits-/Ähnlichkeitsoperationen, die zwischen entsprechenden Polarvektoren aus dem gegenwärtigen Bild und dem Vorgängerbild durchgeführt wurden. Diese Operation könnte auch unter Anwendung von FFT implementiert worden sein.
  • Nach Erzeugung der Matrix wird die Stelle des Extremums (Maximum bei der Kreuzkorrelations-Operation) in jeder Spalte erfasst. Die Stelle des Extremums gibt die Anpassung zwischen dem Polarvektor und seinem Vorgänger an. So kann die Gefäßbewegung in jedem Vektor, d. h. die radiale Bewegung in jedem spezifischen Winkelsektor des Gefäßes, gekennzeichnet werden.
  • Diese Information kann verwendet werden, um die lokale Gefäßbewegung anzuzeigen, sie kann von einigen oder allen Polarvektoren aufaddiert und gemittelt werden, um einen Mittelwert der Gefäßbewegung zu bestimmen, oder sie kann für andere Zwecke verwendet werden. So kann durch Auswerten der lokalen Gefäßbewegung sowohl lokale als auch globale Gefäßbewegung ausgewertet werden.
  • Um effektiv gebraucht und/oder als quantitative physiologische Parameter ausgedrückt zu werden, muss die Größe der Gefäßbewegung in irgendeiner Weise auf die tatsächliche Weite des Gefäßes bezogen werden. So sollten Messungen der Gefäß bewegungs-Überwachung im Allgemeinen in Zusammenhang mit automatischen oder manuellen Messungen der Weite des Gefäßes verwendet werden.
  • Außer tatsächlicher Gefäßbewegung kann auch kartesische Verlagerung als Gefäßbewegung erfasst werden. Dies liegt daran, dass kartesische Verlagerung, in Polarkoordinaten ausgedrückt, in Verschiebungen, sowohl entlang der r- als auch der θ-Achse resultiert. Um tatsächliche Gefäßbewegung von kartesischer Verlagerung zu unterscheiden, muss Verschiebungsauswertung im kartesischen Bild wenig oder geringe Bewegung anzeigen. Wenn kartesische Verlagerung erfasst wird, muss sie erst stabilisiert werden. Danach können die kartesischen Koordinaten zur Auswertung der Gefäßbewegung in Polarkoordinaten zurückkonvertiert werden. Dies ermöglicht einen größeren Erfolg und liefert genauere Ergebnisse bei der Bestimmung der tatsächlichen Gefäßbewegung.
  • Die Graphen in 8 zeigen die Ergebnisse von lokaler Gefäßbewegungs-Überwachung in einem menschlichen Herzkranzgefäß in vivo. Lokale Gefäßbewegungs-Überwachung wurde zweimal in etwa dem gleichen Segment des Gefäßes durchgeführt und bestand aus 190 aufeinander folgenden Bildern (X-Achse), wie in 8(a) und 8(b) gezeigt. Der Unterschied zwischen den zwei Graphen ist, dass die in 8(a) gezeigte Gefäßbewegungs-Auswertung vor Behandlung der Arterie, d. h. vor Eingriff, durchgeführt wurde, wohingegen die in 8(b) gezeigte Gefäßbewegungs-Auswertung nach Behandlung der Arterie, d. h. nach Eingriff, durchgeführt wurde. In jedem Bild wurde Gefäßbewegung lokal in jedem Polarvektor ausgewertet und dann wurden alle erfassten Einzelverschiebungen addiert und gemittelt, um eine einzige globale Gefäßbewegungsanzeige (Y-Achse) für jedes Bild zu erhalten, d. h. eine Anzeige für die Gefäßbewegungsaktivität.
  • Die Einheiten auf der Y-Achse haben keine direkte physiologische Bedeutung, da die tatsächliche Weite des Gefäßes nicht berechnet wurde, doch hat die Beziehung zwischen den Werten in 8(a) und 8(b) eine Bedeutung, da sie von dem gleichen Gefäß gewonnen wurden. So kann wichtige Information aus diesen Figuren abgelei tet werden. Man beachte, wie die Gefäßbewegung nach der Behandlung zunahm (maximale Gefäßbewegung von ca. 40 auf ca. 150). Obwohl somit die Gefäßbewegung nicht völlig quantifiziert wurde, wurde eine physiologische Änderung (wahrscheinlich mit der Behandlung verknüpft) belegt.
  • Kardiovaskuläre Periodizität kann allein auf Grundlage der in IVUS-Bildern gespeicherten Information überwacht werden, wodurch der Bedarf nach einem EKG oder einem anderen externen Signal beseitigt wird. Dies bedeutet, dass eine Verbindung zwischen jedem Bild und seiner jeweiligen zeitlichen Phase im Kardiovaskulärzyklus ohne Bedarf für ein äußeres Signal hergestellt werden kann. Sobald diese Verknüpfung hergestellt ist, kann die Überwachung das EKG-Signal in einer großen Zahl von Anwendungen ersetzen, die Herz-Gating erfordern. Diese Überwachung kann bewerkstelligt werden unter Verwendung von Nahheitsoperationen zwischen aufeinander folgenden Bildern. Des weiteren können die gleichen Nahheitsoperationen Information über die Qualität der IVUS-Bilder und ihr Verhalten liefern.
  • Der Herzzyklus manifestiert sich im zyklischen Verhalten bestimmter Parameter, die aus IVUS-Bildern gewonnen werden. Wenn das Verhalten dieser Parameter überwacht wird, kann die Periodizität des Herzzyklus bestimmt werden. Kenntnis der Rahmenaufnahme-Geschwindigkeit ermöglicht auch die Bestimmung des Kardiovaskulärzyklus als eine zeitliche Größe.
  • Die Nahheit zwischen aufeinander folgenden IVUS-Bildern ist ein Parameter, der sich deutlich nach einem periodischen Muster verhält. Dies ist ein Ergebnis der Periodizität der meisten vorhandenen Arten von Bild-zu-Bild-Bewegung. Eine Nahheitsfunktion kann gebildet werden, bei der jeder Wert aus einer Nahheitsoperation zwischen einem Paar von aufeinander folgenden Bildern resultiert. Zum Beispiel liefert ein Satz von zehn Bildern neun aufeinander folgende Nahheitswerte.
  • Die Nahheitsfunktion kann abgeleitet werden von einer kreuzkorrelationsartigen Operation, einer SAD-Operation oder jeder anderen Art von Operation, die eine nahheitsartige Funktion liefert. Normierte Kreuzkorrelation liefert sehr gute Ergebnisse, wenn sie zur Überwachung der Periodizität eingesetzt wird.
  • Die folgende Formel zeigt die Formel für den Kreuzkorrelationskoeffizienten (als Funktion des N-ten Bildes) zur Berechnung der Nahheitsfunktion:
    Figure 00380001
    wobei:
    Correlation_function(N) = eindimensionale Funktion, die einen Wert für jedes Bildpaar ergibt;
    A = Vorgängerbildmatrix (N-tes Bild);
    B = gegenwärtige Bildmatrix (N + 1-tes Bild);
    * = pixelweise Multiplikation;
    Σ = Summe über alle Pixel in der Matrix.
  • Der Kreuzkorrelationskoeffizient ist ein Nebenprodukt des Stabilisierungsprozesses, weil der Mittenwert (shiftX = 0, shiftY = 0) der normierten Kreuzkorrelationsmatrix (C(shiftX, shiftY) immer berechnet wird. Dies gilt für alle Arten von Nahheitsfunktionen, die zur Stabilisierung verwendet werden. Der Mittenwert der Nahheitsmatrix (C(shiftX = 0, shiftY = 0), entweder Kreuzkorrelation oder eine andere Art von zur Stabilisierung verwendeter Operation, kann immer zur Erzeugung einer Nahheitsfunktion verwendet werden.
  • Die Nahheitsfunktion kann auch aus Bildern berechnet werden, die in Beziehung zueinander verschoben sind, d. h. der zum Bilden der Funktion verwendete Wert ist C(shiftX, shiftY), wobei shiftX und shiftY nicht gleich Null sind. Die Nahheitsfunktion muss nicht notwendigerweise mit ganzen Bildern erzeugt werden, sondern kann auch aus Teilen von Bildern berechnet werden, die einander entsprechen oder in Bezug zueinander verschoben sind.
  • 9 zeigt ein EKG und einen Kreuzkorrelationskoeffizienten, der graphisch in synchroner Weise aufgetragen ist. Beide Kurven beziehen sich auf denselben Satz von Bildern. 9(a) zeigt einen Graph des EKG-Signals und 9(b) zeigt einen Graph des Kreuzkorrelationskoeffizienten, der von aufeinander folgenden IVUS-Bildern abgeleitet wurde. Die horizontale Achse zeigt die Bildnummer an (insgesamt 190 aufeinander folgende Bilder). Wie zu sehen ist, zeigt die Kreuzkorrelationskoeffizientenfunktion in 9(b) ein periodisches Muster und ihre Periodizität ist die gleiche wie die, die durch das EKG-Signal in 9(a) angezeigt wird (beide zeigen ungefähr sechs Herzschläge).
  • Die Überwachung der Periodizität der Nahheitsfunktion kann kompliziert sein, weil die Nahheitsfunktion keine typische Form hat, zeitlich variieren kann, von der Art der Nahheitsfunktion, die verwendet wird, abhängt und veränderlich sein kann von Gefäßsegment zu Gefäßsegment und von Subjekt zu Subjekt.
  • Um die Periodizität der Nahheitsfunktion stetig und automatisch zu überwachen, kann eine Vielzahl von Verfahren verwendet werden. Ein Verfahren beispielsweise ist ein Schwellentypverfahren. Dieses Verfahren überwacht einen Wert der Nahheitsfunktion über einen bestimmten Wert, der als Schwelle bekannt ist. Sobald dieser Wert erfasst ist, überwacht das Verfahren darauf, wann diese Schwelle überschritten ist. Die Periode wird bestimmt als die zeitliche Differenz zwischen dem Überschreiten der Schwelle. Ein Beispiel dieses Verfahrens ist in 10 als Tabelle gezeigt. Die Tabelle zeigt eine Gruppe von Kreuzkorrelationskoeffizientenwerten (mittlere Zeile), die zu aufeinander folgenden Bildern (Zahlen 1 bis 10, die in der oberen Zeile gezeigt sind) gehören. Wenn die Schwelle beispielsweise eingestellt ist auf einen Wert von 0,885, dann wird diese Schwelle zuerst überschritten in dem Übergang von Bild #2 zu Bild #3. Die Schwelle wird ein zweites Mal überschritten in dem Übergang von Bild #6 zu Bild #7. Auf diese Weise ist die Zeitperiode der Periodizität gleich der Zeit, die verwendet wird, um 7 – 3 = 4 Bilder zu nehmen.
  • Ein anderes Verfahren, das verwendet werden kann, um die Herzperiodizität von der Nahheitsfunktion zu extrahieren, ist die interne Kreuzkorrelation. Dieses Verfahren verwendet ein Segment der Nahheitsfunktion, d. h. eine Gruppe von aufeinander folgenden Werten. Beispielsweise in der Tabelle, die in 10 gezeigt ist, kann das Segment die ersten vier aufeinander folgenden Bilder umfassen, d. h. die Bilder #1 bis #4. Wenn ein Segment einmal gewählt worden ist, dann wird es mit sich selbst kreuzkorreliert, um einen Kreuzkorrelationswert von 1 zu bilden. Als nächstes wird dieses Segment kreuzkorreliert mit einem Segment der gleichen Größe, das von der Nahheitsfunktion extrahiert wird, doch um ein Bild vorwärts verschoben ist. Dies wird wiederholt, wobei das Segment um zwei Bilder vorwärts usw. verschoben wird. In dem Beispiel, das in 10 gezeigt ist, würde das Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment {0,83, 0,89, 0,85, 0,82}, das um ein Bild verschoben ist; dann würde das Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment {0,89, 0,85, 0,82, 0,87}, das um zwei Bilder korreliert ist usw. Die untere Zeile der Tabelle in 10 zeigt die Ergebnisse dieser internen Kreuzkorrelationen. Der erste Wert von 1 ist ein Ergebnis der Kreuzkorrelation des Segmentes mit sich selbst. Diese Kreuzkorrelationswerte werden untersucht, um die Stelle der lokalen Maxima zu bestimmen. In diesem Beispiel sind sie in dem Bild #1 und dem Bild #5 lokalisiert (ihre Werte sind in Fettschrift angezeigt). Die sich ergebende Periodizität ist die Differenz zwischen der Stelle der lokalen Maxima und der Stelle, von welcher die Suche initiiert worden ist (d. h. Bild #1). In diesem Beispiel ist die Periodizität die Zeit, die verstrichen ist von der Aufnahme des Bildes #1 bis #5, welche gleich ist zu 5 – 1 = 4 Bilder. Wenn die Periode einmal erfasst worden ist, dann beginnt die Suche erneut unter Verwendung eines Segmentes, das das lokale Maximum umgibt, d. h. Bild #5. In diesem Beispiel könnte das neue Segment beispielsweise die Gruppe der Nahheitswerte sein, die zu den Bildern #4 bis #7 gehören.
  • Aufgrund des Wesens der Kalkulationsart, welche verwendet wird, erfordert der interne Kreuzkorrelationsvorgang an einem bestimmten Zeitpunkt die Nahheitswerte der Bilder, die in der zukünftigen Zeit erhalten werden. Folglich erfordert das Nah heitsverfahren im Unterschied zum Schwellenverfahren die Speicherung von Bildern (im Speicher) und die Periodizitätserfassung erfolgt retrospektiv. Die Herzperiodizität kann ebenfalls überwacht werden durch Transformieren der Nahheitskurve in den Zeitfrequenzbereich durch Fourier-Transformation. Im Frequenzbereich sollte die Periodizität sich ausdrücken als eine Spitze entsprechend der Periodizität. Diese Spitze kann durch Spektralanalyse erfasst werden.
  • Die Nahheitsfunktion kann eine zusätzliche wichtige Information über die IVUS-Bilder liefern, welche nicht von den externen Signalen extrahiert werden kann, wie beispielsweise einem EKG, die nicht von den aktuellen Bildern abgeleitet werden. Das Verhalten dieser Funktion kann bestimmte Zustände in den IVUS-Bildern oder Bildteilen anzeigen, die verwendet werden, um die Nahheitsfunktion zu bilden. Wichtige Merkmale in der Nahheitsfunktion, welche ein Hinweis auf den Zustand der IVUS-Bilder sind, sind die Anwesenheit der Periodizität und die "Rauhigkeit" der Nahheitsfunktion. Normale IVUS-Bilder sollten eine relativ glatte und periodische Nahheitsfunktion zeigen, wie beispielsweise in 9(b) gezeigt ist.
  • Wenn jedoch die "Rauhigkeit" und/oder Periodizität nicht vorhanden sind, dann könnte dies ein Hinweis auf ein Problem in der Bildung der IVUS-Bilder geben, d. h. die Anwesenheit eines Artefaktes in der Bildausbildung verursacht beispielsweise entweder durch eine mechanische oder elektronische Fehlfunktion. Die folgenden Figuren helfen, dies zu illustrieren. 11 zeigt einen Graph des Kreuzkorrelationskoeffizienten, der von aufeinander folgenden IVUS-Bildern abgeleitet wurde. Dieser Graph ist in seiner Ausbildung analog zu der Kreuzkorrelationsaufzeichnung in 9(b), doch in diesem Beispiel ist er durch verschiedene Bildkatheter gebildet, die in einem anderen Subjekt verwendet wurde.
  • In diesem Beispiel ist klar, dass die Nahheitsfunktion keine klare Periodizität zeigt, und dass sie anstatt einer glatten Erscheinung eine raue oder stachlige Erscheinung zeigt. In diesem Fall wurde das Verhalten des Nahheitsgraphen verursacht durch die Uneinheitlichkeit der Drehung des IVUS-Senders, der für das Senden/Aufnehmen der Ultraschallsignale verantwortlich ist, die in dem Bild angezeigt sind. Dieser Typ von Artefakt erscheint manchmal in IVUS-Katheter-Senderaufbauten, in welchen es sich bewegende mechanische Teile gibt.
  • Die Nahheitsfunktion kann, wenn sie offensichtlich normale Bildbedingungen reflektiert, einem weiteren Zweck dienen. Dies ist verbunden mit der Stelle des Maximums in jedem Zyklus der Nahheitsfunktion. Die Lokalisierung dieser Maxima kann wichtig sein für Bildverarbeitungs-Algorithmen, welche mehrere aufeinander folgende Bilder zusammen verarbeiten. Bilder, die nahe von Maxima-Bildern gefunden werden, neigen dazu, eine hohe Nahheit und geringe Zwischenbildbewegung in Bezug zueinander aufzuweisen. Wenn zusätzlich Bilder, die zur gleichen Phase von aufeinander folgenden Herzzyklen gehören, ausgewählt werden müssen, dann ist es gewöhnlich am besten, sie unter Verwendung der Maxima (der Nahheitsfunktion) in jedem Zyklus zu wählen.
  • Beispielsweise in einem Anzeigeverfahren werden diese Bilder auf die Anzeige projiziert und die Lücken durch Interpolationsbilder gefüllt. Bei diesem Anzeigeverfahren können alle Typen von periodischen Bewegungen stabilisiert werden.
  • Die Verschiebelogik-Stufe in dem Stabilisierungsprozess kann ebenfalls die kardiovaskuläre Periodizitätüberwachung verwenden. Wenn Drift vermieden werden soll, dann sollte die akkumulierte Verschiebung nach jedem (einzelnen) Herzzyklus gering oder gleich Null sein, d. h. die Summe aller Verschiebungen über eine Periode des Zyklus sollte Null oder nahe Null ergeben. Das bedeutet, dass das Drift-Phänomen durch Verwenden einer Verschiebungslogik begrenzt werden kann, welche mit der Periodizitätsüberwachung gekoppelt ist.
  • Mit Bezug auf 12 können die meisten IVUS-Bilder unterteilt werden in drei Grundteile. Der mittlere Bereich (um den Katheter), der als Lumen in 12 bezeichnet ist, ist das tatsächliche Lumen oder der innere Durchgang (Hohlraum), durch welchen Flüssigkeit, z. B. Blut fließt. Um dieses Lumen ist das tatsächliche Gefäß, das als Gefäß in 12 bezeichnet ist, aus mehreren Schichten von Gewebe und Plaque (falls krankhaft) zusammengesetzt. Um das Gefäß herum befindet sich anderes Gewebe, das als Umgebung in 12 bezeichnet ist, d. h. Muskel- oder Organgewebe, beispielsweise das Herz in dem Herzkranzgefäßbild.
  • Wenn IVUS-Bilder dynamisch betrachtet werden (d. h. in Filmformat), dann zeigt die Anzeige des Inneren, wo das Blut fließt, und der Umgebung, die das Gefäß umgibt, gewöhnlich ein anderes zeitliches Verhalten, als das Gefäß selbst.
  • Die automatische Überwachung des zeitlichen Verhaltens von Pixeln in dem dynamischen IVUS-Bild würde es erlauben, die Information zu verwenden, die durch den Vorgang extrahiert wird, um die Interpretation der IVUS-Bilder zu erleichtern. Diese Information kann verwendet werden, um die IVUS-Anzeigen zu verbessern durch Filtern und Unterdrücken des Auftretens von sich schnell ändernden Merkmalen, wie beispielsweise einer Flüssigkeit, z. B. Blut, und des umgebenden Gewebes aufgrund ihres zeitlichen Verhaltens. Diese Information kann ebenfalls verwendet werden für die automatische Segmentation, um die Größe des Lumens automatisch zu bestimmen durch Identifizieren der Flüssigkeit, z. B. Blut und des umgebenden Gewebes auf der Grundlage des zeitlichen Verhaltens von Texturattributen, die durch ihre Bestandteilspixel gebildet werden.
  • Um das automatische Überwachen des zeitlichen Verhaltens durchzuführen, muss eine Auswertung der Beziehung zwischen den Attributen, welche durch entsprechende Pixel gebildet werden, die zu aufeinander folgenden Bildern gehören, erfolgen. Die Extraktion des zeitlichen Verhaltens birgt Nahheiten zu den Verfahren, die für Nahheitsoperationen auf einer lokalisierten Basis verwendet werden, wie zuvor beschrieben worden ist.
  • Hohe zeitliche Veränderungen sind gekennzeichnet durch relativ große relative Grauwertänderungen von entsprechenden Pixeln, wenn man von einem zum nächsten Bild geht. Diese schnellen, zeitlichen Änderungen können unterdrückt werden in der Anzeige durch Ausdrücken dieser Änderungen durch die Bildung einer Maske, welche das originale Bild multipliziert. Diese Maske reflektiert zeitliche Änderungen in den Pixelwerten. Ein Problem, das sich in dieser Auswertung ergibt, ist die Bestimmung, ob Grauwertänderungen in entsprechenden Pixelwerten von Fließen oder Änderungen im Material oder Bewegungen des Gefäßes/Katheters herrühren. Mittels der Durchführung dieser Auswertung auf stabilisierten Bildern wird dieses Problem überwunden oder zumindest minimiert.
  • Die folgenden Definitionen finden Anwendung:
    B = gegenwärtiges (stabilisiertes oder nicht stabilisiertes) Bild;
    A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
    C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild;
    abs = absoluter Wert.
  • Die Matrizen können entweder in kartesischer oder Polarform verwendet werden.
  • Die folgende Operation, die zu einer Matrix D1 führt, soll wie folgt definiert werden: D1 ist eine Matrix, in welcher jedes Pixel mit Koordinaten X, Y die Summe der absoluten Differenzen seiner unmittelbar umgebenden Umgebung ist, d. h. 9 Elemente (X – 2 : X + 2, Y – 2 : Y + 2 – ein 3 × 3-Quadrat), extrahiert von den Bildern A bzw. B.
  • Beispielsweise die folgende Darstellung zeigt entsprechende Pixel (in Fett) in ihrer unmittelbaren Umgebung in den Matrizen A und B.
  • Figure 00440001
  • Das Pixel in Matrix D1 mit der Stelle entsprechend zu den Pixeln mit dem Wert 4 (in B) und 7 (in A) bekommt den folgenden Wert zugewiesen. abs(1 – 3) + abs(4 – 6) + abs(51 – 8) + abs(6 – 3) + abs(7 – 4) + abs(15 – 70) + abs(3 – 2) + abs(5 – 1) + abs(83 – 6) = 190
  • D2 ist ähnlich definiert, doch für die Matrizen B und C.
  • D1 und D2 sind in der Tat Differenzenmatrizen, welche unter Verwendung einer 3 × 3-Nachbarschaft gemittelt werden, um lokale Fluktuationen oder Rauschen zu vermindern. Große Grauwertänderungen zwischen den Bildern A und B oder zwischen B und C werden ausgedrückt durch relativ hohe Werte in den Matrizen D1 bzw. D2.
  • Eine neue Matrix, Dmax, wird als nächstes gebildet, in welcher jedes Pixel das Maximum der entsprechenden Pixel in den Matrizen D1 und D2 ist. Dmax = max(D1, D2)wobei:
    max(D1, D2) = jedes Pixel in Dmax enthält das höchste der zwei entsprechenden Pixel in D1 und D2.
  • Auf diese Weise hebt die einzelne Matrix Dmax insbesondere große Pixeländerungen zwischen den Matrizen A, B und C hervor. Eine Maskenmatrix (MD) wird dann gebildet aus Dmax durch Normierung, d. h. jedes Pixel in Dmax wird geteilt durch den maximalen Wert von Dmax. Auf diese Weise liegen die Pixelwerte der Maske MD im Bereich von Null bis Eins.
  • Die Rolle der Maske besteht darin, das gegenwärtige Bild B in der folgenden Weise zu multiplizieren, wodurch eine neue Matrix oder ein neues Bild, die/das als BOUT definiert ist, gebildet wird. BOUT = (1 – MDn)*B wobei:
    B = ursprüngliches gegenwärtiges Bild;
    BOUT = das neue Bild;
    n = jedes Pixel in der Matrix MD wird zur n-ten Potenz erhoben. n ist allgemein eine Zahl mit einem Wert von beispielsweise 2–10;
    1 – MDn = eine Matrix, in welcher jeder Pixelwert gleich eins minus dem Wert des entsprechenden Pixels in MD ist.
  • Durch Ausführen der Subtraktion 1 – MDn werden kleine Werte von MD, die langsam veränderliche Merkmale wiedergeben, zu hohen Werten in 1 – MDn. Weiterhin wird die Chance, dass nur langsam veränderliche Merkmale hohe Werte ergeben, erhöht, aufgrund der vorigen Hervorhebung der hohen MD-Werte (durch Bilden von MD als das Maximum zwischen Matrizen D1 und D2).
  • Die Multiplikation der Maske (1 – MDn) mit dem gegenwärtigen Bild B bildet ein neues Bild BOUT, in welchem das Auftreten von langsam veränderlichen Pixeln hervorgehoben ist, wohingegen die Werte von schnell veränderlichen Pixeln vermindert sind. Die Zahl n bestimmt, wie stark die Unterdrückung der schnell veränderlichen Merkmale auf der Anzeige in Erscheinung tritt.
  • 13 zeigt die Ergebnisse der zeitlichen Filterung. Das linke Bild ist ein ursprüngliches IVUS-Bild (d. h. Matrix B) von einem Herzkranzgefäß, wie es in der gegenwärtigen Anzeige aussehen würde. Das rechte Bild unterlag den Verarbeitungsschritten, die oben beschrieben wurden, d. h. der zeitlichen Filterung (Matrix BOUT). Man beachte, dass im rechten Bild Blut und umgebendes Gewebe gefiltert (unterdrückt) wurden und Lumen und Gefäßränder viel leichter zu identifizieren sind.
  • Die automatische Segmentation differenziert Flüssigkeit, z. B. Blut und Äußeres von der Gefäßwand aufgrund der Differenzen zwischen dem zeitlichen Verhalten einer Texturqualität. In dem Fall der zeitlichen Filterung wird dieses Verfahren abgeleitet von der Beziehung zwischen entsprechenden Pixeln von einer Anzahl aufeinander folgender Bilder. Wenn die Pixelwerte sich ändern aufgrund einer Zwischenbildbewegung, dann wird die Durchführung des Algorithmus beeinträchtigt. Die Ausführung einer Stabilisierung vor der automatischen Segmentation löst dieses Problem oder minimiert es zumindest.
  • Wie in dem Fall der zeitlichen Filterung gelten die folgenden Definitionen:
    B = gegenwärtiges (stabilisiertes oder nicht stabilisiertes) Bild;
    A = vorangegangenes (stabilisiertes oder nicht stabilisiertes) Bild;
    C = folgendes (stabilisiertes oder nicht stabilisiertes) Bild;
  • Die Matrizen können entweder in kartesischer oder polarer Form vorliegen.
  • Die Texturqualität kann wie folgt definiert werden: angenommen, die vier nächsten Nachbarn eines Pixels mit Wert "a" sind "b", "c", "d" und "e", dann ist die Klassifikation von "a" abhängig von seinen Beziehungen mit "b", "c", "d" und "e". Dies kann mit der folgenden Darstellung gezeigt werden:
  • Figure 00470001
  • Die folgenden Kategorien können gebildet werden:
  • In der vertikalen Richtung:
    wenn a > b und a > e, dann "a" klassifiziert als zugehörig zur Kategorie I;
    wenn a > b und a < e, dann "a" klassifiziert als zugehörig zur Kategorie II;
    wenn a < b und a < e, dann "a" klassifiziert als zugehörig zur Kategorie III;
    wenn a < b und a > e, dann "a" klassifiziert als zugehörig zur Kategorie IV;
    wenn a = b oder a = e, dann "a" klassifiziert als zugehörig zur Kategorie V
  • In der horizontalen Richtung:
    wenn a > c und a > d, dann "a" klassifiziert als zugehörig zur Kategorie I;
    wenn a > c und a < d, dann "a" klassifiziert als zugehörig zur Kategorie II;
    wenn a < c und a < d, dann "a" klassifiziert als zugehörig zur Kategorie III;
    wenn a < c und a > d, dann "a" klassifiziert als zugehörig zur Kategorie IV;
    wenn a = c oder a = d, dann "a" klassifiziert als zugehörig zur Kategorie V
  • Die vertikalen und horizontalen Kategorien werden als nächstes kombiniert, um eine neue Kategorie zu bilden. Als ein Ergebnis kann Pixel "a" zu 5 × 5 = 25 möglichen Kategorien gehören. Dies bedeutet, dass die Texturqualität von "a" gekennzeichnet ist durch seine Zugehörigkeit zu einem der (25) Kategorien.
  • Beispielsweise in der folgenden Nachbarschaft,
    Figure 00480001
    ist Pixel "a" = 10 klassifiziert als zugehörig zur Kategorie, welche die Kategorie I vertikal (weil 10 > 7 und 10 > 3) und Kategorie V horizontal (weil 10 = 10) einschließt.
  • Wenn jedoch das Pixel "a" in der folgenden Nachbarschaft angeordnet gewesen wäre:
    Figure 00480002
    dann wäre es klassifiziert worden als zugehörig zu einer anderen Kategorie, da seine horizontale Kategorie nun die Kategorie III ist (10 < 11 und 10 < 14).
  • Durch Bestimmen der Beziehung von jedem Pixel zu seiner engen Nachbarschaft wurde eine Texturqualität gebildet, welche jedes Pixel in 25 mögliche Kategorien klassifiziert. Die Anzahl der Kategorien kann verändert werden (erhöht oder vermindert), d. h. beispielsweise durch Ändern der Kategorisierungsbedingungen, ebenso wie die Anzahl der nächsten Nachbarn, die verwendet werden, beispielsweise anstelle von vier können acht nahe Nachbarn verwendet werden.
  • Das Grundkonzept, durch welches die Texturänderungen verwendet werden, um Flüssigkeit, z. B. Blut, von Gefäßen zu unterscheiden, ist die Überwachung der Änderung in den Kategorien der entsprechenden Pixel in aufeinander folgenden Bildern. Um dies zu erreichen, wird die Kategorie in jedem einzelnen Pixel in den Matrizen A, B und C bestimmt. Als nächstes werden entsprechende Pixel getestet, um zu sehen, ob diese Kategorie sich geändert hat. Wenn dies der Fall ist, dann wird das Pixel verdächtigt, eine Flüssigkeit zu sein, z. B. Blut, oder ein Pixel des umgebenden Gewebes. Wenn sie sich nicht geändert hat, dann wird das Pixel verdächtigt, ein Gefäßpixel zu sein.
  • Das folgende Beispiel zeigt drei entsprechende Pixel (mit Werten 8, 12 und 14) und ihre Nachbarschaften in aufeinander folgenden Matrizen A, B und C.
  • Figure 00490001
  • In diesem Beispiel ist die Kategorie des Pixels mit dem Wert 12 (in B) die gleiche wie in A und C, folglich wird es klassifiziert als ein Pixel mit einer höheren Chance, dass es ein Gefäßwandpixel ist. Wenn jedoch die Situation dergestalt war, wie es unten gezeigt ist (20 in C ändert sich zu 13):
    Figure 00500001
    dann hat das Pixel 8 in A und 12 in B die gleichen Kategorien, doch 14 in C hat eine andere Kategorie als in dem vorangegangenen Beispiel. Im Ergebnis wird Pixel 12 in B klassifiziert als ein Pixel mit einer höheren Chance, dass es eine Flüssigkeit (Lumen), d. h. Blut, oder ein äußeres Gewebepixel ist.
  • Das Klassifikationsverfahren, das bisher beschrieben wurde, überwacht die Änderung in der Textur oder Muster, die mit der kleinen Nachbarschaft um jedes Pixel verbunden ist. Wenn diese Änderung einmal bestimmt worden ist, wie oben beschrieben wurde, dann kann jedes Pixel einem binären Wert zugeordnet werden. Beispielsweise ein Wert von 0, wenn vermutet wird, dass es ein Gefäßpixel ist, oder einen Wert von 1, wenn vermutet wird, dass es ein Blutpixel oder ein Pixel, das zum Äußeren eines Gefäßes gehört, ist. Das binäre Bild dient als eine Eingabe für den Prozess der Identifikation des Lumens und die ursprünglichen Pixelwerte hören auf, eine Rolle zu spielen in dem Segmentationsprozess.
  • Die Identifikation des Lumens unter Verwendung des binären Bildes basiert auf zwei Annahmen, welche im Allgemeinen gültig sind bei IVUS-Bildern, die in der oben beschriebenen Weise verarbeitet wurden. Die erste ist, dass die Flächen in den Bildern, welche Blut enthalten oder auf dem Äußeren des Gefäßes gefunden werden, gekennzeichnet sind durch eine hohe Dichte von Pixeln mit einem binären Wert von 1 (oder einer niedrigen Dichte von Pixeln mit einem Wert von 0). Der Ausdruck Dichte wird benötigt, weil es immer Pixel gibt, die falsch klassifiziert wurden. Die zweite Annahme ist, dass von einem morphologischen Gesichtspunkt verbundene Flächen von hoher Dichte von Pixeln mit dem Wert 1 (Lumen) gefunden werden sollten um den Katheter und umgeben sein sollten durch verbundene Flächen von niedriger Dichte von Pixeln mit dem Wert 1 (Gefäß), welche ihrerseits umgeben sind durch verbundene Flächen von hoher Dichte von Pixeln mit dem Wert 1 (Gefäßäußeres). Der Grund für diese Annahme ist die typische morphologische Anordnung, die von einem Blutgefäß erwartet wird.
  • Diese zwei Annahmen bilden die Grundlage für den nachfolgenden Verarbeitungsalgorithmus, welcher die tatsächliche Fläche, welche mit dem Lumen verbunden ist, aus dem binären Bild extrahiert. Dieser Algorithmus kann bekannte Bildverarbeitungstechniken verwenden, wie beispielsweise das Schwellenbilden des Dichtemerkmals in lokalisierten Bereichen (um Blut/Äußeres vom Gefäß zu unterscheiden) und morphologische Operationen wie beispielsweise Dilation oder Verbinden, um einen verbundenen Bereich zwischen zu verbinden oder zu bilden, welcher das gegenwärtige Lumen wiedergibt, das in den Gefäßwandgrenzen gefunden wurde.
  • 14 zeigt ein Bild der Ergebnisse des Algorithmus für die automatische Extraktion des Lumens. Das Bild ist ein ursprüngliches IVUS-Bild (beispielsweise, wie oben beschrieben wurde, als Bild B) und die Lumengrenzen sind überlagert (durch den Algorithmus) als eine helle Linie. Der Algorithmus für die Extraktion der Lumengrenzen war gegründet auf der Überwachung der Änderung der Texturqualität, wie oben beschrieben, unter Verwendung von drei aufeinander folgenden Bildern.
  • Die oben beschriebenen Beispiele der zeitlichen Filterung und automatischen Segmentation umfassen die Verwendung von zwei zusätzlichen Bildern (beispielsweise, wie oben beschrieben wurde, als Bilder A und C) zusätzlich zu dem gegenwärtigen Bild (beispielsweise, wie oben beschrieben wurde, als Bild B). Jedoch können beide Verfahren verändert werden, um weniger (d. h. nur ein zusätzliches Bild) oder mehr zusätzliche Bilder zu verwenden.
  • Die Leistung der zwei Verfahren, die oben beschrieben wurden, wird stark verbessert, wenn sie mit kardiovaskulärer Periodizitätsüberwachung kombiniert werden. Dies gilt insbesondere für aufeinander folgende Bilder, in welchen kardiovaskuläre Periodizitätsüberwachung hohe Zwischenbild-Nahheitswerte erzeugt. Diese Bilder haben gewöhnlich keine Zwischenbildbewegung. Folglich können höchst zuverlässige Ergebnisse erwartet werden, wenn aufeinander folgende Bilder mit maximaler Zwischenbildnahheit eingespeist werden als Eingänge, entweder in die zeitliche Filterung oder automatische Segmentation.
  • Während der Behandlung der Blutgefäße unter Verwendung der Katheterisierung ist es übliche Praxis, IVUS-Pullback-Untersuchungen in dem gleichen Gefäßsegment zu wiederholen. Beispielsweise eine typische Situation ist zunächst, das fragliche Segment durchzusehen, die Krankheit auszuwerten (falls gegeben), den IVUS-Katheter zu entfernen, therapeutische Optionen abzuwägen, eine Therapie durchzuführen und dann unmittelbar danach (während derselben Sitzung) das behandelte Segment erneut zu untersuchen unter Verwendung von IVUS, um die Ergebnisse der Therapie zu bestimmen.
  • Um die Ergebnisse einer solchen Therapie korrekt zu bestimmen, sollten entsprechende Segmente vor Behandlung und nach Behandlung, die an denselben Stellen entlang der Länge des Blutgefäßes liegen, d. h. entsprechende Segmente, miteinander verglichen werden. Das folgende Verfahren liefert das Zuordnen, d. h. automatisches Identifizieren (Registration) von entsprechenden Segmenten.
  • Um das Zuordnen von entsprechenden Segmenten zu erreichen, werden Nahheits-/Ähnlichkeitsoperationen angewendet zwischen Bildern, die zu einer ersten Gruppe von aufeinander folgenden Bildern, d. h. einem Referenzsegment eines ersten Pullback-Films gehören und Bildern, die zu einer zweiten Gruppe von aufeinander folgenden Bildern eines zweiten Pullback-Films gehören. Das Zuordnen des Referenzsegments in dem ersten Film mit dem entsprechenden Segment in dem zweiten Film wird erhalten, wenn einige Kriterienfunktionen maximiert sind.
  • Von einem der zwei Filme wird ein Referenzsegment gewählt. Das Referenzsegment kann eine Gruppe von aufeinander folgenden Bildern sein, die beispielsweise wenige Sekunden des Films eines IVUS-Bildes wiedergeben. Es ist wichtig, ein Referenzsegment von einer Stelle in einem Gefäß auszuwählen, das in den zwei Filmen vorhanden ist und keine Änderung als Ergebnis einer Prozedur erfahren hat, d. h. das Referenzsegment ist proximal oder distal zu dem behandelten Segment.
  • Als ein Beispiel hilft die Tabelle in 15, um das Verfahren zum Zuordnen von entsprechenden Segmenten zu klären.
  • Die linke Spalte zeigt den Zeitablauf des ersten Films, wobei in diesem Fall der Film aus 20 aufeinander folgenden Bildern besteht. Die mittlere Spalte zeigt das Referenzsegment, welches gewählt wurde von dem zweiten Film und aus 10 aufeinander folgenden Bildern besteht. Die rechte Spalte listet die 10 aufeinander folgenden Bilder von dem ersten Film (#5–#14) auf, die tatsächlich den Bildern des Referenzsegmentes von dem zweiten Film (#1–#10) entsprechen (oder zugehören). Der Zweck des Zuordnungsprozesses ist es, diese Zuordnung tatsächlich aufzuzeigen.
  • Wenn ein Referenzsegment einmal gewählt worden ist, dann wird es entlang des anderen Films verschoben, ein Bild (oder mehrere) zu jeder Zeit und ein Satz von Stabilisierungs- und Nahheitsoperationen wird durchgeführt zwischen den entsprechenden Bildern in jedem Segment. Die Richtung der Verschiebung hängt ab von der relativen Stelle des Referenzsegmentes in der Zeitabfolge der zwei Filme. Wenn sie jedoch im Allgemeinen nicht bekannt ist, dann kann die Verschiebung in beiden Richtungen ausgeführt werden.
  • Beispielsweise, wo
    r = Referenzsegment; und
    f = erster Film ist,
    findet der erste Satz von Operationen statt zwischen den Bildern, welche die folgenden Paare umfassen: r#1-f#1, r#2-f#2, r#3-f#3, ..., r#10-f#10.
  • Der zweite Satz von Operationen findet statt zwischen den Bildern, die die folgenden Paare umfassen: r#1-f#2, r#2-f#3, r#3-f#4, ..., r#10-f#11.
  • Der dritte Satz von Operationen findet statt zwischen den Bildern, die die folgenden Paare umfassen: r#1-f#3, r#2-f#4, r#3-f#5, ..., r#10-f#12 usw. Wie man feststellen kann, wird in diesem Beispiel die Verschiebung Bild für Bild und nur in einer Richtung durchgeführt.
  • Beispielsweise können die folgenden Operationen zwischen den Bildern in jedem Paar durchgeführt werden. Zunächst wird ein Bild von dem Referenzsegment stabilisiert für die Drehung und die kartesische Bewegung in Bezug auf sein Gegenstück in dem ersten Film. Dann werden Nahheitsoperationen durchgeführt zwischen den Bildern in jedem Paar. Diese Operation kann beispielsweise die normierte Kreuzkorrelation sein (oben diskutiert in Bezug auf die Periodizitäterfassung). Eine jede solche Operation erzeugt einen Nahheitswert (beispielsweise einen Kreuzkorrelationskoeffizienten), wenn die normierte Kreuzkorrelation verwendet wird. Ein Satz von solchen Operationen erzeugt eine Anzahl von Kreuzkorrelationswerten. In dem Beispiel, das in der Tabelle von 15 gezeigt ist, werden jedes Mal, wenn das Referenzsegment verschoben ist, zehn neue Kreuzkorrelationskoeffizienten erzeugt.
  • Die Nahheitswerte, die durch einen Satz von Operationen erzeugt wurden, können abgebildet werden in einer Art Nahheitsfunktion, beispielsweise einer Mittelungsfunktion. Unter Verwendung des obigen Beispiels werden die Kreuzkorrelationskoeffizienten aufsummiert und dann durch die Anzahl von Paaren, d. h. zehn, dividiert. Jeder Satz von Operationen ergibt daher einen einzigen Wert, d. h. eine mittlere Nahheit, welche den Grad der Nahheit zwischen dem Referenzsegment und seinem zeitweiligen Gegenstück in dem ersten Film wiedergibt. Auf diese Weise wird das Ergebnis des ersten Satzes von Operationen ein einziger Wert sein, das Ergebnis des zweiten Satzes von Operationen wird ein anderer Wert sein, usw.
  • Man kann erwarten, dass die maximale mittlere Nahheit auftreten wird als ein Ergebnis der Operationen, die zwischen Segmenten durchgeführt werden, die sehr ähnlich sind, d. h. entsprechende oder übereinstimmende Segmente.
  • In dem obigen Beispiel sollten diese Segmente übereinstimmen während der fünf Sätze von Operationen, die zwischen den Bildern stattfinden, welche die folgenden Paare umfassen: r#1-f#5, r#2-f#6, r#3-f#7, ..., r#10-f#14.
  • Die maximale mittlere Nahheit sollte daher die entsprechenden Segmente anzeigen, da jedes Paar von Bildern in der Tat die entsprechenden Bilder sind, d. h. sie zeigen die gleiche Morphologie. Das Kriterium muss jedoch nicht diesem Algorithmus folgen. Beispielsweise kann es die Form der Nahheitsfunktion berücksichtigen, die von vielen verschobenen Segmentpositionen abgeleitet wird, anstatt nur einen dieser Werte zu verwenden, der sich als das Maximum herausstellt.
  • Wenn entsprechende Segmente einmal identifiziert sind, dann kann der vollständige erste und zweite Film in Bezug zueinander synchronisiert werden. Dies ist das Ergebnis einer geeigneten Rahmenverschiebung, die sich aus dem Zuordnungsprozess ergibt, und in einen Film in Bezug auf den anderen implementiert ist. Wenn man daher die beiden Filme Seite an Seite betrachtet, dann erscheint das Segment vor der Behandlung gleichzeitig mit dem Abschnitt nach der Behandlung.
  • Neben der Synchronisierung der entsprechenden Segmente stabilisiert die obige Operation auch die entsprechenden Segmente in Bezug zueinander. Dies erhöht weiterhin die Fähigkeit, Änderungen in der Morphologie zu verstehen. Selbst wenn daher der Katheter erneut in das Gefäß eingeführt wird und seine Positionsorientierung sich wahrscheinlich geändert hat, werden die Bilder der Filme vor der Behandlung und nach der Behandlung in Bezug zueinander stabilisiert.
  • Die Anzahl der Bilder, die für das Referenzsegment verwendet werden, können verändert werden. Je mehr Bilder in dem Zuordnungsprozess verwendet werden, umso mehr ist es gegenüber lokalen Fehlern widerstandsfähig und weniger anfällig. Jedoch ist zum Ausgleich mehr Rechnerzeit erforderlich für die Berechnungen jedes Zuordnungsprozesses, wenn die Anzahl der Paare sich erhöht.
  • Bei der Aufnahme des Pullback-Films ist es wichtig, dass die Pullback-Geschwindigkeit stabil bleibt und bekannt ist. Es ist vorteilhaft, wenn die Pullback-Geschwindigkeit in den zwei Aufnahmen identisch ist.

Claims (9)

  1. Vorrichtung zur Durchführung einer intravaskulären Ultraschall-Abbildung über einen Ultraschallsignalsender und -detektor, geeignet, um innerhalb eines Körperlumens angeordnet zu sein, gekennzeichnet durch: eine Anordnung zum Detektieren von Ultraschallsignalen; eine Anordnung zum Ableiten eines ersten Bildes von einem ersten Satz von detektierten Ultraschallsignalen; eine Anordnung zum Verarbeiten und Digitalisieren des ersten Satzes von detektierten Ultraschallsignalen, eine Anordnung zum Ableiten einer ersten zweidimensionalen Matrix von dem digitalisierten ersten Satz von detektierten Ultraschallsignalen, wobei die erste zweidimensionale Matrix eine erste Vielzahl von Elementen einschließt, wobei das erste Bild als die erste zweidimensionale Matrix konfiguriert ist; eine Anordnung zum Ableiten eines zweiten Bildes von einem zweiten Satz von detektierten Ultraschallsignalen; eine Anordnung zum Verarbeiten und Digitalisieren des zweiten Satzes von detektierten Ultraschallsignalen; eine Anordnung zum Ableiten einer zweiten zweidimensionalen Matrix von dem digitalisierten zweiten Satz von detektierten Ultraschallsignalen, wobei das zweite Bild als die zweite zweidimensionale Matrix konfiguriert ist, wobei die zweite zweidimensionale Matrix eine zweite Vielzahl von Elementen einschließt, wobei jedes der ersten Vielzahl von Elementen und der zweiten Vielzahl von Elementen ein detektiertes Ultraschallsignal von einem vorbestimmten spatialen Ort wiedergibt; und eine Anordnung zum Durchführen einer Verschiebeauswertung des zweiten Bildes im Verhältnis zum ersten Bild, um eine Bewegung zu detektieren.
  2. Vorrichtung gemäß Anspruch 1, wobei: jede der ersten zweidimensionalen Matrizen und der zweiten zweidimensionalen Matrizen in Polarkoordinaten konfiguriert sind und die Verschiebeauswertung in Polarkoordinaten entlang mindestens einer Dimension ausgeführt wird.
  3. Vorrichtung gemäß Anspruch 2, wobei die detektierte Bewegung zumindest einer Drehbewegung und/oder einer Gefäßbewegung entspricht.
  4. Vorrichtung gemäß Anspruch 3, wobei: die Drehbewegung mindestens einer globalen Drehbewegung, einer festen Drehbewegung oder einer lokalen Drehbewegung entspricht, und wobei die Gefäßbewegung mindestens einer globalen Gefäßbewegung oder einer lokalen Gefäßbewegung entspricht.
  5. Vorrichtung gemäß Anspruch 3, weiter aufweisend eine Anordnung zur Stabilisierung des zweiten Bildes im Verhältnis zum ersten Bild für mindestens eine der Drehbewegungen oder der Gefäßbewegungen, wobei die Durchführung der Stabilisierung durch die Anordnung zum Stabilisieren in Polarkoordinaten durchgeführt wird.
  6. Vorrichtung gemäß Anspruch 5, wobei die Anordnung zum Stabilisieren mindestens eine globale Drehung, eine feste Drehung, eine lokale Drehung, eine lokale Gefäßbewegung oder eine globale Gefäßbewegung stabilisiert.
  7. Vorrichtung gemäß Anspruch 6, wobei die Anordnung zum Stabilisieren mindestens einer der globalen Drehung und der festen Drehung und der globalen Gefäßbewegung eine Anordnung zum Verschieben des zweiten Bildes in Polarkoordinaten entlang zumindest einer Dimension gemäß einer Größe und einer Richtung einschließt, die von einem Ergebnis der Verschiebeauswertung abgeleitet ist.
  8. Vorrichtung gemäß Anspruch 7, weiter aufweisend eine Anordnung zum Begrenzen einer Drift, welche aufgrund der Stabilisierung des zweiten Bildes in Bezug auf das erste Bild auftritt.
  9. Vorrichtung gemäß Anspruch 8, wobei die Anordnung zum Begrenzen der Verschiebung eine Anordnung einschließt zum Verschieben des zweiten Bildes um eine Größe, welche eingestellt wird durch Verwenden von Information, welche von einer kardiovaskulären Periodizitätsüberwachung abgeleitet ist.
DE69827857T 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen Expired - Fee Related DE69827857T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US879125 1978-02-21
US87912597A 1997-06-19 1997-06-19

Publications (2)

Publication Number Publication Date
DE69827857D1 DE69827857D1 (de) 2004-12-30
DE69827857T2 true DE69827857T2 (de) 2005-12-15

Family

ID=25373482

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69827857T Expired - Fee Related DE69827857T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE69813087T Expired - Fee Related DE69813087T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE19827460A Withdrawn DE19827460A1 (de) 1997-06-19 1998-06-19 Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE69813087T Expired - Fee Related DE69813087T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE19827460A Withdrawn DE19827460A1 (de) 1997-06-19 1998-06-19 Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung

Country Status (25)

Country Link
US (2) US6095976A (de)
EP (2) EP0885594B1 (de)
JP (1) JPH11151246A (de)
KR (1) KR19990007305A (de)
AR (1) AR015123A1 (de)
AT (2) ATE283497T1 (de)
AU (2) AU8032298A (de)
BR (1) BR9814778A (de)
CA (1) CA2240651A1 (de)
CZ (1) CZ190198A3 (de)
DE (3) DE69827857T2 (de)
DK (1) DK0885594T3 (de)
EE (1) EE04166B1 (de)
ES (1) ES2192290T3 (de)
GB (1) GB2326479B (de)
HK (1) HK1050242A1 (de)
IL (1) IL125000A (de)
NO (1) NO982817L (de)
PL (1) PL326831A1 (de)
PT (1) PT885594E (de)
RU (1) RU2238041C2 (de)
SG (1) SG68672A1 (de)
SK (1) SK87098A3 (de)
UA (1) UA57011C2 (de)
WO (1) WO1998057580A1 (de)

Families Citing this family (212)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6240307B1 (en) 1993-09-23 2001-05-29 Endocardial Solutions, Inc. Endocardial mapping system
US7930012B2 (en) * 1992-09-23 2011-04-19 St. Jude Medical, Atrial Fibrillation Division, Inc. Chamber location method
WO1994006349A1 (en) * 1992-09-23 1994-03-31 Endocardial Therapeutics, Inc. Endocardial mapping system
US7189208B1 (en) * 1992-09-23 2007-03-13 Endocardial Solutions, Inc. Method for measuring heart electrophysiology
US6027451A (en) * 1997-09-26 2000-02-22 Ep Technologies, Inc. Method and apparatus for fixing the anatomical orientation of a displayed ultrasound generated image
US5885218A (en) * 1997-11-07 1999-03-23 Scimed Life Systems, Inc. Method and apparatus for spatial filtering in an intravascular ultrasound imaging system
US7806829B2 (en) * 1998-06-30 2010-10-05 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for navigating an ultrasound catheter to image a beating heart
US7670297B1 (en) 1998-06-30 2010-03-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Chamber mapping system
US7263397B2 (en) 1998-06-30 2007-08-28 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for catheter navigation and location and mapping in the heart
US6120445A (en) * 1998-10-02 2000-09-19 Scimed Life Systems, Inc. Method and apparatus for adaptive cross-sectional area computation of IVUS objects using their statistical signatures
US7837624B1 (en) 1998-11-20 2010-11-23 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasound imaging methods for extended field of view
US6352509B1 (en) * 1998-11-16 2002-03-05 Kabushiki Kaisha Toshiba Three-dimensional ultrasonic diagnosis apparatus
US6352508B1 (en) * 1998-11-20 2002-03-05 Acuson Corporation Transducer motion compensation in medical diagnostic ultrasound extended field of view imaging
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) * 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US6381350B1 (en) * 1999-07-02 2002-04-30 The Cleveland Clinic Foundation Intravascular ultrasonic analysis using active contour method and system
US6586411B1 (en) 2000-08-16 2003-07-01 Mayo Foundation For Medical Education And Research System for monitoring the location of transgenes
US6200268B1 (en) * 1999-09-10 2001-03-13 The Cleveland Clinic Foundation Vascular plaque characterization
US6896881B1 (en) * 1999-09-24 2005-05-24 Mayo Foundation For Medical Education And Research Therapeutic methods and compositions using viruses of the recombinant paramyxoviridae family
JP2001184492A (ja) * 1999-12-27 2001-07-06 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
US6402693B1 (en) * 2000-01-13 2002-06-11 Siemens Medical Solutions Usa, Inc. Ultrasonic transducer aligning system to replicate a previously obtained image
US6368277B1 (en) * 2000-04-05 2002-04-09 Siemens Medical Solutions Usa, Inc. Dynamic measurement of parameters within a sequence of images
JP3854062B2 (ja) * 2000-04-28 2006-12-06 株式会社モリタ製作所 断層面画像の表示方法、表示装置、この表示方法を実現するプログラムを記録した記録媒体
US6517488B1 (en) * 2000-06-29 2003-02-11 Acuson Corporation Medical diagnostic ultrasound system and method for identifying constrictions
CA2314794A1 (en) * 2000-08-01 2002-02-01 Dimitre Hristov Apparatus for lesion or organ localization
US6716166B2 (en) * 2000-08-18 2004-04-06 Biosense, Inc. Three-dimensional reconstruction using ultrasound
US7118740B1 (en) * 2000-09-22 2006-10-10 Mayo Foundation For Medical Education And Research Method for limiting the growth of cancer cells using an attenuated measles virus
EP1341443B1 (de) 2000-10-18 2010-12-29 Paieon Inc. System zur positionierung einer einrichtung in einem rohrförmigen organ
US6508768B1 (en) * 2000-11-22 2003-01-21 University Of Kansas Medical Center Ultrasonic elasticity imaging
US6537221B2 (en) * 2000-12-07 2003-03-25 Koninklijke Philips Electronics, N.V. Strain rate analysis in ultrasonic diagnostic images
US6773402B2 (en) 2001-07-10 2004-08-10 Biosense, Inc. Location sensing with real-time ultrasound imaging
NL1018864C2 (nl) 2001-08-31 2003-03-03 Technologiestichting Stw Inrichting en werkwijze voor het genereren van driedimensionale beelden met hardheidsinformatie van weefsel.
WO2006103644A1 (en) 2005-03-31 2006-10-05 Paieon Inc. Method and apparatus for positioning a device in a tubular organ
US6782284B1 (en) * 2001-11-21 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for semi-automatic aneurysm measurement and stent planning using volume image data
US6589176B2 (en) * 2001-12-05 2003-07-08 Koninklijke Philips Electronics N.V. Ultrasonic image stabilization system and method
NL1019612C2 (nl) * 2001-12-19 2003-06-20 Gemeente Amsterdam Stoomoververhitter.
US7024025B2 (en) * 2002-02-05 2006-04-04 Scimed Life Systems, Inc. Nonuniform Rotational Distortion (NURD) reduction
US6961468B2 (en) * 2002-03-29 2005-11-01 Sun Microsystems, Inc. Method and apparatus for adaptive local image quantification verification
US7092571B2 (en) 2002-03-29 2006-08-15 Sun Microsystems, Inc. Method and apparatus for regional image quantification verification
US7092572B2 (en) * 2002-03-29 2006-08-15 Sun Microsystems, Inc. Method and apparatus for global image quantification verification
JP4088104B2 (ja) 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
US7359554B2 (en) * 2002-08-26 2008-04-15 Cleveland Clinic Foundation System and method for identifying a vascular border
US7927275B2 (en) * 2002-08-26 2011-04-19 The Cleveland Clinic Foundation System and method of aquiring blood-vessel data
US7074188B2 (en) * 2002-08-26 2006-07-11 The Cleveland Clinic Foundation System and method of characterizing vascular tissue
TR201902962T4 (tr) * 2002-08-26 2019-03-21 Cleveland Clinic Found Vasküler dokunun karakterize edilmesine yönelik sistem ve yöntem.
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
CN1720464A (zh) 2002-12-02 2006-01-11 皇家飞利浦电子股份有限公司 用于识别成像系统中的流动区域的分割工具
WO2004051579A2 (en) * 2002-12-04 2004-06-17 Philips Intellectual Property & Standards Gmbh Apparatus and method for assisting the navigation of a catheter in a vessel
US7927278B2 (en) * 2002-12-13 2011-04-19 California Institute Of Technology Split-screen display system and standardized methods for ultrasound image acquisition and multi-frame data processing
AU2003279484A1 (en) * 2002-12-13 2004-07-09 Koninklijke Philips Electronics N.V. System and method for processing a series of image frames representing a cardiac cycle
ATE441360T1 (de) * 2003-02-25 2009-09-15 Koninkl Philips Electronics Nv Intravaskuläre bilddarstellung
US7314448B2 (en) * 2003-03-28 2008-01-01 Scimed Life Systems, Inc. Imaging transducer assembly
JP4468677B2 (ja) * 2003-05-19 2010-05-26 オリンパス株式会社 超音波画像生成方法及び超音波画像生成プログラム
US6942618B2 (en) * 2003-06-19 2005-09-13 Siemens Medical Solutions U.S.A., Inc. Change detection for optimized medical imaging
JP4799833B2 (ja) * 2003-06-19 2011-10-26 サラヤ株式会社 エコーを用いた血管径測定方法およびその装置
CA2533538A1 (en) * 2003-07-21 2005-01-27 Paieon Inc. Method and system for identifying an optimal image within a series of images that depict a moving organ
WO2005024729A1 (en) * 2003-09-04 2005-03-17 Philips Intellectual Property & Standards Gmbh Device and method for displaying ultrasound images of a vessel
DE10343808B4 (de) 2003-09-22 2017-06-01 Siemens Healthcare Gmbh Medizinisches Untersuchungs- und/oder Behandlungssystem
JP5129480B2 (ja) 2003-09-25 2013-01-30 パイエオン インコーポレイテッド 管状臓器の3次元再構成を行うシステム及び血管撮像装置の作動方法
CA2449080A1 (en) 2003-11-13 2005-05-13 Centre Hospitalier De L'universite De Montreal - Chum Apparatus and method for intravascular ultrasound image segmentation: a fast-marching method
DE10354496B4 (de) 2003-11-21 2011-03-31 Siemens Ag Medizinisches Untersuchungs- und/oder Behandlungssystem
EP1697903B1 (de) * 2003-12-19 2010-08-04 Philips Intellectual Property & Standards GmbH Verfahren zur computerunterstützten visualisierung diagnostischer bilddaten
US7542544B2 (en) * 2004-01-06 2009-06-02 The Regents Of The University Of Michigan Ultrasound gating of cardiac CT scans
US7874990B2 (en) * 2004-01-14 2011-01-25 The Cleveland Clinic Foundation System and method for determining a transfer function
US20080051660A1 (en) * 2004-01-16 2008-02-28 The University Of Houston System Methods and apparatuses for medical imaging
WO2005070299A1 (en) * 2004-01-16 2005-08-04 The University Of Houston System Methods and apparatus for medical imaging
DE102004008366B3 (de) 2004-02-20 2005-09-15 Siemens Ag Vorrichtung zur Durchführung von Laserangioplastie mit OCT-Überwachung
DE102004008373B3 (de) 2004-02-20 2005-09-29 Siemens Ag Vorrichtung zum Durchführen und Überwachen der endovaskulären Brachytherapie
DE102004008368B4 (de) * 2004-02-20 2006-05-24 Siemens Ag Katheter zur Durchführung und Überwachung von Rotablation
DE102004008371B4 (de) * 2004-02-20 2006-05-24 Siemens Ag Atherektomiekatheter
DE102004008370B4 (de) * 2004-02-20 2006-06-01 Siemens Ag Katheter zur Durchführung und Überwachung von Rotablation
US7215802B2 (en) * 2004-03-04 2007-05-08 The Cleveland Clinic Foundation System and method for vascular border detection
DE102004011156A1 (de) * 2004-03-08 2005-10-06 Siemens Ag Verfahren zur endoluminalen Bildgebung mit Bewegungskorrektur
DE102004015639B4 (de) 2004-03-31 2007-05-03 Siemens Ag Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit IVUS-Überwachung
DE102004015642B3 (de) 2004-03-31 2006-02-02 Siemens Ag Vorrichtung zur Beseitigung eines vollständigen Gefäßverschlusses mit OCT-Überwachung
DE102004015640B4 (de) 2004-03-31 2007-05-03 Siemens Ag Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit OCT-Überwachung
US7654958B2 (en) * 2004-04-20 2010-02-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for ultrasound imaging with autofrequency selection
US7397935B2 (en) 2004-05-10 2008-07-08 Mediguide Ltd. Method for segmentation of IVUS image sequences
US7578790B2 (en) * 2004-07-20 2009-08-25 Boston Scientific Scimed, Inc. Systems and methods for detecting and presenting textural information from medical images
US20060173318A1 (en) * 2004-07-20 2006-08-03 Scimed Life Systems Inc. Systems and methods for detecting and presenting textural information from medical images
US20060036147A1 (en) * 2004-07-20 2006-02-16 Scimed Life Systems, Inc. Systems and methods for detecting and presenting textural information from medical images
DE102005045071A1 (de) * 2005-09-21 2007-04-12 Siemens Ag Kathetervorrichtung mit einem Positionssensorsystem zur Behandlung eines teilweisen und/oder vollständigen Gefäßverschlusses unter Bildüberwachung
DE102004062395B4 (de) 2004-12-23 2008-10-02 Siemens Ag Intravenöse Herzschrittmacherelektrode
WO2006076409A2 (en) 2005-01-11 2006-07-20 Volcano Corporation Vascular image co-registration
US8295577B2 (en) 2005-03-31 2012-10-23 Michael Zarkh Method and apparatus for guiding a device in a totally occluded or partly occluded tubular organ
US8858441B2 (en) * 2005-05-12 2014-10-14 The Trustees Of Columbia University In The City Of New York System and method for electromechanical wave imaging of body structures
DE102005022120B4 (de) * 2005-05-12 2009-04-09 Siemens Ag Katheter, Kathetereinrichtung und bildgebende Diagnosevorrichtung
US10687785B2 (en) 2005-05-12 2020-06-23 The Trustees Of Columbia Univeristy In The City Of New York System and method for electromechanical activation of arrhythmias
DE102005027951A1 (de) 2005-06-16 2007-01-04 Siemens Ag Medizinisches System zur Einführung eines Katheters in ein Gefäß
DE102005029476A1 (de) * 2005-06-24 2007-02-08 Siemens Ag Vorrichtung zur Durchführung intravaskulärer Untersuchungen
JP2008543511A (ja) 2005-06-24 2008-12-04 ヴォルケイノウ・コーポレーション 脈管の画像作製方法
DE102005032755B4 (de) 2005-07-13 2014-09-04 Siemens Aktiengesellschaft System zur Durchführung und Überwachung minimal-invasiver Eingriffe
DE102005034167B4 (de) * 2005-07-21 2012-01-26 Siemens Ag Einrichtung und Verfahren zur Ermittlung einer Position eines Implantats in einem Körper
DE102005045373A1 (de) 2005-09-22 2007-04-05 Siemens Ag Kathetervorrichtung
DE102005045362B4 (de) * 2005-09-22 2012-03-22 Siemens Ag Vorrichtung zur Positionsbestimmung eines medizinischen Instruments, dazugehörige bildgebende Untersuchungseinrichtung nebst dazugehörigem Verfahren
DE102005045600B4 (de) 2005-09-23 2008-01-17 Siemens Ag Injektor und Verfahren zum Unterstützen der Bildgebung an einem Patienten
US7988633B2 (en) * 2005-10-12 2011-08-02 Volcano Corporation Apparatus and method for use of RFID catheter intelligence
DE102005050344A1 (de) 2005-10-20 2007-05-03 Siemens Ag Kryokatheter zur Einführung in ein Körpergefäß sowie medizinische Untersuchungs- und Behandlungsvorrichtung
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US20090221916A1 (en) * 2005-12-09 2009-09-03 The Trustees Of Columbia University In The City Of New York Systems and Methods for Elastography Imaging
DE102005059261B4 (de) * 2005-12-12 2013-09-05 Siemens Aktiengesellschaft Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung
DE102006015013B4 (de) 2006-03-31 2010-06-02 Siemens Ag Implantierbarer Herzschrittmacher
WO2007124953A1 (de) * 2006-05-02 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung
US8660325B2 (en) * 2006-07-17 2014-02-25 Koninklijke Philips N.V. Efficient user interaction with polygonal meshes for medical image segmentation
US9867530B2 (en) 2006-08-14 2018-01-16 Volcano Corporation Telescopic side port catheter device with imaging system and method for accessing side branch occlusions
DE102006061178A1 (de) 2006-12-22 2008-06-26 Siemens Ag System zur Durchführung und Überwachung minimal-invasiver Eingriffe
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
US9305334B2 (en) 2007-03-08 2016-04-05 Sync-Rx, Ltd. Luminal background cleaning
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US8781193B2 (en) 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
US8700130B2 (en) 2007-03-08 2014-04-15 Sync-Rx, Ltd. Stepwise advancement of a medical tool
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
EP2129284A4 (de) 2007-03-08 2012-11-28 Sync Rx Ltd Bildgebung und werkzeuge zur verwendung mit beweglichen organen
WO2008151676A1 (de) 2007-06-15 2008-12-18 Ge Inspection Technologies Gmbh Sensor array for navigation on surfaces
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
WO2009009802A1 (en) 2007-07-12 2009-01-15 Volcano Corporation Oct-ivus catheter for concurrent luminal imaging
WO2009009799A1 (en) 2007-07-12 2009-01-15 Volcano Corporation Catheter for in vivo imaging
CA2696190C (en) * 2007-08-17 2014-02-18 Bell Helicopter Textron Inc. System for optical recognition, interpretation, and digitization of human readable instruments, annunciators, and controls
JP5134932B2 (ja) * 2007-12-03 2013-01-30 株式会社東芝 超音波診断装置及び超音波診断装置の制御プログラム
WO2011035312A1 (en) 2009-09-21 2011-03-24 The Trustees Of Culumbia University In The City Of New York Systems and methods for opening of a tissue barrier
US20090259099A1 (en) * 2008-04-10 2009-10-15 Georgia Tech Research Corporation Image-based control systems
US9451929B2 (en) 2008-04-17 2016-09-27 Boston Scientific Scimed, Inc. Degassing intravascular ultrasound imaging systems with sealed catheters filled with an acoustically-favorable medium and methods of making and using
RU2520369C2 (ru) * 2008-06-25 2014-06-27 Конинклейке Филипс Электроникс Н.В. Устройство и способ локализации представляющего интерес объекта у субъекта
WO2010014977A1 (en) 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
WO2010030819A1 (en) 2008-09-10 2010-03-18 The Trustees Of Columbia University In The City Of New York Systems and methods for opening a tissue
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
BRPI0917609A2 (pt) * 2008-12-10 2019-10-15 Koninklijke Philips Electrnics N. V. ''sistema para executar a análise de vasos, estação de trabalho para imagens médicas, método para executar a análise de vasos, e, produto de programa de computador''
US8545412B2 (en) * 2009-05-29 2013-10-01 Boston Scientific Scimed, Inc. Systems and methods for making and using image-guided intravascular and endocardial therapy systems
WO2011015952A1 (en) * 2009-08-07 2011-02-10 Medinol Ltd. Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images
KR101812492B1 (ko) * 2009-10-12 2017-12-27 실리콘 밸리 메디컬 인스트루먼츠, 인코포레이티드 동시 기록 방식 촬영용 혈관내 초음파 시스템
US20110118590A1 (en) * 2009-11-18 2011-05-19 Siemens Medical Solutions Usa, Inc. System For Continuous Cardiac Imaging And Mapping
FR2955007B1 (fr) * 2010-01-04 2012-02-17 Sagem Defense Securite Estimation de mouvement global et dense
WO2011122200A1 (ja) 2010-03-29 2011-10-06 ソニー株式会社 データ処理装置およびデータ処理方法、画像処理装置および方法、並びに、プログラム
DE102010019421A1 (de) 2010-05-05 2011-11-10 Siemens Aktiengesellschaft Bildgebendes Verfahren zur Darstellung von Ergebnissen intravaskulärer Bildgebung und CFD-Ergebnissen sowie Medizinsystem zur Durchführung des Verfahrens
AU2011272764B2 (en) * 2010-06-30 2015-11-19 Muffin Incorporated Percutaneous, ultrasound-guided introduction of medical devices
EP2611920B1 (de) 2010-09-02 2015-05-13 Mayo Foundation For Medical Education And Research Viren für vesikuläre stomatitis
US9951117B2 (en) 2010-09-02 2018-04-24 Mayo Foundation For Medical Education And Research Vesicular stomatitis viruses
JP5944913B2 (ja) * 2010-10-28 2016-07-05 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. 超音波画像内の不均一回転歪みを低減するためのコンピュータ可読媒体及び同コンピュータ可読媒体を含むシステム
GB2485390A (en) * 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
WO2012066446A1 (en) * 2010-11-18 2012-05-24 Koninklijke Philips Electronics N.V. Sensing apparatus for sensing an object
US11141063B2 (en) 2010-12-23 2021-10-12 Philips Image Guided Therapy Corporation Integrated system architectures and methods of use
US20120330145A1 (en) * 2010-12-31 2012-12-27 Volcano Corporation Pulmonary Embolism Therapeutic Methods and Associated Devices and Systems
US11040140B2 (en) 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
US9320491B2 (en) 2011-04-18 2016-04-26 The Trustees Of Columbia University In The City Of New York Ultrasound devices methods and systems
WO2012162664A1 (en) 2011-05-26 2012-11-29 The Trustees Of Columbia University In The City Of New York Systems and methods for opening of a tissue barrier in primates
WO2013033489A1 (en) 2011-08-31 2013-03-07 Volcano Corporation Optical rotary joint and methods of use
JP6106190B2 (ja) * 2011-12-21 2017-03-29 ボルケーノ コーポレイション 血管画像における血液及び血液尤度の可視化方法
CA2875346A1 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
US9292918B2 (en) 2012-10-05 2016-03-22 Volcano Corporation Methods and systems for transforming luminal images
US9286673B2 (en) 2012-10-05 2016-03-15 Volcano Corporation Systems for correcting distortions in a medical image and methods of use thereof
US10568586B2 (en) 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
JP2015532536A (ja) 2012-10-05 2015-11-09 デイビッド ウェルフォード, 光を増幅するためのシステムおよび方法
US10070827B2 (en) 2012-10-05 2018-09-11 Volcano Corporation Automatic image playback
US9324141B2 (en) 2012-10-05 2016-04-26 Volcano Corporation Removal of A-scan streaking artifact
US9367965B2 (en) 2012-10-05 2016-06-14 Volcano Corporation Systems and methods for generating images of tissue
US9307926B2 (en) 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
US9858668B2 (en) 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
WO2014059170A1 (en) 2012-10-10 2014-04-17 The Trustees Of Columbia University In The City Of New York Systems and methods for mechanical mapping of cardiac rhythm
US9840734B2 (en) 2012-10-22 2017-12-12 Raindance Technologies, Inc. Methods for analyzing DNA
EP2931132B1 (de) 2012-12-13 2023-07-05 Philips Image Guided Therapy Corporation Vorrichtung zur gezielten kanülierung
JP2016506276A (ja) 2012-12-20 2016-03-03 ジェレミー スティガール, 血管内画像の位置の特定
US11406498B2 (en) 2012-12-20 2022-08-09 Philips Image Guided Therapy Corporation Implant delivery system and implants
US10942022B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Manual calibration of imaging system
WO2014099899A1 (en) 2012-12-20 2014-06-26 Jeremy Stigall Smooth transition catheters
US9709379B2 (en) 2012-12-20 2017-07-18 Volcano Corporation Optical coherence tomography system that is reconfigurable between different imaging modes
US10939826B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Aspirating and removing biological material
US9486143B2 (en) 2012-12-21 2016-11-08 Volcano Corporation Intravascular forward imaging device
US10058284B2 (en) 2012-12-21 2018-08-28 Volcano Corporation Simultaneous imaging, monitoring, and therapy
US9383263B2 (en) 2012-12-21 2016-07-05 Volcano Corporation Systems and methods for narrowing a wavelength emission of light
US9612105B2 (en) 2012-12-21 2017-04-04 Volcano Corporation Polarization sensitive optical coherence tomography system
CA2895993A1 (en) 2012-12-21 2014-06-26 Jason Spencer System and method for graphical processing of medical data
WO2014099672A1 (en) 2012-12-21 2014-06-26 Andrew Hancock System and method for multipath processing of image signals
US10993694B2 (en) 2012-12-21 2021-05-04 Philips Image Guided Therapy Corporation Rotational ultrasound imaging catheter with extended catheter body telescope
US10413317B2 (en) 2012-12-21 2019-09-17 Volcano Corporation System and method for catheter steering and operation
US10166003B2 (en) 2012-12-21 2019-01-01 Volcano Corporation Ultrasound imaging with variable line density
US10191220B2 (en) 2012-12-21 2019-01-29 Volcano Corporation Power-efficient optical circuit
AU2014223201B2 (en) * 2013-03-01 2017-03-02 Boston Scientific Scimed, Inc. Systems and methods for lumen border detection in intravascular ultrasound sequences
JP6243453B2 (ja) 2013-03-07 2017-12-06 ボルケーノ コーポレイション 血管内画像におけるマルチモーダルセグメンテーション
US10226597B2 (en) 2013-03-07 2019-03-12 Volcano Corporation Guidewire with centering mechanism
US20140276923A1 (en) 2013-03-12 2014-09-18 Volcano Corporation Vibrating catheter and methods of use
CN105228518B (zh) 2013-03-12 2018-10-09 火山公司 用于诊断冠状微脉管疾病的系统和方法
US10758207B2 (en) 2013-03-13 2020-09-01 Philips Image Guided Therapy Corporation Systems and methods for producing an image from a rotational intravascular ultrasound device
US11026591B2 (en) 2013-03-13 2021-06-08 Philips Image Guided Therapy Corporation Intravascular pressure sensor calibration
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US20160030151A1 (en) 2013-03-14 2016-02-04 Volcano Corporation Filters with echogenic characteristics
US10219887B2 (en) 2013-03-14 2019-03-05 Volcano Corporation Filters with echogenic characteristics
US10292677B2 (en) 2013-03-14 2019-05-21 Volcano Corporation Endoluminal filter having enhanced echogenic properties
US9247921B2 (en) 2013-06-07 2016-02-02 The Trustees Of Columbia University In The City Of New York Systems and methods of high frame rate streaming for treatment monitoring
US10322178B2 (en) 2013-08-09 2019-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for targeted drug delivery
KR102185723B1 (ko) * 2013-08-26 2020-12-02 삼성메디슨 주식회사 경동맥의 경직도를 측정하는 초음파 장치 및 그 측정 방법
US10028723B2 (en) 2013-09-03 2018-07-24 The Trustees Of Columbia University In The City Of New York Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening
JP6353038B2 (ja) * 2013-10-07 2018-07-04 アシスト・メディカル・システムズ,インコーポレイテッド 血管内撮像の信号処理
BR112015029058A2 (pt) * 2014-01-30 2017-07-25 Koninklijke Philips Nv sistema de ultrassom para detectar uma bolsa de gás em uma região de interesse, e, método de detecção de uma bolsa de gás em uma região de interesse
CN104537645A (zh) * 2014-12-15 2015-04-22 北京工业大学 一种基于血管内超声图像的roi标记点匹配方法
US11369337B2 (en) 2015-12-11 2022-06-28 Acist Medical Systems, Inc. Detection of disturbed blood flow
KR102182489B1 (ko) * 2016-07-26 2020-11-24 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 영상을 생성하는 방법, 초음파 시스템 및 기록매체
EP3569154A1 (de) 2018-05-15 2019-11-20 Koninklijke Philips N.V. Ultraschallverarbeitungseinheit und -verfahren sowie bildgebungssystem
US11911213B2 (en) * 2019-06-03 2024-02-27 General Electric Company Techniques for determining ultrasound probe motion
US11024034B2 (en) 2019-07-02 2021-06-01 Acist Medical Systems, Inc. Image segmentation confidence determination
JP7157098B2 (ja) * 2019-10-30 2022-10-19 i-PRO株式会社 血管内視鏡システムおよび血管径測定方法
CN111856474B (zh) * 2020-07-30 2023-07-25 重庆大学 一种基于子阵的空时域条件相干系数超声成像方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4063549A (en) * 1975-12-22 1977-12-20 Technicon Instruments Corporation Ultrasonic method and apparatus for imaging and characterization of bodies
GB1590950A (en) * 1976-12-11 1981-06-10 Emi Ltd System for comparing representations of a scene
US4581581A (en) * 1983-06-30 1986-04-08 General Electric Company Method of projection reconstruction imaging with reduced sensitivity to motion-related artifacts
US4803990A (en) * 1985-12-03 1989-02-14 U.S. Philips Corporation Examining moving objects by ultrasound echograpy
US4794931A (en) * 1986-02-28 1989-01-03 Cardiovascular Imaging Systems, Inc. Catheter apparatus, system and method for intravascular two-dimensional ultrasonography
US5000185A (en) * 1986-02-28 1991-03-19 Cardiovascular Imaging Systems, Inc. Method for intravascular two-dimensional ultrasonography and recanalization
US5582178A (en) * 1986-02-28 1996-12-10 Cardiovascular Imaging Systems, Inc. Method and apparatus for intravascular ultrasonography
US4841977A (en) * 1987-05-26 1989-06-27 Inter Therapy, Inc. Ultra-thin acoustic transducer and balloon catheter using same in imaging array subassembly
US5040225A (en) * 1987-12-07 1991-08-13 Gdp, Inc. Image analysis method
US4951677A (en) * 1988-03-21 1990-08-28 Prutech Research And Development Partnership Ii Acoustic imaging catheter and the like
GB2233094B (en) * 1989-05-26 1994-02-09 Circulation Res Ltd Methods and apparatus for the examination and treatment of internal organs
JPH04146737A (ja) * 1990-10-11 1992-05-20 Toshiba Corp 超音波診断装置
US5445155A (en) * 1991-03-13 1995-08-29 Scimed Life Systems Incorporated Intravascular imaging apparatus and methods for use and manufacture
US5353798A (en) * 1991-03-13 1994-10-11 Scimed Life Systems, Incorporated Intravascular imaging apparatus and methods for use and manufacture
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
JP3043873B2 (ja) * 1991-11-29 2000-05-22 フクダ電子株式会社 超音波開口面合成装置
US5217456A (en) * 1992-02-24 1993-06-08 Pdt Cardiovascular, Inc. Device and method for intra-vascular optical radial imaging
JP3213766B2 (ja) * 1992-03-16 2001-10-02 株式会社日立製作所 レプリケートファイル更新システム
US5453575A (en) * 1993-02-01 1995-09-26 Endosonics Corporation Apparatus and method for detecting blood flow in intravascular ultrasonic imaging
US5331964A (en) * 1993-05-14 1994-07-26 Duke University Ultrasonic phased array imaging system with high speed adaptive processing using selected elements
US5419328A (en) * 1993-08-09 1995-05-30 Hewlett-Packard Company Mean squared speed and myocardial performance
JP3045642B2 (ja) * 1994-01-25 2000-05-29 アロカ株式会社 超音波診断装置
US5363849A (en) * 1994-01-26 1994-11-15 Cardiovascular Imaging Systems, Inc. Enhancing intravascular ultrasonic blood vessel image
US5363850A (en) * 1994-01-26 1994-11-15 Cardiovascular Imaging Systems, Inc. Method for recognition and reduction of blood speckle in blood vessel imaging system
NO943269D0 (no) * 1994-09-02 1994-09-02 Vingmed Sound As Fremgangsmåte for analyse og måling av ultralydsignaler
US5683451A (en) * 1994-06-08 1997-11-04 Cardiovascular Concepts, Inc. Apparatus and methods for deployment release of intraluminal prostheses
GB2296565B (en) * 1994-12-23 1999-06-16 Intravascular Res Ltd Ultrasound imaging
NO943696D0 (no) * 1994-10-04 1994-10-04 Vingmed Sound As Fremgangsmåte ved ultralydavbildning
US5538004A (en) * 1995-02-28 1996-07-23 Hewlett-Packard Company Method and apparatus for tissue-centered scan conversion in an ultrasound imaging system
US5575286A (en) * 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
US5899861A (en) * 1995-03-31 1999-05-04 Siemens Medical Systems, Inc. 3-dimensional volume by aggregating ultrasound fields of view
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
JPH08280684A (ja) * 1995-04-18 1996-10-29 Fujitsu Ltd 超音波診断装置
US5752522A (en) * 1995-05-04 1998-05-19 Cardiovascular Concepts, Inc. Lesion diameter measurement catheter and method
US5596990A (en) * 1995-06-06 1997-01-28 Yock; Paul Rotational correlation of intravascular ultrasound image with guide catheter position
US5566674A (en) * 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
US5623929A (en) * 1995-06-30 1997-04-29 Siemens Medical Systems, Inc. Ultrasonic doppler flow imaging method for eliminating motion artifacts
US5503153A (en) * 1995-06-30 1996-04-02 Siemens Medical Systems, Inc. Noise suppression method utilizing motion compensation for ultrasound images
US5601085A (en) * 1995-10-02 1997-02-11 Nycomed Imaging As Ultrasound imaging
US5771895A (en) * 1996-02-12 1998-06-30 Slager; Cornelis J. Catheter for obtaining three-dimensional reconstruction of a vascular lumen and wall
US5830145A (en) * 1996-09-20 1998-11-03 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US5724978A (en) * 1996-09-20 1998-03-10 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US5876345A (en) * 1997-02-27 1999-03-02 Acuson Corporation Ultrasonic catheter, system and method for two dimensional imaging or three-dimensional reconstruction
US5971895A (en) * 1997-09-26 1999-10-26 Precor Incorporated Combined press and row exercise arm
US5885218A (en) * 1997-11-07 1999-03-23 Scimed Life Systems, Inc. Method and apparatus for spatial filtering in an intravascular ultrasound imaging system
US5921934A (en) * 1997-11-25 1999-07-13 Scimed Life Systems, Inc. Methods and apparatus for non-uniform rotation distortion detection in an intravascular ultrasound imaging system

Also Published As

Publication number Publication date
PL326831A1 (en) 1998-12-21
KR19990007305A (ko) 1999-01-25
EP0885594B1 (de) 2003-04-09
EE9800196A (et) 1999-02-15
US6152878A (en) 2000-11-28
GB2326479B (en) 2002-04-10
EP0885594A2 (de) 1998-12-23
EP0885594A3 (de) 1999-10-27
AR015123A1 (es) 2001-04-18
SK87098A3 (en) 2000-02-14
IL125000A (en) 2004-05-12
DE69813087D1 (de) 2003-05-15
DE19827460A1 (de) 1998-12-24
ATE236574T1 (de) 2003-04-15
HK1050242A1 (zh) 2003-06-13
AU8032298A (en) 1999-01-04
GB2326479A (en) 1998-12-23
IL125000A0 (en) 1999-01-26
UA57011C2 (uk) 2003-06-16
CA2240651A1 (en) 1998-12-19
EP1227342A1 (de) 2002-07-31
US6095976A (en) 2000-08-01
EP1227342B1 (de) 2004-11-24
ATE283497T1 (de) 2004-12-15
AU757314B2 (en) 2003-02-13
NO982817D0 (no) 1998-06-18
BR9814778A (pt) 2001-06-26
PT885594E (pt) 2003-08-29
JPH11151246A (ja) 1999-06-08
DE69813087T2 (de) 2004-02-05
GB9813217D0 (en) 1998-08-19
ES2192290T3 (es) 2003-10-01
AU7307498A (en) 1999-01-14
EE04166B1 (et) 2003-10-15
DK0885594T3 (da) 2003-07-14
RU2238041C2 (ru) 2004-10-20
NO982817L (no) 1998-12-21
WO1998057580A1 (en) 1998-12-23
SG68672A1 (en) 1999-11-16
CZ190198A3 (cs) 1999-10-13
DE69827857D1 (de) 2004-12-30

Similar Documents

Publication Publication Date Title
DE69827857T2 (de) Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE19611990C2 (de) Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern
DE60038382T2 (de) Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode
DE60215964T2 (de) Verfahren zur rekonstruktion eines 3d bildes mit hoher auflösung
DE69732511T2 (de) Verarbeitungsverfahren für Signale von Objekten mit sich bewegenden Teilen und Echographie-Vorrichtung dafür
DE10141516B9 (de) Medizinische Diagnostische Ultraschallabbildungsverfahren für ein erweitertes Betrachtungsfeld
DE69735737T2 (de) Medizinische diagnostische dreidimensionale Ultraschall-Abbildung von Gewebetextur und Vaskulatur
DE69917708T2 (de) Blutgefässabbildung mit adaptiver Mittelwertbildung
DE19732125C1 (de) Verfahren zur Aufnahme von Ultraschallbildern bewegter Objekte
DE60034748T2 (de) Verfahren und Vorrichtung zur bewegungsfreien kardiologischen Computertomographie
DE69533183T2 (de) Vorrichtung zur darstellung des gefäss-inneren mittels ultraschall
DE602005003015T2 (de) Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder
DE10054106A1 (de) EKG-gesteuerte Ultraschallbildzusammensetzung
DE19524880A1 (de) Endokardiale Echtzeit-Ultraschallverschiebungsanzeige
DE102005029607A1 (de) Verfahren und Anordnung zur Visualisierung biologischer Strukturen unter Anwendung von 3D Lageinformation aus Segmentierungsergebnissen
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE102016117889B3 (de) Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen
DE4236757A1 (en) Ultrasonic diagnostic appts. e.g. to generate tomographic images - senses minute tissue displacements and generates corresp. data for creating tomographic image.
DE102006002259A1 (de) Verfahren zur Untersuchung von Gefäßen eines Patienten auf der Grundlage von innerhalb eines Untersuchungsbereichs mit einem Tomographiegerät erfassten Bilddaten
DE69632775T2 (de) Geschwindigkeitsanpassbare gefilterte angiographie
DE602004008175T2 (de) Verfahren zur Erzeugung zeitunabhängiger Parameter-Bilder bewegter Objekte, wobei die Bildinformation von Eigenschaften des bewegten Objektes abhängt
EP1483742B1 (de) Verfahren und vorrichtung zur rekonstruktion und darstellung von mehrdimensionalen objekten aus ein- oder zweidimensionalen bilddaten
DE10220295A1 (de) Verfahren zur Verbesserung der Bildqualität
DE60309455T2 (de) Analyse der herzdurchblutung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee