DE69813087T2 - Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen - Google Patents

Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen Download PDF

Info

Publication number
DE69813087T2
DE69813087T2 DE69813087T DE69813087T DE69813087T2 DE 69813087 T2 DE69813087 T2 DE 69813087T2 DE 69813087 T DE69813087 T DE 69813087T DE 69813087 T DE69813087 T DE 69813087T DE 69813087 T2 DE69813087 T2 DE 69813087T2
Authority
DE
Germany
Prior art keywords
image
images
movement
accuracy
vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69813087T
Other languages
English (en)
Other versions
DE69813087D1 (de
Inventor
Ehud Nachtomy
Jacob Richter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medinol Ltd
Original Assignee
Medinol Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medinol Ltd filed Critical Medinol Ltd
Publication of DE69813087D1 publication Critical patent/DE69813087D1/de
Application granted granted Critical
Publication of DE69813087T2 publication Critical patent/DE69813087T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52046Techniques for image enhancement involving transmitter or receiver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • G01S15/8938Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions
    • G01S15/894Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions by rotation about a single axis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52025Details of receivers for pulse systems

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zur verbesserten Bild- und Signalverarbeitung für intravaskulären Ultraschall ("IVUS"), und insbesondere auf eine Vorrichtung zur Verarbeitung von IVUS-Bild- und Signalinformation, welche die Qualität und Nützlichkeit von IVUS-Bildern verbessern wird.
  • Hintergrundinformation
  • IVUS-Bilder werden von einem Strahl von Ultraschallenergie abgeleitet, welcher durch eine Vorrichtung, wie etwa einen Transducer oder eine Transducer-Matrix, angeordnet um, entlang oder an der Spitze eines Katheters, in ein Blutgefäß eingeführt wird. Ein Ultraschallstrahl von der Vorrichtung wird kontinuierlich innerhalb des Blutgefäßes gedreht, wobei er ein 360° internes Querschnittsbild ausbildet, d. h., das Bild wird ausgebildet in einer transversalen (X, Y) Ebene. Abhängend von der Konfiguration der spezifischen Vorrichtung kann das Bild abgeleitet werden entweder aus der gleichen transversalen Ebene der Vorrichtung oder von einer transversalen Ebene, die sich leicht vor (d. h. distal) der transversalen Ebene der Vorrichtung findet. Falls der Katheter ins Innere und entlang des Blutgefäßes bewegt wird (d. h. entlang der Z-Achse), können Bilder von verschiedenen Segmenten (Serien von aufeinander folgenden Querschnitten) des Gefäßes ausgebildet und angezeigt werden.
  • IVUS kann in allen Arten von Blutgefäßen verwendet werden, einschließlich, aber nicht beschränkt auf Arterien, Venen und andere periphere Gefäße, und in allen Teilen eines Körpers.
  • Das Ultraschallsignal, das empfangen (detektiert) wird, ist ursprünglich ein analoges Signal. Dieses Signal wird verarbeitet unter Verwendung analoger und digitaler Verfahren, um so letztendlich einen Satz von Vektoren auszubilden, welcher digitalisierte Daten umfasst. Jeder Vektor gibt die Ultraschallantwort eines unterschiedlichen Winkelsektors des Gefäße wieder, d. h. einen Abschnitt des Blutgefäßes. Die Anzahl der Datenelemente in jedem Vektor (axiale Abtastauflösung) und die Anzahl der Vektoren, die verwendet werden, um einen kompletten Querschnitt (laterale Abtastauflösung) des Gefäßes zu scannen, können variieren, abhängend von dem Typ des verwendeten Systems.
  • Die digitalisierten Vektoren können ursprünglich in einer zweidimensionalen Matrix platziert sein oder in einer Matrix, welche Polarkoordinaten aufweist, d. h. A(r, θ). In dieser Polarmatrix entspricht beispielsweise die X-Achse der r- Koordinate und die Y-Achse entspricht der θ-Koordinate. Jeder Wert der Matrix ist ein Wert (reichend von 0–255, falls es sich um ein 8-Bit-System handelt), welcher die Stärke der Ultraschallantwort an diesem Ort angibt.
  • Diese Polarmatrix wird gewöhnlich nicht auf einem Bildschirm übertragen, da das sich ergebende Bild durch einen Arzt nicht einfach zu interpretieren sein wird. Die Information, welche in der Polarmatrix A(r, Θ) gespeichert ist, durchläuft gewöhnlich einige Verarbeitungsstufen und wird in kartesische Koordinaten interpoliert, z. B. X- und Y-Koordinaten (A(X, Y)), welche durch einen Arzt einfacher interpretiert werden. Somit werden die X- und Y-Achse der Matrix A(X, Y) der kartesischen Darstellung des Querschnitts des Gefäßes entsprechen. Die Information in der kartesischen Matrix durchläuft möglicherweise weitere Verarbeitung und wird letztendlich zur Analyse durch einen Mediziner angezeigt. Bilder werden erhalten und angezeigt in einer variablen Rate, abhängend von dem System. Einige Systeme können Bilder erhalten und anzeigen in einer Videoanzeigerate, z. B. bis zu 30 pro Sekunde.
  • IVUS-Untersuchung eines Segments eines Körperlumens, d. h. eines Gefäßes, wird allgemein ausgeführt durch Platzieren des Katheters distal (d. h. stromabwärts) des zu betrachtenden Segments, und dann wird der Katheter langsam zurückgeschoben entlang des Körperlumens (Z-Achse), so dass aufeinender folgende Bilder, welche das Segment ausbilden, kontinuierlich angezeigt werden. In vielen Fällen ist der Katheter mit einer mechanischen Ziehvorrichtung verbunden, welche den Katheter bei einer konstanten Geschwindigkeit zieht (d. h. eine typische Geschwindigkeit ist ungefähr 0,5–1 mm/sec).
  • In IVUS-Bildsystemen wird heute die oben beschriebene Technik zur Anzeige eines Bildes eines Querschnitts eines Körperlumens, z. B. eines Blutgefäßes, allgemein verwendet. Diese Systeme sind jedoch unzureichend, da sie keinerlei Form einer Stabilisierung des Bildes einschließen, um Bewegungen des Katheters und/oder eines Körperlumens, z. B. eines Blutgefäßes, zu kompensieren. Es ist gut bekannt, dass während einer IVUS-Bildgebung eines Körperlumens immer Bewegung auftritt, verursacht durch den Katheter und/oder das Körperlumen. Diese Bewegung kann auftreten in der transversalen (X-Y)-Ebene entlang der Gefäßachse (z-Achse) oder einer Kombination dieser Bewegungen. Der Bildgabe-Katheter kann auch bezüglich des Gefäßes geneigt sein, so dass die Bildebene nicht senkrecht zur Z-Achse ist (diese Bewegung soll als Angulation bezeichnet werden). Diese Bewegungen werden verursacht durch unter Anderem den Herzschlag, Blut- oder anderen Fluidstrom durch das Gefäß, Gefäßbewegung, Kräfte, die durch den Arzt aufgebracht werden, und andere Kräfte, die durch die Physiologie des Patienten bewirkt werden.
  • In heutigen IVUS-Systemen ist, wenn der Bildgabekatheter stationär ist oder wenn ein langsamer manueller oder mechanischer Rückzug durchgeführt wird, eine relative Bewegung zwischen dem Katheter und dem Lumen der Hauptfaktor für die Änderung in einer Anmutung zwischen aufeinander folgenden Bildern, d. h., wie auf der Anzeige zu sehen und/oder auf einem Film oder Video. Diese Änderung in der Ansicht tritt auf, da die Rate der Änderung eines Bildes aufgrund von Bewegungen viel größer ist als die Rate der Änderung in der realen Morphologie aufgrund des Zurückziehens.
  • Eine Stabilisierung tritt auf, wenn die Bilder eine Kompensation für die Relativbewegung zwischen dem Katheter und dem Lumen in aufeinander folgenden Bildern einschließen. Da keines der heute verwendeten IVUS-Systeme eine Stabilisierung durchführt, gibt es dort keine Kompensation für oder eine Korrektur von relativen Bewegungen zwischen dem Katheter und dem Lumen. Als Ergebnis bewegen sich morphologische Merkmale dauernd oder sie drehen sich, d. h. auf der Anzeige und/oder Film oder Video. Dies macht es für den Arzt schwierig, eine Morphologie in einer dynamischen IVUS-Anzeige richtig zu interpretieren. Des Weiteren kann dies, wenn nicht-stabilisierte IVUS-Bilder als eine Eingabe zu einem Verarbeitungsalgorithmus zugeführt werden, wie etwa einer 3D-Rekonstruktion oder unterschiedlichen Arten von Filtern, welche einen Satz von aufeinander folgenden Bildern verarbeiten, zu einer verschlechterten Leistung und einer Fehldiagnose oder ungenauen Bestimmungen führen.
  • Aktuelle IVUS-Bildgebegeräte oder Katheter können gelegentliche Fehlfunktionen elektronischen oder mechanischen Ursprungs aufweisen. Dies kann dazu führen, dass bei angezeigten Bildern sowohl wahrgenommene als auch nicht wahrgenommene Artefakte auftreten und die wahre Morphologie verschleiern. Momentan gibt es keine automatischen Verfahren, um festzustellen, ob Bilder diese Arten von Artefakten aufweisen, welche die Analyse der Bilder des Gefäßes oder eines Körperlumens behindern.
  • Das Verhalten einer kardiovaskulären Funktion ist allgemein periodisch. die Bestimmung dieser Periodizität und auf die Fähigkeit, eine Korrelation zwischen einem Bild und der temporären Phase in dem Herzzyklus herzustellen, zu welchem diese gehört, wird Bezug genommen als Cardiac-Gating.
  • Momentan wird Cardiac-Gating durchgeführt durch Verwendung eines externen Signals, gewöhnlich einem EKG (Elektrokardiogramm). Jedoch erfordert EKG-Gating sowohl die Aufnahme des EKG-Signals als auch seine Zwischenlagerung (oder Synchronisation) mit dem IVUS-Bild. Dies erfordert zusätzliche Hardware/Software.
  • Morphologische Merkmale in IVUS-Bildern in Blutgefäßen können in drei allgemeine Kategorien unterteilt werden: das Lumen, d. h. der Bereich, durch welchen das Blut oder andere Körperflüssigkeiten fließen; die Gefäßschichten; und das Äußere, d. h. das Gewebe oder eine Morphologie außerhalb des Gefäßes. Blut wird in den meisten IVUS-Filmen (Bildern) charakterisiert durch ein sich schnell änderndes Fleckenmuster. Das Äußere des Gefäßes ändert sich auch mit hoher zeitlicher Frequenz. Momentan werden das zeitliche Verhalten der Pixel und deren Texturattribute nicht automatisch überwacht.
  • Eine Gefäßbewegung im Kontext des Körperlumens, z. B. Blutgefäße, wird definiert als die Änderung in dem Kaliber des Lumens, z. B. eines Gefäßes. Diese Änderung kann hervorgebracht werden durch natürliche Umstände oder unter induzierten Bedingungen. Eine Gefäßbewegung kann eine dynamische Komponente aufweisen, d. h. eine dynamische Änderung der Dimensionen des Lumens, z. B. des Kalibers des Gefäßes (Zusammenziehen und Aufweiten) während des kardiovaskulären Zyklus, und eine statische Grundlinienkomponente, d. h. eine Änderung in dem Grundlinienkaliber des Lumens, z. B. eines Gefäßes.
  • Eine Gefäßbewegung kann ausgedrückt werden als quantitative physiologische Parameter, welche die Fähigkeit des Lumens, z. B. eines Gefäßes, anzeigen, sein Kaliber unter bestimmten Bedingungen zu ändern. Diese Arten von Parametern weisen derzeit und möglicherweise in Zukunft eine medizinische und diagnostische Wichtigkeit auf beim Vorsehen von Information bezüglich des Zustands des Lumens, z. B. eines Gefäßes, und der Wirkung der durchgeführten Therapie.
  • IVUS kann verwendet werden, um eine Gefäßbewegung zu überwachen, da es ein Bild eines Lumen-Grundlinienkalibers und dessen dynamische Änderungen vorsieht. Zusätzlich kann IVUS verwendet werden, um zu überwachen, ob die Gefäßbewegung global (uniform) ist, d. h., wo der gesamte Querschnitt des Lumens sich zusammenzieht/sich ausdehnt in gleicher Stärke und Richtung. IVUS kann auch verwendet werden, um festzustellen, ob die Gefäßbewegung nicht einheitlich ist, was zu lokalen Änderungen im Kaliber des Lumens führt, d. h., unterschiedliche Teile des Lumenquerschnitts verhalten sich unterschiedlich.
  • Momentan werden alle Arten von Gefäßbewegungsüberwachung durch IVUS manuell durchgeführt. Dies ist anstrengend, zeitaufwändig und verhindert ein Überwachen der Gefäßbewegung in Echtzeit.
  • Eine Interpretation von IVUS-Bildern wird erreicht durch Analyse der Zusammensetzung der statischen Bilder und Überwachen von deren zeitlichem Verhalten. Die meisten IVUS-Bilder können unterteilt werden in drei Grundteile. Der innerste Abschnitt ist der Strömungsdurchgang des Lumens, d. h. der Hohlraum, durch welchen Materie, d. h. Blut, fließt. Um den Strömungsdurchgang befindet sich das eigentliche Gefäß, welches Blutgefäße und irgendwelche anderen Körpergefäße einschließen kann, welches zusammengesetzt ist aus mehreren Lagen von Gewebe (und Ablagerung, falls erkrankt). Außerhalb des Gefäßes anderes Gewebe, welches zu der umgebenden Morphologie gehören kann, z. B. das Herz in einem Herzgefäßbild.
  • Wenn der IVUS-Film dynamisch betrachtet wird, d. h. im Filmformat, zeigen die Pixel, welche einer Materie entsprechen, welche durch das Gefäß fließt, und des morphologischen Äußeren des Gefäßes ein unterschiedliches zeitliches Verhalten als das Gefäß selbst. Zum Beispiel wird in den meisten IVUS-Filmen Blut, welches durch das Gefäß fließt, gekennzeichnet durch ein sich häufig änderndes Fleckenmuster. Das morphologische Äußere des Gefäßes zeigt auch häufig Ände rung. Momentan wird das zeitliche Verhalten der Pixel in dynamischen IVUS-Bildern nicht automatisch überwacht.
  • In momentanen IVUS-Anzeigen werden, falls in dem System verwirklicht, hoch frequente zeitliche Änderungen unterdrückt durch Mittel, wie etwa einer Mittelung über eine Anzahl von Bildern. Jedoch versagt dies manchmal, um das Auftreten von Merkmalen mit hohen Amplituden zu unterdrücken, d. h. Hellgrau-Werte, und dies weist auch eine verzerrende Wirkung auf.
  • Die Größe des Strömungsdurchgangs des Lumens ist ein sehr wichtiger diagnostischer Parameter. Wenn es für Diagnosen erforderlich ist, wird er manuell bestimmt durch, beispielsweise, einen Arzt. Dies wird erreicht durch Zeichnen der Kontur der Strömungsdurchgangsgrenzen, überlagert auf einem statischen Bild, z. B. auf einem eingefrorenen Video oder auf einer Geräteanzeige. Dieses Verfahren einer manuellen Extrahierung ist zeitaufwändig, ungenau und einer Vorspannung unterworfen.
  • Derzeit gibt es eine kommerzielle Bildverarbeitungssoftware für die automatische Extrahierung des Strömungsdurchgangs. Jedoch basieren diese auf der Grauwertzusammensetzung von statischen Bildern und sie berücksichtigen nicht das unterschiedliche zeitliche Verhalten, welches durch das Material auftritt, z. B. Blut, welches durch den Durchgang im Gegensatz zu den Gefäßschichten strömt.
  • Während einer Behandlung von Gefäßen ist es allgemeine Praxis, IVUS-Rückziehuntersuchungen in den gleichen Gefäßsegmenten zu wiederholen. Beispielsweise ist es eine typische Situation, zunächst das in Frage stehende Segment zu begutachten, die Erkrankung zu evaluieren (falls überhaupt eine vorliegt), den IVUS-Katheter zu entfernen, Therapiemöglichkeiten zu bedenken; eine Therapie durchzuführen, z. B. PTCA-"Ballon" oder Stent-Setzung, und dann unmittelbar darauf das behandelte Segment erneut zu untersuchen unter Verwendung von IVUS, um die Ergebnisse der Therapie zu bestimmen. Um die Ergebnisse richtig zu evaluieren und die Wirkung der durchgeführten Therapie voll zu würdigen, ist es wünschenswert, die Bilder der Segmente vor Behandlung und nach Behandlung, welche Querschnitte der Gefäße wiedergeben, welche an den gleichen Stellen entlang der Z-Achse des Gefäßes liegen (d. h. entsprechende Segmente), zu vergleichen. Um diesen Vergleich zu bewerkstelligen, muss bestimmt werden, welche Stellen in den Filmen der IVUS-Bilder vor Behandlung und der IVUS-Bilder nach Behandlung einander entsprechen. Dieser Vorgang, genannt Abgleich (Registrierung), erlaubt einen genauen Vergleich der IVUS-Bilder vor und nach Untersuchung.
  • Momentan wird ein Abgleichen gewöhnlich durchgeführt durch Betrachten der IVUS-Rückziehfilme der Segmente vor und nach Behandlung eines nach dem anderen oder Seite an Seite durch Verwendung identifizierbarer anatomischer Hinweise, um die Sequenzen, welche sich gegenseitig visuell entsprechen, zu lokalisieren. Dieses Verfahren ist extrem ungenau und schwierig zu bewerkstelligen, berücksichtigt man, dass die Bilder instabil sind und sich oft drehen und/oder sich über die Anzeige bewegen aufgrund des Fehlens einer Stabilisierung, und da viele der anatomischen Merkmale, die in dem IVUS-Rückziehfilm des Segments vor Behandlung sich finden, zerstreut oder geändert sein können als Ergebnis der an dem Gefäß durchgeführten Therapie. Des Weiteren ändert sich wahrscheinlich die Orientierung und Erscheinung des Gefäßes als Ergebnis unterschiedlicher Orientierungen und relativer Positionen des IVUS-Katheters bezüglich des Gefäßes aufgrund seiner Entfernung und Wiedereinsetzung, nachdem die Therapie abgeschlossen ist. Der Abgleich, der durchgeführt wird, ist manuell und verlässt sich in erster Linie auf eine manuelle visuelle Identifikation, welche extrem zeitaufwändig und ungenau sein kann.
  • Wengnang et al. in "Proc of IEEE Computers in Cardiology", 23.–26. September 1991, Seiten 353–356, bezieht sich auf eine Bild-für-Bild-Verfolgung der Lumengrenze von IVUS-Bildern. Jedoch findet sich dort keine Bewegungskompensation eines zweiten Bildes in Bezug auf ein erstes Bild. Was getan wird, ist nur ein Re produzieren von Kopien eines Referenzbildes, welches erhalten wird durch Mittelung mehrerer Bilder. Jedoch führt eine Mittelung von Bildern nicht zu bewegungskompensierten Bildern.
  • US 5,623,929 bezieht sich auf US-Dopplerfluss-Bildgebung zur Eliminierung von Bewegungsartefakten. Bilder werden von der Außenseite des menschlichen Körpers her aufgenommen und sollen nur den Blutstrom zeigen. Daher ist keine Bewegungskompensation, sondern eine Bewegungsvisualisierung offenbart.
  • Marraccini et al. unternimmt in "Journal of Electronic Imaging", April 1995, Bd. 4(2), Seiten 123–130, Versuche, um die Positionen des Herzlumens durch Ausrichten von deren Schwerpunkten zu komgieren. Jedoch gibt es dort keine Bewegungskompensation eines zweiten Bildes bezüglich eines ersten Bildes.
  • Die Aufgabe der vorliegenden Erfindung ist es, eine intravaskuläre Ultraschall-Abbildungsvorrichtung vorzusehen, welche schärfere intravaskuläre Bilder ergibt. Diese Aufgabe wird erreicht durch eine Vorrichtung gemäß Anspruch 1. Weitere Ausführungsformen sind in den abhängigen Ansprüchen definiert.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung löst die mit IVUS-Bildsystemen, die momentan auf dem Markt sind, und mit dem Stand der Technik verbundenen Probleme dadurch, dass die Ärzte mit genauen IVUS-Bildern und Bildsequenzen der untersuchten Morphologie versorgt werden, wobei eine genauere Diagnose und Evaluierung ermöglicht wird.
  • Die vorliegende Erfindung verarbeitet IVUS-Bild- und Signalinformation, um Verzerrungen und Ungenauigkeiten, bewirkt durch verschiedene Arten von Bewegung sowohl des Katheters als auch des Körperlumens zu entfernen. Dies führt sowohl zu einer verbesserten Qualität und Nutzbarkeit von IVUS-Bildern. Ein Vorteil, der durch die vorliegende Erfindung vorgesehen wird, ist, dass individuelle IVUS-Bilder bezüglich (einem) vorherigem/vorherigen Bild(ern) stabilisiert werden, wobei negative Wirkungen auf irgendeine spätere Verarbeitung von Mehrfachbildern entfernt wird. Falls die Bewegungen von jedem Bild vom transversalen Typ sind, ist es dann für die Bewegung möglich, in jedem angeforderten Bild kompensiert zu werden.
  • Die vorliegende Erfindung erlaubt auch einen Volumenrekonstruktionsalgorithmus, um genau die Morphologie zu reproduzieren, da eine Bewegung des Körperlumens stabilisiert wird. Die vorliegende Erfindung ist anwendbar und nützlich in jeglicher Art von System, dort wo das Bedürfnis besteht, Bilder (IVUS oder andere) zu stabilisieren, da eine Sonde (z. B. Ultraschall oder eine andere), welche sich durch ein Lumen bewegt, eine relative Bewegung erfährt (d. h. der Sonde und/oder des Lumens).
  • Die vorliegende Erfindung bietet eine Detektion eines Ultraschallsignals, welches durch ein Ultraschallgerät in ein Körperlumen emittiert wird, Umwandlung des empfangenen analogen Signals in Polarkoordinaten (A(r, Θ)), Stabilisierung in dem polaren Feld, Konvertierung der stabilisierten Polarkoordinaten in kartesische Koordinaten (A(X, Y)), Stabilisierung in dem kartesischen Feld und dann Transferieren des stabilisierten Bildes als kartesische Koordinaten zu einer Anzeige. Stabilisierte Bilder, entweder in Polar- oder kartesischen Koordinaten, können weitererarbeitet werden vor einer Anzeige oder sie können nicht angezeigt werden. Konvertierung in kartesische Koordinaten und/oder Stabilisierung in dem kartesischen Feld können vorgenommen werden an irgendeinem Punkt sowohl vor oder nach Stabilisierung in dem polaren Feld. Zusätzlich können entweder Polar- oder kartesische Stabilisierung unterdrückt sein, abhängend von der detektierten Verschiebung in dem Bild und/oder anderen Faktoren. Weiter können zusätzliche Formen der Stabilisierung enthalten sein oder unterdrückt werden, abhängend von der detektierten Verschiebung und/oder anderen Faktoren.
  • Beispielsweise kann eine Stabilisierung einer festen Bewegung eingefügt werden, um eine Drehbewegung (angular) oder eine globale Gefäßbewegung (Expansion oder Kontraktion in der r-Richtung) in dem Polarfeld und/oder eine kartesische Verschiebung (X- und/oder Y-Richtung) in dem kartesischen Feld zu kompensieren.
  • Transversale feste Bewegung zwischen den Wiedergaben von aufeinander folgenden Bildern wird als "Verschiebung" bezeichnet, d. h. eine einheitliche Bewegung aller morphologischen Merkmale in der Ebene des Bildes. Um IVUS-Bilder zu stabilisieren, ist der erste Schritt, der ausgeführt wird, eine "Verschiebungsevaluierung und -bestimmung". Das ist, wo die Verschiebung (falls überhaupt) zwischen jedem Paar von aufeinander folgenden Bildern evaluiert und bestimmt wird. Das System kann einen Prozessor verwenden, um eine Operation an einem Paar von aufeinander folgenden IVUS-Bildern durchzuführen, um zu bestimmen, ob eine Verschiebung zwischen solchen Bildern dort stattgefunden hat. Der Prozessor kann einen einzelnen Algorithmus verwenden, oder er kann aus einer Anzahl von Algorithmen, die zu verwenden sind, beim Vornehmen dieser Bestimmung auswählen.
  • Das System verwendet den Algorithmus/die Algorithmen, um eine Verschiebung in einem Bild zu simulieren, und vergleicht dann dieses verschobene Bild mit seinem Vorgängerbild. Die Vergleiche zwischen Bildern sind bekannt als Genauigkeitsoperationen, welche auch im Stand der Technik als Abgleich bekannt sein können. Das System führt eine einzelne Genauigkeitsoperation für jede Verschiebung durch. Die Ergebnisse der Serie von Genauigkeitsoperationen wird evaluiert, um den Ort (Richtung und Größe) des verschobenen Bildes zu bestimmen, welches die nächste Ähnlichkeit zu dem vorhergegangenen unverschobenen Bild trägt. Ein Bild kann natürlich in der gleichen Art und Weise mit seinem Vorgängerbild verglichen werden. Nachdem die eigentliche Verschiebung bestimmt wird, wird das momentane Bild das Vorgängerbild, das nächste Bild wird das momentane Bild und die obige Operation wird wiederholt.
  • Unter Verwendung einer Verschiebungsevaluierung und -bestimmung bestimmt das System die Art der transversalen Verschiebung, z. B. Drehung, Expansion, Kontraktion, Verschiebung (kartesisch), usw., zusammen mit der Richtung und Stärke der Verschiebung. Der nächste Schritt ist die "Verschiebungsimplementierung". Das ist, wo das System eine Operation oder eine Serie von Operationen an aufeinander folgenden IVUS-Bildern durchführt, um jedes der Bilder bezüglich seinem angrenzenden Vorgängerbild zu stabilisieren. Diese Stabilisierung verwendet eine oder mehrere "Umkehrverschiebungen", welche abzielen auf ein Löschen der bestimmten Verschiebung. Das System kann einen Algorithmus einschließen oder kann aus einer Anzahl von Algorithmen auswählen, die zu verwenden sind, um jede "Rückwärtsverschiebung" zu implementieren. Die Logik, welche darüber entscheidet, welche Rückwärtsverschiebung eigentlich bei einem Bild implementiert werden wird, vor dessen Zufuhr zur weiteren Verarbeitung oder Anzeige, wird Bezug genommen als "Verschiebungslogik". Sobald die IVUS-Bilder für die gewünschten Arten von bestimmter Bewegung stabilisiert sind, kann das System die kartesische (oder polare) Bildinformation für weitere Verarbeitung und letztlich für eine Anzeige, wo die Ergebnisse der Stabilisierung betrachtet werden können, z. B. durch einen Arzt, übertragen. Alternativ kann eine Stabilisierung für den Benutzer unsichtbar sein, in dem Sinn, dass eine Stabilisierung vor irgendwelchen anderen Verarbeitungsschritten verwendet werden kann, nach welchen resultierende Bilder auf die Anzeige projiziert werden in ihrer originalen unstabilisierten Haltung oder Orientierung.
  • Es ist möglich, dass die transversale Bewegung zwischen den Bildern nicht fest sein wird, sondern eher von lokaler Natur, d. h., unterschiedliche Abschnitte des Bildes werden Bewegung in unterschiedliche Richtungen und Stärken zeigen. In diesem Fall können die oben beschriebenen Stabilisierungsverfahren oder andere Arten von Verfahren auf einer lokalen Basis implementiert sein, um eine solche Bewegung zu kompensieren.
  • Die vorliegende Erfindung bietet eine Bestimmung der Herzperiodizität durch Verwendung der Information, welche nur von IVUS-Bildern abgeleitet ist, ohne das Erfordernis nach einem externen Signal, wie etwa ein EKG. Dieses Verfahren schließt Genauigkeitsoperationen ein, welche auch teilweise in dem Stabilisierungsverfahren verwendet werden. Eine wichtige Funktion der Bestimmung einer Periodizität (d. h. Cardio-Gating) ist, wenn der Katheter stationär ist oder wenn ein gesteuertes IVUS-Rückziehen durchgeführt wird, dass sie die Auswahl von Bildern erlaubt, welche zu der gleichen Phase in aufeinander folgenden Herzzyklen gehören. Ein Auswählen von Bildern basierend auf dem Cardio-Gating wird eine Stabilisierung aller Arten von periodischer Bewegung (einschließlich transversal, Z-Achse und Winkelungen) in dem Sinn erlauben, dass Bilder aus der gleichen Phase in aufeinander folgenden Herzschlägen ausgewählt werden. Diese IVUS-Bilder können beispielsweise angezeigt werden und irgendwelche Lücken, entstanden zwischen ihnen, können kompensiert werden durch Ausfüllen und Anzeigen interpolierter Bilder. Die IVUS-Bilder, die durch diese Operation ausgewählt sind, können auch weiter gesandt werden für weitere Verarbeitung.
  • Die verwendeten Genauigkeitsoperationen für eine Periodizitätsbestimmung können auch verwendet werden zur Überwachung einer Bildqualität und Artefakte anzeigen, die mit einer Fehlfunktion der Bild- und Verarbeitungsvorrichtung zusammenhängen.
  • Operationen, die zur Verschiebungsevaluierung verwendet werden, können automatisch Gefäßbewegung anzeigen. Dies kann dem Stabilisierungsvorgang dienen, da Gefäßbewegung bewirkt, dass aufeinander folgende Bilder voneinander abweichen aufgrund der Änderung in dem Kaliber des Gefäßes. Falls Bilder für eine Gefäßbewegung stabilisiert sind, ist dann auch diese Änderung kompensiert. Alternativ kann die Information, welche die Änderung in einem Kaliber betrifft, angezeigt werden, da dies physiologische Signifikanz aufweisen kann. Eine Überwachung von Gefäßbewegung wird erreicht durch Anwenden von Genauigkeitsoperationen bei aufeinander folgenden Bildern unter Verwendung ihrer Polardar stellungen, d. h. A(r, θ). Diese Operationen können angewandt werden zwischen gesamten Bildern oder zwischen entsprechenden individuellen Polarvektoren (für aufeinander folgende Bilder), abhängig von der Art der gewünschten Information. Da eine globale Gefäßbewegung ausgedrückt wird als eine uniforme Änderung im Kaliber des Lumens, kann sie bewertet werden durch eine Genauigkeitsoperation, welche das gesamte Polarbild in Erwägung zieht. Allgemein kann irgendeine Operation, welche für eine globale Stabilisierung der Polarwiedergabe geeignet ist, verwendet werden, um eine globale Gefäßbewegung zu bewerten.
  • Unter bestimmten Bedingungen während einer IVUS-Abbildung kann eine nichtuniforme Gefäßbewegung auftreten, d. h. Bewegung nur in bestimmten Abschnitten des IVUS-Bildes entsprechend spezifischen Orten in dem Körperlumen. Dies kann z. B. auftreten, wo eine Arterie eine Ansammlung von Plaque an einer bestimmten Stelle aufweist, wodurch eine Expansion oder Kontraktion der Arterie nur in Bereichen frei von Plaque-Ansammlung ermöglicht ist. Wenn eine solche Bewegung bestimmt wird, ist das System in der Lage, die Ultraschallsignale, welche Querschnitte des Körperlumens darstellen, in mehrere Segmente zu unterteilen, welche dann jeder individuell bezüglich einem entsprechenden Segment in dem angrenzenden Bild verarbeitet wird unter Verwendung bestimmter Algorithmen/eines bestimmten Algorithmus. Die resultierenden IVUS-Bilder können dann angezeigt werden. Diese Form der Stabilisierung kann individuell verwendet werden oder im Zusammenhang mit den vorher diskutierten Stabilisierungstechniken. Alternativ kann die Information bezüglich der lokalen Änderung in einem Gefäßkaliber angezeigt werden, da dies physiologische Signifikanz aufweisen könnte.
  • Das zeitliche Verhalten von Pixeln und deren Texturattributen kann dienen zu: Verbesserung der Anzeige; und automatische Segmentation (Lumenextraktion). Falls in einem stabilisierten Bildumfeld überwacht, kann dann die Leistung des Anzeigeverbesserungs- und Segementationsverfahrens verbessert sein.
  • Gemäß der vorliegenden Erfindung kann das zeitliche Verhalten der IVUS-Bilder automatisch überwacht werden. Die durch eine solche Überwachung extrahierte Information kann verwendet werden, um die Genauigkeit der IVUS-Bildinterpretation zu verbessern. Durch Filtern und Unterdrücken der sich rasch ändernden Merkmale, wie etwa der Materie, z. B. Blut, welche durch das Gefäß und das morphologische Äußere zu dem Gefäß als Ergebnis deren zeitlicher Änderung fließt, kann eine menschliche Wahrnehmung des Gefäßes sowohl auf statischen Bildern als auch bei dynamischen Bildern, z. B. Bildern, die in Filmform abgespielt werden, verbessert werden.
  • Eine automatische Segmentation d. h. eine Identifizierung des Gefäßes und der Materie, z. B. Blut, welche durch das Gefäße strömt, kann durchgeführt werden durch Verwendung eines Algorithmus, welcher automatisch die Materie, z. B. Blut, identifiziert, basierend auf dem zeitlichen Verhalten von Texturattributen, die durch deren vorhandene Pixel ausgebildet sind. Das zeitliche Verhalten, welches von den Bildern extrahiert wird, kann verwendet werden für verschiedene Zwecke. Zum Beispiel kann eine zeitliche Filterung durchgeführt werden zur Bildverbesserung und eine Überwachung der Änderungen in einer Pixeltextur kann verwendet werden zur automatischen Identifizierung des Lumens und seines Umfangs.
  • In allen IVUS-Bildern wird der Katheter selbst (und eine Abbildungsvorrichtung) am Besten von dem Bild vor dem Durchführen einer Stabilisierung oder zur Beobachtung entfernt. Ein Versäumnis, den Katheter zu entfernen, kann Stabilisierungstechniken und eine Überwachung beeinträchtigen. Ein Entfernen des Katheters kann automatisch durchgeführt werden, da seine Dimensionen bekannt sind.
  • Die vorliegende Erfindung bietet auch eine automatische Identifizierung (d. h. Abgleich oder Registrierung) von entsprechenden Bildern von zwei unterschiedlichen IVUS-Rückziehfilmen des gleichen Segments eines Gefäßes, z. B. vor Behandlung und nach Behandlung. Um einen ersten IVUS-Rückzugsfilm, d. h. eine erste IVUS-Bildsequenz, mit einem zweiten IVUS-Rückzugsfilm, d. h. einer zweiten IVUS-Bildfrequenz, des gleichen Segments eines Körperlumens zu vergleichen, beispielsweise aufgenommen auf Video, Film oder in digitalisierter Form, müssen die Bildsequenzen synchronisiert sein. Ein Abgleichen, welches erreicht wird durch Synchronisierung, schließt ein Durchführen von Genauigkeitsoperationen zwischen Gruppen von aufeinander folgenden Bildern ein, welche zu den zwei Sätzen von IVUS-Bildsequenzen gehören.
  • Aus einer Bildsequenz wird eine Gruppe von aufeinander folgenden Bildern, bezeichnet als Referenzgruppe, ausgewählt. Diese Gruppe soll von einem Abschnitt des Gefäßes ausgewählt werden, welches in beiden Bildsequenzen angezeigt wird, und es soll ein Abschnitt sein, bei welchem eine Therapie nicht durchgeführt werden wird, da die Morphologie des Gefäßes sich womöglich aufgrund der Therapie ändern wird. Eine weitere Bedingung für diesen Abgleichvorgang ist, dass die zwei Bildsequenzen bei einer bekannten konstanten und bevorzugt der gleichen Rückzugsrate erhalten werden.
  • Genauigkeitsoperationen werden zwischen den Bildern der Referenzgruppe und den Bildern von der zweiten Gruppe durchgeführt, welche die gleiche Anzahl von aufeinander folgenden Bildern, extrahiert von der zweiten Bildsequenz, aufweist. Diese zweite Gruppe von Bildern wird dann um ein einzelnes Bild bezüglich der Referenzgruppe verschoben und die Genauigkeitsoperationen werden wiederholt. Dies kann für eine vorbestimmte Anzahl von Malen wiederholt werden und die Genauigkeitsergebnisse einer jeden Bildverschiebung werden verglichen, um eine maximale Genauigkeit zu bestimmen. Maximale Genauigkeit wird die Bildverschiebung zwischen den Bildern der zwei Bildsequenzen bestimmen. Diese Verschiebung kann umgekehrt werden in dem ersten oder zweiten Film, so dass entsprechende Bilder automatisch identifiziert und/oder gleichzeitig betrachtet werden können.
  • Somit können entsprechende Bilder beispielsweise betrachtet werden, um die Effizienz irgendeiner Therapie, welche durchgeführt wird, oder eine Änderung in der Morphologie über die Zeit zu bestimmen. Zusätzlich können die verschiedenen Arten der oben diskutierten Stabilisierung innerhalb oder zwischen den Bildern in den zwei Sequenzen implementiert sein, entweder vor, während oder nach dieser Abgleichoperation. Somit können die zwei Filme nicht nur in einer synchronisierten Art und Weise angezeigt werden, sondern auch in der gleichen Orientierung und Ausrichtung bezüglich zueinander.
  • Kurze Beschreibung der Zeichnungen
  • 1(a)und(b) zeigen eine zweidimensionale Anordnung oder Matrix eines Bildes, jeweils angeordnet in digitalisierten Vektoren in polaren und kartesischen Koordinaten.
  • 2 veranschaulicht die Ergebnisse der Verschiebungsevaluierung zwischen zwei aufeinander folgenden Bildern in kartesischen Koordinaten.
  • 3 zeigt Bilder, welche das Auftreten eines Driftphänomens in polaren und kartesischen Koordinaten veranschaulichen.
  • 4 veranschaulicht die Wirkung einer Durchführung von Stabilisierungsoperationen (Dreh- und kartesische Verschiebungen) auf ein Bild.
  • 5 veranschaulicht eine globale Kontraktion oder Aufweitung eines Körperlumens, ausgedrückt in der polaren Darstellung des Bildes und in der kartesischen Darstellung des Bildes.
  • 6 zeigt ein Bild, unterteilt in vier Abschnitte zur Verarbeitung gemäß der vorliegenden Erfindung.
  • 7 zeigt ein Gefäß sowohl in kartesischen als auch in Polarkoordinaten, bei welchem eine lokale Gefäßbewegung bestimmt wurde.
  • 8 veranschaulicht die Ergebnisse einer lokalen Gefäßbewegungsüberwachung in einem echten Herzgefäß in graphischer Form.
  • 9 zeigt ein EKG und einen Kreuzkorrelationskoeffizienten, graphisch ausgedrückt in synchroner Art und Weise.
  • 10 zeigt eine Tabelle einer Gruppe von Kreuzkorrelationskoeffizientenwerten (mittlere Reihe), welche zu aufeinander folgenden Bildern gehören (Ziffern 1 bis 10, gezeigt in der oberen Reihe) und die Ergebnisse der internen Kreuzkorrelationen (untere Reihe).
  • 11 zeigt eine Auftragung eines Kreuzkorrelationskoeffizienten, welcher auf ein Artefakt in IVUS-Bildern hinweist.
  • 12 zeigt IVUS-Bilder, unterteilt in drei Grundteile: das Lumen, durch welches Flüssigkeit strömt; das eigentliche Gefäß; und das umgebende Gewebe.
  • 13 veranschaulicht die Ergebnisse der zeitlichen Filterung.
  • 14 zeigt ein Bild der Ergebnisse des Algorithmus für automatische Extraktion des Lumens.
  • 15 veranschaulicht die Zeitsequenz eines ersten Films (linke Spalte), ein Referenzsegment von einem zweiten Film (mittlere Spalte) und die Bilder von dem ersten Film, welche den Bildern des Referenzsegments (rechte Spalte) entsprechen (oder sich decken damit).
  • Detaillierte Beschreibung
  • In intravaskulären Ultraschall-(IVUS)-Bildsystemen werden die Ultraschallsignale emittiert und empfangen von der Ultraschallvorrichtung, z. B. einem Transducer oder einer Transducer-Matrix, verarbeitet und letztlich als Vektoren angeordnet, welche digitalisierte Daten umfassen. Jeder Vektor stellt die Ultraschallantwort eines unterschiedlichen Winkelsektors des Körperlumens dar. Die Anzahl der Datenelemente in jedem Vektor (axiale Abtastauflösung) und die Anzahl der Vektoren, welche verwendet ist, um den gesamten Querschnitt (laterale Abtastauflösung) des Körperlumens abzutasten, hängt von dem spezifischen verwendeten IVUS-System ab.
  • Die digitalisierten Vektoren sind ursprünglich in eine zweidimensionale Anordnung oder Matrix gepackt, welche in 1(a) veranschaulicht ist. Allgemein weist diese Matrix auf, was als Polarkoordinaten bekannt ist, d. h. Koordinaten A(r, B). Die X-Achse der in 1(a) gezeigten Matrix entspricht der r-Koordinate, während die Y-Achse der Matrix der θ-Koordinate entspricht. Jeder Wert der Matrix ist allgemein ein Grauwert, z. B. reichend von 0–255, falls es 8 Bit sind, die Stärke des Ultraschallsignals an dieser entsprechenden Stelle in dem Körperlumen darstellend. Diese Polarmatrix kann dann in eine kartesische Matrix, wie in 1(b) gezeigt, umgewandelt werden, welche eine X-Achse und eine Y-Achse aufweist, welche der kartesischen Darstellung des Querschnitts des Gefäßes entsprechen. Dieses Bild kann dann weiter verarbeitet werden und zu einer Anzeige übertragen werden. Die ursprüngliche Matrix und die Anzeige können jede entweder Polar- oder kartesische Koordinaten verwenden. Die Werte für die Matrix können andere als Grauwerte sein, z. B. können sie Farbwerte oder andere Werte sein, und sie können weniger oder mehr als 8 Bit haben.
  • Während eines IVUS-Bildgebungsrückziehvorgangs können das Körperlumen, im Folgenden Bezug genommen als ein Gefäß, und/oder der Bildkatheter, verschiedene Arten von Relativbewegung erfahren. Diese Arten der Bewegung schließen ein: (1) Drehung in der Ebene des Bildes; d. h. eine Verschiebung in der θ-Koordinate des polaren Bildes; (2) kartesische Verschiebung, d. h. eine Verschiebung in der X- und/oder Y-Koordinate in dem kartesischen Bild; (3) globale Gefäßbewegung, gekennzeichnet durch eine radiale Kontraktion und Expansion des gesamten Gefäßes, d. h. eine uniforme Verschiebung in der r-Koordinate des Polarbildes; (4) lokale Gefäßbewegung, gekennzeichnet durch eine radiale Kontraktion und Expansion unterschiedlicher Teile des Gefäßes mit unterschiedlichen Stärken und Richtungen, d. h. lokale Verschiebungen in der r-Koordinate des Polarbildes; (5) lokale Bewegung, gekennzeichnet durch unterschiedliche Gewebebewegung, welche variiert in Abhängigkeit von dem exakten Ort innerhalb des Bildes; und (6) Bewegung durch eine Ebene, d. h. Bewegungen, welche senkrecht oder beinahe senkrecht (Verwinkelung) zu der Ebene des Bildes sind.
  • Die Stabilisierung von aufeinander folgenden rohen Bildern ist anwendbar auf die ersten 5 Arten von oben beschriebener Bewegung, da eine Bewegung in der transversalen Ebene enthalten ist. Diese Arten von Bewegung können kompensiert werden und eine Stabilisierung wird erreicht durch Transformation eines jeden momentanen Bildes, so dass seine Ähnlichkeit zu seinem Vorgängerbild maximiert wird. Die ersten drei Arten von Bewegung können stabilisiert werden durch Verwenden von Genauigkeitsoperationen, welche gesamte oder große Teile von Bilder(n) eines mit dem anderen vergleichen. Dies geschieht, da die Bewegung global ist oder in ihrer Natur fest. Die vierten und fünften Arten von Bewegung werden stabilisiert durch Anwendung von Genauigkeitsoperationen auf einer lokalisierten Basis, da unterschiedliche Teile des Bildes unterschiedliche Bewegung zeigen. Die sechste Art von Bewegung kann nur zum Teil stabilisiert werden durch Anwendung von Genauigkeitsoperationen auf einer lokalisierten Basis. Dies ist der Fall, da die Bewegung nicht beschränkt ist auf eine transversale Ebe ne. Diese Art von Bewegung kann stabilisiert werden durch Verwendung einer kardiovaskulären Periodizitätsbestimmung.
  • Die nächsten Abschnitte sollen Verfahren für eine globale Stabilisierung beschreiben, gefolgt von einer Beschreibung von Verfahren für eine lokale Stabilisierung. Stabilisierung unter Verwendung einer kardiovaskulären Periodizitätsbe-stimmung soll in den Teilen beschrieben werden, welche eine Periodizitätsbestimmung diskutieren.
  • Um eine globale Stabilisierung zu erzielen, wird eine Verschiebungsevaluierung durchgeführt unter Verwendung einer Art von Genauigkeitsoperation. Diese Genauigkeitsoperation misst die Ähnlichkeit zwischen zwei Bildern. Eine Verschiebungsevaluierung wird bewerkstelligt durch Transformation eines ersten Bildes und Messen seiner Genauigkeit, d. h. Ähnlichkeit, zu seinem zweiten vorhergehenden Bild. Die Transformation kann erreicht werden durch beispielsweise Verschiebung des gesamten ersten Bildes entlang einer Achse oder einer Kombination von Achsen (X und/oder Y in kartesischen Koordinaten oder r und/oder B in Polarkoordinaten) um ein einzelnes Pixel (oder mehrere). Sobald die Transformation, d. h. eine Verschiebung, abgeschlossen ist, wird das transformierte erste Bild mit dem vorhergehenden zweiten Bild verglichen, unter Verwendung einer vorbestimmten Funktion. Diese Transformation wird wiederholt jedes Mal durch Verschieben des ersten Bildes um ein zusätzliches Pixel (oder mehrere) entlang derselben und/oder einer anderen Achse und Vergleichen des transformierten ersten Bildes mit dem vorhergehenden zweiten Bild unter Verwendung einer vorbestimmten Funktion. Nachdem all die Verschiebungen ausgewertet sind, wird die Lage des globalen Extremums der Vergleiche unter Verwendung der vorbestimmten Funktion die Richtung und Stärke der Bewegung zwischen dem ersten Bild und seinem vorhergehenden zweiten Bild anzeigen.
  • Zum Beispiel stellt 2 die Ergebnisse einer Verschiebungsevaluierung zwischen zwei aufeinander folgenden Bildern in kartesischen Koordinaten dar. Bild A ist ein Vorgängerbild, welches ein Muster, z. B. einen Querschnitt eines Gefäßes, zeigt, dessen Mitte in dem unteren rechten Quadranten der Matrix liegt. Bild B ist ein momentanes Bild, welches das gleiche Muster zeigt, aber in eine Richtung nach oben und links verschoben und sich in dem oberen linken Quadranten der Matrix befindend. Die Größe und Richtung der Bewegung der Mitte des Gefäßes wird durch einen Pfeil dargestellt. Die Grundmatrix ist die C-(Verschiebung X, Verschiebung Y)-Matrix, welche die sich ergebende Matrix nach dem Durchführen von Verschiebungsevaluierungen ist, unter Verwendung einer Art von Genauigkeitsoperation.
  • Dort gibt es viele unterschiedliche Algorithmen oder mathematische Funktionen, welche verwendet werden können, um die Genauigkeitsoperationen durchzuführen. Eine davon ist eine Kreuzkorrelation, möglicherweise eine Fourier-Transformation verwendend. Das ist der Fall, wo die momentanen und Vorgängerbilder, jedes bestehend aus beispielsweise 256 × 256 Pixeln, jedes Fouriertransformiert ist unter Verwendung des FFT-Algorithmus. Die Konjunktion des FFT des momentanen Bildes wird multipliziert mit dem FFT des vorhergehenden Bildes. Das Ergebnis ist invers Fourier-transformiert unter Verwendung eines IFFT-Algorithmus. Die Formel für eine Kreuzkorrelation unter Verwendung einer Fourier-Transformation kann wie folgt gezeigt werden:
    C = real(ifft2((fft2(A)) * conj(fft2(B))))
    wobei:
    A = Vorgängerbild-Matrix (z. B. 256 × 256);
    B = momentane Bildmatrix (z. B. 256 × 256);
    fft2 = zweidimensionale FFT;
    ifft2 = zweidimensionale inverse FFT;
    conj = Konjunktion;
    real = der reale Teil des komplexen Ausdrucks;
    * = Multiplikation von Element mit Element; und
    C = Kreuzkorrelationsmatrix.
  • Evaluierung einer Genauigkeit unter Verwendung einer Kreuzkorrelation, implementiert durch Fourier-Transformation, ist eigentlich eine Näherung. Dies ist der Fall, da die mathematische Formel für die Fourier-Transformation sich auf infinite oder periodische Funktionen oder Matrizen bezieht, während im wirklichen Leben die Matrizen (oder Bilder) von einer endlichen (finiten) Größe sind und nicht notwendigerweise periodisch. Wenn man eine Kreuzkorrelation unter Verwendung von FFT implementiert, nimmt das Verfahren eine Periodizität in beiden Achsen an.
  • Als Ergebnis ist diese Formel eine gute Näherung und sie spiegelt die eigentliche Situation in der θ-Achse der Polardarstellung des Bilder wider, jedoch gibt sie nicht die eigentliche Situation in der r-Achse der Polardarstellung oder der Xoder Y-Achse der kartesischen Darstellung des Bildes wider.
  • Es gibt hier eine Anzahl von Vorteilen für eine Kreuzkorrelation unter Verwendung von FFT. Als Erstes werden alle Werte der Kreuzkorrelationsmatrix C (Verschiebung X, Verschiebung Y) durch diese Basisoperation berechnet. Des Weiteren gibt es hier eine dedizierte Hardware für die effiziente Implementierung der FFT-Operation, d. h. Fourier-Transformationschips oder DSP-Boards.
  • Ein weiterer Algorithmus, der verwendet werden kann, um eine Genauigkeitsoperation durchzuführen, ist auf eine Kreuzkorrelation gerichtet, entweder normiert oder nicht. Dies wird erreicht durch Multiplizieren eines jeden Pixels in dem momentanen verschobenen Bild durch sein entsprechendes Pixel in dem Vorgängerbild und Aufsummieren all der Ergebnisse und Normalisieren in dem Fall einer normalisierten Kreuzkorrelation. Jede Verschiebung resultiert in einer Summe und die eigentliche Verschiebung wird angezeigt durch die größte Summe aus den evaluierten Verschiebungen. Die Formel für eine Kreuzkorrelation kann durch die folgende Formel gezeigt werden:
    Figure 00240001
    Die Formel für eine normierte Kreuzkorrelation ist
    Figure 00240002

    wobei
    A = Vorgängerbildmatrix;
    B = momentane Bildmatrix;
    * = Multiplikation von einem Pixel mit einem entsprechenden Pixel;
    Σ = Summe aller Pixel in einer Matrix;
    C = Matrix, welche die Ergebnisse für alle durchgeführten Verschiebungen enthält.
  • Verwendet man dieses direkte Verfahren einer Kreuzkorrelation, kann C(VerschiebungX, VerschiebungY) für alle möglichen Werte von VerschiebungX und VerschiebungY berechnet werden. Wenn z. B. die Originalmatrizen A und B jede 256 × 256 Pixel aufweisen, dann würden VerschiebungX und VerschiebungY Werte, welche je von –127 bis +128 reichen, um zu berechnen, was insgesamt 256 × 256 = 65536 Verschiebungsevaluierungen ergibt, um C(VerschiebungX, VerschiebungY) berechnen zu können für alle möglichen Werte von VerschiebungX und VerschiebungY. Auf eine Vervollständigung dieser Evaluierungen hin wird das globale Maximum der Matrix bestimmt.
  • Eine direkte Kreuzkorrelation kann effizienter implementiert werden durch Erniedrigung der Anzahl der erforderlichen arithmetischen Operationen. Um die eigentliche Verschiebung zwischen Bildern zu bestimmen, ist eine Evaluierung von jeder möglichen VerschiebungX und VerschiebungY nicht nötig. Es ist ausreichend, den Ort der größten C(VerschiebungX, VerschiebungY) für jede mögliche VerschiebungX und VerschiebungY zu finden.
  • Ein dritter Algorithmus, welcher verwendet werden kann, um eine Genauigkeitsoperation durchzuführen, ist die Summe der absoluten Differenzen (SAD). Dies wird erreicht durch Subtrahieren eines jeden Pixels in einem Bild von seinem entsprechenden Pixel in dem anderen Bild, Nehmen von deren absoluten Werten und Aufsummieren all der Ergebnisse. Jede Verschiebung wird in einer Summe resultieren und die eigentliche Verschiebung wird durch die niedrigste Summe angezeigt werden. Die Formel für eine Summe von absoluten Differenzen (SAD) kann wie folgt gezeigt werden:
    SAD = absolut(A – B)
    Diese Formel kann auch gezeigt werden wie folgt:
    Figure 00250001

    wobei:
    A = Vorgängermatrixbild;
    B = momentane Bildmatrix;
    abs = Absolutwert,
    – = Subtraktion von Element von Element; und
    Σ = Summe aller Unterschiede.
  • Während die Genauigkeit von jedem/jeder dieser Algorithmen/Formeln leicht variieren kann, abhängend von der spezifischen Art von Bewegung, welche beobachtet wird, und von Systemfestsetzungen, sei es verständlich, dass keine einzelne Formel a priori eingestuft werden kann, dass sie die besten oder die genauesten Ergebnisse bietet. Zusätzlich gibt es hier zahlreiche Variationen bei den oben beschriebenen Formeln und andere Algorithmen/Formeln, welche verwendet werden können zur Durchführung einer Verschiebungsevaluierung und welche ersetzt werden können für die Algorithmen/Formeln, die oben beschrieben sind. Diese Algorithmen/Formeln schließen auch die Operationen ein, welche im Stand der Technik zur Verwendung als Abgleichsoperationen bekannt sind.
  • Wieder Bezug nehmend auf 2, wird, falls die Genauigkeitsoperation, welche durchgeführt wird, eine Kreuzkorrelation ist, dann C(VerschiebungX, VerschiebungY) die Kreuzkorrelationsmatrix genannt, und deren globales Maximum (angezeigt durch den schwarzen Punkt in dem oberen linken Quadranten) wird lokalisiert bei einem Abstand und einer Richtung von der Mitte der Matrix (Pfeil in Matrix C), welche dieselbe ist wie diejenige der Mitte des Gefäßes in Bild B bezüglich der Mitte des Gefäßes in Bild A (Pfeil in Bild B).
  • Falls die durchgeführte Genauigkeitsoperation eine SAD ist, dann würde der schwarze Punkt das globale Minimum bezeichnen, welches bei einem Abstand und einer Richtung von der Mitte der Matrix (Pfeil in Matrix C) lokalisiert werden wird, welche die gleiche ist wie die der Mitte des Gefäßes in Bild B bezüglich der Mitte des Gefäßes in Bild A (Pfeil in Bild B).
  • Eine Drehbewegung wird ausgedrückt als eine Verschiebung entlang des momentanen Polarbildes in der θ-Koordinate bezüglich seinem Vorgänger. Die Drehverschiebung in einem momentanen Bild wird bestimmt durch Minimierung der Genauigkeit zwischen dem momentanen Polarbild und seinem Vorgänger. Maximale Genauigkeit wird erreicht werden, wenn das momentane Bild zurück erschoben wird um exakt ein Ausmaß der eigentlichen Verschiebung. Zum Beispiel in einem 256 × 256 Pixelbild wird der Wert des Unterschieds (in Pixeln) zwischen 128 und der B-Koordinate des Minimums in dem Kreuzkorrelationsbild (Minimum in dem SAD-Bild) die Richtung (positiv oder negativ) und das Ausmaß der Drehung anzeigen.
  • Globale Gefäßbewegung wird charakterisiert durch Expansion und Kontraktion des gesamten Querschnitts des Gefäßes. In dem Polarbild wird diese Art von Bewegung ausgedrückt als Bewegung des Gefäßes nach innen und nach außen entlang der r-Achse. Gefäßbewegung kann kompensiert werden durch Durchführen der Gegengefäßbewegungsaktion an einem momentanen Polarbild bezüglich seinem Vorgängerpolarbild, unter Verwendung einer der oben diskutierten Formeln oder irgendeiner anderen Formel. Im Gegensatz zu einer Winkelstabilisierung ändert eine Gefäßbewegungsstabilisierung nicht die Richtung des Bildes, sondern transformiert das Bild eigentlich durch dessen Dehnen oder Komprimieren.
  • Ein kartesische Verschiebung wird ausgedrückt als eine Verschiebung in der X-Achse und/oder Y-Achse in dem kartesischen Bild bezüglich seinem Vorgänger. Diese Art von Bewegung wird eliminiert durch Verschiebung des kartesischen Bildes in eine Gegenrichtung zu der eigentlichen Verschiebung. Somit kann eine kartesische Verschiebung in der kartesischen Darstellung erreicht werden durch im Wesentlichen dieselben arithmetischen Operationen, die zur Dreh- und Gefäßstabilisierung in der Polardarstellung verwendet werden.
  • Die Anzahl der Verschiebeauswertungen, die nötig ist, um das globale Extremum (Maximum oder Minimum, abhängig von der Genauigkeitsfunktion) von C(VerschiebungX, VerschiebungY) zu lokalisieren, kann verringert werden durch Verwendung von verschiedenen Berechnungstechniken. Beispielsweise zieht eine Technik einen Vorteil aus der Tatsache, dass eine Bewegung zwischen aufeinander folgenden IVUS-Bildern allgemein relativ niedrig ist im Verhältnis zu den Gesamtausmaßen der Polar- und/oder kartesischen Matrizen. Das heißt, dass C(VerschiebungX, VerschiebungY) nur in einem verhältnismäßig kleinen Teil um das Zentrum der Matrix berechnet werden kann, d. h. um VerschiebungX = 0, VerschiebungY = 0. Das Extremum dieses Teils wird versichert, das globale Extremum der Matrix C(VerschiebungX, VerschiebungY) zu sein, einschließlich für größere Werte von VerschiebungX und VerschiebungY. Die Größe des minimalen Teils, welcher sicher stellen wird, dass das bestimmte Extremum in ihm in der Tat ein globales Extremum ist, variiert abhängend von den Systemfestsetzungen. Die Anzahl der nötigen Auswertungsoperationen kann weiter reduziert werden durch ein sich Stützen auf die Glattheit und monotone Eigenschaft, welche von der C-Matrix erwartet wird (insbesondere in der Nachbarschaft des globalen Extremums). Daher ist es, falls der Wert in der C(VerschiebungX, VerschiebungY)-Matrix an einem bestimmten Ort ein lokales Extremum hat (z. B. in einer 5 × 5 Pixelnachbarschaft), es dann möglicherweise das globale Extremum für die gesamte Matrix C(VerschiebungX, VerschiebungY) ist.
  • Die Implementierung dieser Reduzierung der Anzahl von nötigen Auswertungen kann erreicht werden durch zunächst Suchen nach dem Zentrum der Matrix (VerschiebungX = 0, VerschiebungY = 0) und Prüfen einer kleinen Nachbarschaft, z. B. 5 × 5 Pixel um das Zentrum. Falls das lokale Extremum innerhalb dieser Nachbarschaft gefunden wird, dann ist es möglicherweise das globale Extremum der gesamten Matrix C(VerschiebungX, VerschiebungY) und die Suche kann abgebrochen werden. Falls jedoch das lokale Extremum an den Kanten dieser Nachbarschaft gefunden wird, z. B. VerschiebungX = –2, VerschiebungX = 2, VerschiebungY = –2 oder VerschiebungY = 2, dann wird die Suche wiederholt, um diese Pixel bis ein C(VerschiebungX, VerschiebungY)-Wert gefunden wird, der größer (kleiner) ist als alle seine nächsten Nachbarn.
  • Da in einer großen Anzahl von Bildern dort keine Zwischenbildbewegung auftritt, wird die Anzahl der Auswertungen, die benötigt werden, um das globale Extremum in solchen Fällen zu lokalisieren, ungefähr 5 × 5 = 25, anstelle der originalen 65536 Auswertungen sein.
  • Die Anzahl der notwendigen Auswertungsoperationen kann auch reduziert werden durch Abtasten der Bilder. Zum Beispiel, wenn Bilder der Größe 256 × 256 abgetastet werden für jedes zweite Pixel, werden sie dann auf Matrizen der Größe 128 × 128 reduziert. In diesem Fall beinhalten eine direkte Kreuzkorrelation oder SAD zwischen solchen Matrizen 128 × 128 Operationen anstelle von 256 × 256 Operationen, jedes Mal wenn die Bilder eines bezüglich dem anderen verschoben werden. Eine Abtastung als Reduktionsverfahren für Verschiebungsauswertungsoperationen kann auch mit anderen beschriebenen Verfahren zur Reduktion verknüpft werden.
  • Bezug nehmend wieder auf 2 wird die angegebene VerschiebungX als Ergebnis der Genauigkeitsoperation einen positiven Wert haben und VerschiebungY einen negativen Wert. Um Bild B zu stabilisieren, d. h. die Verschiebungen in den X- und Y-Richtungen zu kompensieren, wird eine Verschiebungslogik die Verschiebungen umkehren, d. h. deren Vorzeichen, aber nicht deren Größe, ändern, und diese Verschiebungen an der Matrix entsprechend dem Bild B implementieren. Das wird die Verschiebung in Bild B künstlich umkehren und Bild B veranlassen, unverschoben bezüglich Bild A zu sein.
  • Die eigentlichen Werte, welche in den Genauigkeitsberechnungen verwendet sind, brauchen nicht notwendigerweise die originalen Werte der Matrix zu sein, wie sie durch das Bildsystem geliefert wird. Beispielsweise können verbesserte Ergebnisse erzielt werden, wenn die originalen Werte in der Potenz von 2, 3 oder 4 angehoben werden oder mit irgendeinem anderen Verfahren verarbeitet werden.
  • Der bildgebende Katheter und die umschließende Hülle erschienen als konstante Artefakte in allen IVUS-Bildern. Dieses Merkmal verdeckt Genauigkeitsoperationen, die zwischen Bildern durchgeführt werden, da sie nicht Teil der Morphologie des Gefäßes sind. Es ist daher notwendig, den Katheter und damit verbundene Objekte von dem Bild vor Durchführung von Genauigkeitsoperationen zu e1imi nieren, d. h. ihren Pixeln wird ein Wert von null zugeordnet. Die Eliminierung dieser Objekte von dem Bild kann automatisch durchgeführt werden, da die Abmessungen des Katheters bekannt sind.
  • Eine Verschiebungsevaluierung und -implementierung kann modular sein. Somit kann eine Verschiebungsevaluierung bzw. Verschiebungsauswertung und -implementierung entweder auf Polarkoordinaten oder kartesische Koordinaten individuell beschränkt sein, oder eine Verschiebungsevaluierung und -implementierung kann sequentiell für Polar- und kartesische Koordinaten implementiert sein. Momentan ist es, da Bildgabe in IVUS-Systemen allgemein organisiert wird durch Zuerstverwendung von Polarkoordinaten und dann Umwandlung in kartesische Koordinaten, am bequemsten, eine Verschiebungsevaluierung und -implementierung in der gleichen Sequenz durchzuführen. Jedoch kann die Sequenz modifiziert oder geändert werden ohne irgendwelche negativen Auswirkungen oder Ergebnisse.
  • Der Verschiebungsevaluierungsvorgang kann durchgeführt werden entlang einer oder zweier Achsen. Allgemein ist eine zweidimensionale Verschiebungsevaluierung bevorzugt, sogar wenn eine Bewegung entlang einer Achse gerichtet ist. Eine Verschiebungsimplementierung kann auf beide Achsen, eine Achse oder gar keine Achse beschränkt sein.
  • Es besteht keine notwendige Identität zwischen dem Bereich in dem Bild, der für eine Verschiebungsevaluierung verwendet wird, und zwischen dem Bereich, an welchem eine Verschiebungsimplementierung durchgeführt wird. Zum Beispiel kann eine Verschiebungsevaluierung durchgeführt werden unter Verwendung eines verhältnismäßig kleinen Bereichs in dem Bild, während eine Verschiebungsimplementierung das gesamte Bild gemäß der Verschiebung, bezeichnet durch diesen Bereich, verschieben wird.
  • Eine triviale Verschiebungslogik ist eine, bei welcher die Verschiebung, die an jedem Bild implementiert ist (dabei ein stabilisiertes Bild ausbildend), eine Größe gleich und in entgegengesetzter Richtung von der evaluierten Verschiebung aufweist. Jedoch kann eine solche Logik in einem Prozess resultieren, der als Drift definiert ist. Eine Drift ist ein Vorgang, bei welchem implementierte Verschiebungen sich anhäufen und eine anwachsende Verschiebung eizeugen, deren Dimensionen signifikant sind im Verhältnis zu dem gesamten Bild oder Anzeige. Eine Drift kann ein Ergebnis einer ungenauen Verschiebungsevaluierung oder einer nicht-transversalen Zwischenbildbewegung an einigen Teilen des Herzgefäßzyklus' sein. Wenn eine kartesische Stabilisierung implementiert ist, kann eine Drift beispielsweise die Verschiebung eines verhältnismäßig großen Teils des Bildes aus der Anzeige bewirken. Wenn eine Drehstabilisierung implementiert ist, kann eine Drift die zunehmende Verdrehung des Bildes in eine bestimmte Richtung bewirken.
  • 3 ist ein Bild, welches das Auftreten von Drift in Polar- und kartesischen Koordinaten veranschaulicht. Das linke Bild ist die originale Anzeige des Bildes, während das rechte Bild das gleiche Bild ist, nachdem eine Polar- und kartesische Stabilisierung durchgeführt worden ist. Man beachte, wie das rechte Bild entgegen dem Uhrzeigersinn um einen großen Winkel verdreht ist und verschoben im Verhältnis zum linken Bild. In diesem Fall kompensieren Dreh- und kartesische Verschiebungsimplementierung nicht eigentliche Verschiebungen im Bild, sondern rühren eher von einer ungenauen Verschiebungsevaluierung her.
  • Die Verschiebungslogik muss in der Lage sein, mit dieser Drift umzugehen, so dass dort eine minimale Implementierung von falsch evaluierten Verschiebungen auftritt. Ein Verfahren zur Vermeidung oder zumindest zur Limitierung von Drift besteht im Festsetzen einer Grenze für die Größe der zu erlaubenden Verschiebungen. Dies wird die Drift minimieren, aber auf Kosten einer Nicht-Kompensation von einigen eigentlichen Verschiebungen. Zusätzliche Verfahren können erwendet werden, um eine Verschiebung zu verhindern oder zu minimie ren. Diese können möglicherweise mit Herzgefäßperiodizitäts-Erkennungsverfahren, die später diskutiert werden, verknüpft sein.
  • Die in 4 gezeigten Bilder erläutern die Wirkung der Durchführung von Stabilisierungsoperationen (Dreh- und kartesische Verschiebungen) auf ein Bild. Das linke Bild ist ein IVUS-Bild von einer Koronar-Arterie, wie es auf einem größeren Teil einer normalen Anzeige (mit entferntem Katheter) erschienen würde, während das rechte Bild zeigt, wie das linke Bild angezeigt würde, nachdem Stabilisierungsoperationen implementier sind.
  • Wirft man einen genauen Blick auf das linke und das rechte Bild in 4, können bestimmte Unterschiede beobachtet werden. Als erstes ist das rechte Bild leicht in einer Richtung in Uhrzeigersinn gedreht (d. h. um einige Grad) im Verhältnis zum linken Bild. Dies ist das Ergebnis eine Drehstabilisierung. Als nächstes ist das rechte Bild in einer allgemein linken Richtung im Verhältnis zum linken Bild verschoben. Dies kann bestimmt werden durch Beachten des Abstands des Lumens (Hohlraum) von den Kanten des Bildes in jedem Bild. Dies ist ein Ergebnis von kartesischen Verschiebungsstabilisierungsoperationen.
  • Die Vorteile der Stabilisierung des angezeigten Bildes können nicht genossen werden durch Betrachten einzelner Bilder, wie in 4 gezeigt. Jedoch würde die Betrachtung eines Films solcher Bilder die Vorteile bereitwillig erläutern. In einer Anzeige, welche keine Stabilisierung einschließt, würde sich der Ort des Katheters immer in der Mitte der Anzeige befinden und die morphologischen Merkmale würden sich auf dem Display herum bewegen und sich drehen. Im Gegensatz würde sich in einer stabilisierten Anzeige der Ort des Katheters herum bewegen, während die morphologischen Merkmale im Wesentlichen stationär bleiben würden. Eine Stabilisierung muss nicht notwendigerweise auf einer eigentlichen Anzeige herausgestellt werden. Sie kann für den Benutzer in dem Sinn sichtbar sein, dass eine Stabilisierung die darauf folgenden Verarbeitungsschritte verbessern wird, aber die eigentliche Anzeige die resultierenden, verarbeiteten Bilder in ihrer originalen (nicht-stabilisierten) Haltung und Orientierung darstellen wird.
  • 5 veranschaulicht eine globale Kontraktion oder Ausdehnung eines Gefäßes, ausgedrückt in der Polardarstellung des Bildes, als eine Bewegung der Merkmale entlang der r-Koordinaten, d. h. Bewegung entlang des Polarvektors. 5 zeigt auch die gleiche globale Kontraktion oder Dehnung in der kartesischen Darstellung des Bildes. 5(a) zeigt die Basislinien-Erscheinung des Querschnitts eines Gefäßes sowohl in der Polar- als auch der kartesischen Darstellung. 5(b) zeigt eine Basiskontraktion des Gefäßes bezüglich dem Ausgangspunkt. 5(c) zeigt eine gleichförmige Basisdehnung des Gefäßes bezüglich dem Ausgangspunkt.
  • Da eine globale Gefäßbewegung ausgedrückt wird als eine gleichförmige Änderung im Kaliber des Gefäßes, kann irgendeine zur Stabilisierung in der Polardarstellung geeignete Operation verwendet werden, um eine globale Gefäßbewegung zu bewerten, z. B. kann sie bewertet werden durch eine Genauigkeitsoperation, welche das gesamte Polarbild verwendet.
  • Nachdem eine zweidimensionale Verschiebungsevaluierung durchgeführt wird, wird, wie oben diskutiert, der Ort des Maximums in Matrix C(VerschiebungX, VerschiebungY) an der θ-Achse verwendet zur Drehstabilisierung. Das lässt den Ort des Extremums an der r-Achse, was verwendet werden kann als Anzeige von globaler Gefäßbewegung. Somit ist eine globale Gefäßbewegungsüberwachung ein Nebenprodukt einer zweidimensionalen Verschiebungsevaluierung in dem polaren Bild.
  • Jedes Paar von aufeinander folgenden Bildern erzeugt einen Wert, der für die Gefäßbewegung bezeichnend ist. Sowohl die Größe als auch das Vorzeichen der resultierenden Verschiebung zwischen Bildern charakterisieren die Änderung in dem Gefäß, d. h. Gefäßbewegung. Negative Verschiebungen kennzeichnen eine Dehnung und positive Verschiebungen kennzeichnen eine Kontraktion. Die Größe des Werts kennzeichnet die Größe der Gefäßbewegungsveränderung.
  • Unter bestimmten Umständen kann eine Bewegung oder Gefäßbewegung nicht gleichförmig/fest sein, obwohl enthalten in der Ebene des Bildes, d. h. transversal. Um die Art der Bewegung oder Gefäßbewegung zu bestimmen, kann das Bild in Abschnitte unterteilt sein und eine globale Stabilisierungsevaluierung an jedem dieser Abschnitte ausgeführt werden. Durch Prüfen der bezeichneten Verschiebungen dieser Abschnitte bezüglich den entsprechenden Abschnitten in dem Vorgängerbild kann eine Bestimmung gemacht werden bezüglich der Art der Bewegung. Zum Beispiel kann, wie in 6 gezeigt, das Bild in 6(a) unterteilt werden in vier Abschnitte, wie in 6(b) gezeigt. Eine Verschiebungsevaluierung kann separat durchgeführt werden an jedem der vier Abschnitte. Ein Vergleich zwischen den Ergebnissen der Verschiebungsevaluierung für jeden der vier Abschnitte kann möglicherweise die Art der eigentlichen Bewegung identifizieren. Somit kann die Art der Stabilisierung, die angewandt wird, variieren, abhängig von der Art der bestimmten Bewegung.
  • Eine Stabilisierung für lokale Bewegung wird erreicht durch Durchführen von Genauigkeitsoperationen auf einer lokalisierten Basis. Schmale Teile des Vorgängerbilds A ("Schablonen"-Bereiche) und schmale Teile des momentanen Bilds B ("Such"-Bereiche) nehmen an dem lokalen Stabilisierungsvorgang Teil. Manchmal ist es am besten, eine lokale Stabilisierung auszuführen, nachdem eine globale Stabilisierung ausgeführt worden ist.
  • Während einer lokalen Stabilisierung werden die Schablonenbereiche in dem Vorgängerbild (A) innerhalb von Suchbereichen verschoben und verglichen unter Verwendung von Genauigkeitsoperationen an schablonengroßen Bereichen in dem momentanen Bild (B). Jedem Pixel in dem (erneut) ausgebildeten stabilisierten Bild (B') wird ein neuer Wert zugeordnet, basierend auf den Ergebnissen der durchgeführten Suche und Genauigkeitsevaluierung.
  • Eine lokale Stabilisierung wird erläutert durch das folgende Beispiel, in welchem der Schablonenbereich ein 1 × 1 Pixelbereich ist, d. h. ein einzelnes Pixel, der Suchbereich ein 3 × 3 Pixelbereich ist und die Genauigkeitsoperation SAD ist. In dem folgenden Diagramm sind das mit 3 bewertete Pixel in A und das mit 9 bewertete Pixel in B entsprechende Pixel. Die 3 × 3 Pixelnachbarschaft des als 9 bewerteten Pixels ist auch dargestellt.
  • Pixel in A ("Schablonen"-Bereich) Pixel in B (3 × 3 "Such"-Bereich) B'
    Figure 00350001
  • In diesem Beispiel wird gemäß den oben beschriebenen Bedingungen das als 3 bezeichnete "Schablonen"-Pixel verglichen unter Verwendung von SAD mit allen Pixeln, die in dem 3 × 3 Suchbereich um das mit 9 bezeichnete Pixel gefunden sind. Das Pixel, bewertet mit 1 an der oberen linken Ecke des Suchbereichs, wird den minimalen SAD-Wert erzielen (|1 – 3| = 2) unter all den Möglichkeiten in dem Suchbereich. Als Ergebnis wird in dem neu ausgebildeten stabilisierten Bild (B') dem Pixel, welches in seiner Lage den mit 3 und 9 bewerteten Pixeln entspricht, der Wert 1 zugewiesen.
  • Allgemein können die Abmessungen des Schablonen- und des Suchbereichs zusammen mit den verwendeten Genauigkeitsoperationen variiert werden. Der eigentliche Wert, welcher dem Pixel des neu ausgebildeten stabilisierten Bildes (B') zugeordnet ist, braucht nicht notwendigerweise ein eigentlicher Pixelwert aus dem momentanen Bild B sein (wie in dem Beispiel dargestellt), sondern irgendeine Funktion von Pixelwerten. Es ist wichtig festzustellen, dass als ein Ergebnis der lokalen Stabilisierung, im Gegensatz zu den globalen/festen Verfahren, die "Komposition" des Bildes, d. h. das interne Verhältnis zwischen Pixeln und deren Verteilung in dem stabilisierten Bild sich in Bezug auf das originale Bild ändert.
  • Eine lokale Stabilisierung kann sowohl an den polaren als auch kartesischen Darstellungen des Bildes implementiert werden.
  • 7 zeigt ein Gefäß sowohl in kartesischen als auch Polarkoordinaten, in welchem eine lokale Gefäßbewegung bestimmt worden ist. Wenn eine lokale Gefäßbewegung bestimmt ist, ist das ein Anzeichen, dass einige Teile des Querschnitts des Gefäßes sich unterschiedlich verhalten als andere Teile des Querschnitts.
  • 7(a) zeigt eine Grundlinienfigur des Gefäßes vor einer lokalen Gefäßbewegung. 7(b) zeigt ein Beispiel einer lokalen Gefäßbewegung. Wie sowohl in der kartesischen als auch in der Polardarstellung bezeichnet, verhalten sich vier unterschiedliche Teile des Gefäßes unterschiedlich: Zwei Segmente des Gefäßes ändern ihr Kaliber nicht oder bewegen sich nicht relativ zu deren entsprechenden Segmenten in dem Vorgängerbild; ein Segment zieht sich zusammen oder bewegt sich nach oben; und ein Segment dehnt sich aus oder bewegt sich nach unten.
  • Wie beobachtet werden kann, sind globale Gefäßbewegungsevaluierungsverfahren nicht geeignet für eine Evaluierung von lokaler Gefäßbewegung, da das Gefäß sich nicht in einer einheitlichen Art und Weise verhält. Falls eine globale Gefäßbewegungsevaluierung anzuwenden war, z. B. auf das in 7 gezeigte Beispiel, kann sie eine Gefäßbewegung von alles in allem null bestimmen, d. h. die Kontraktion und Ausdehnung würde sich gegenseitig aufheben.
  • Daher müssen lokale Gefäßbewegungsevaluierungsverfahren verwendet werden. Dies kann erreicht werden durch einzelne Evaluierung von Gefäßbewegung in jedem Polarvektor, d. h. in jedem θ- (oder Y)-Vektor. Genauigkeitsoperationen werden angewandt unter Verwendung eindimensionaler Verschiebungen in entsprechenden Polarvektoren. Wenn z. B. eine Genauigkeit verwendet wird mit einer Kreuzkorrelation, dann veranschaulicht die folgende Operation, wie dies unter Verwendung eindimensionaler Verschiebungen erreicht wird.
    Figure 00370001

    wobei:
    A = Vorgängerbildmatrix;
    B = momentane Bildmatrix;
    * = Multiplikation von einem Pixel mit einem entsprechenden Pixel;
    Σ = Summe von Pixeln in einer Matrix des Polarvektors;
    C = zweidimensionale Matrix des Korrelationskoeffizienten.
  • Wie gesehen werden kann, wird eine Verschiebung entlang einer Achse (X- oder r-Achse) für jeden und jeglichen Polarvektor (θ- oder Y-Vektor) durchgeführt. Die in jedem Vektor zugeordneten Werte für eine Verschiebungsevaluierung können nicht die eigentlichen Werte des Bildes sein, aber beispielsweise kann jedem Pixel in dem Vektor das Mittel seiner lateralen Nachbarn zugeordnet sein, d. h. A(X, Y) wird beispielsweise das Mittel von A(X, Y – 1), A(X, Y) und A(X, Y + 1) zugeordnet sein. Dasselbe gilt für B(VerschiebungX, Y). Das kann den Kreuzkorrelationsprozess für Rauschen stabiler machen.
  • Eine zweidimensionale Matrix (C(VerschiebungX, Y)) wird ausgebildet. Jede Spalte in der Matrix speichert die Ergebnisse der Genauigkeits/Ähnlichkeitsoperationen, die zwischen entsprechenden Polarvektoren von dem momentanen Bild und dem Vorgängerbild durchgeführt werden. Diese Operation kann auch implementiert worden sein unter Verwendung von FFT.
  • Nach Ausbilden der Matrix wird die Lage des Extremums (Maximum in der Kreuzkorrelationsoperation) in jeder Spalte bestimmt. Diese Lage des Extremums bezeichnet die Übereinstimmung zwischen dem momentanen Polarvektor und dessen Vorgänger. Somit kann die Gefäßbewegung in jedem Vektor gekennzeichnet werden, d. h. die radiale Bewegung in jedem spezifischen Winkelsektor des Gefäßes.
  • Diese Information kann verwendet werden, um die lokale Gefäßbewegung anzuzeigen, sie kann hinzugefügt werden von einigen oder allen Polarvektoren und Bemittelt werden, um einen Durchschnittswert für die Gefäßbewegung zu bestimmen, oder sie kann verwendet werden für andere Zwecke. Daher können durch Evaluieren von lokaler Gefäßbewegung sowohl lokale als auch globale Gefäßbewegung evaluiert werden.
  • Um effizient als quantitative physiologische Parameter verwendet und/oder ausgedrückt zu werden, muss sich die Größe der Gefäßbewegung in irgendeiner Form auf das eigentliche Kaliber des Gefäßes beziehen. Somit sollten Messungen von Gefäßbewegungsüberwachung allgemein im Zusammenhang mit automatischen oder manuellen Messungen des Kalibers des Gefäßes verwendet werden. Neben der eigentlichen Gefäßbewegung kann auch eine kartesische Verschiebung als Gefäßbewegung bestimmt werden. Das ist so, da eine kartesische Verschiebung, wenn in Polarkoordinaten ausgedrückt, in einer Verschiebung sowohl der rund θ-Achsen resultiert. Um eine wirkliche Gefäßbewegung von einer kartesischen Verschiebung zu unterscheiden, hat eine Verschiebungsevaluierung in dem kartesischen Bild keine oder eine geringe Bewegung anzuzeigen. Falls eine kartesische Verschiebung bestimmt wird, muss sie dann als erstes stabilisiert werden. Danach können die kartesischen Koordinaten zurück in Polarkoordinaten für eine Gefäßbewegungsevaluierung umgewandelt werden. Dies wird einen größeren Erfolg ermöglichen und genauere Ergebnisse bieten, wenn eine eigentliche Gefäßbewegung bestimmt wird.
  • Die Graphen in 8 veranschaulichen die Ergebnisse von lokaler Gefäßbewegungsüberwachung in einem menschlichen Herzkranzgefäß in vivo. Eine lokale Gefäßbewegungsüberwachung wurde zweimal in annähernd dem gleichen Seg ment des Gefäßes durchgeführt und bestand aus 190 aufeinander folgenden Bildern, wie in 8(a) und 8(b) (X-Achse) gezeigt. Der Unterschied zwischen den zwei Graphen besteht darin, dass die in 8(a) gezeigte Gefäßbewegungsevaluierung vor einer Behandlung der Arterie durchgeführt wurde, d. h. vor Intervention, während die Gefäßbewegungsevaluierung, gezeigt in 8(b), nach Behandlung der Arterie durchgeführt wurde, d. h. nach Intervention.
  • In jedem Bild wurde eine Gefäßbewegung lokal in jedem Polarvektor bewertet und dann wurden alle bestimmten individuellen Verschiebungen addiert und gemittelt, um eine einzelne globale Gefäßbewegungsanzeige (Y-Achse) für jedes Bild zu erzeugen, d. h. eine Anzeige für eine Gefäßbewegungsaktivität.
  • Die Einheiten an der Y-Achse haben nicht eine unmittelbare physiologische Bedeutung, da das eigentliche Kaliber des Gefäßes nicht berechnet wurde, aber das Verhältnis zwischen Werten in 8(a) und 8(b) hat eine Bedeutung, da diese von dem gleichen Gefäß entnommen wurden. Somit kann eine wichtige Information aus diesen Figuren abgeleitet werden. Man beachte, wie die Gefäßbewegung nach einer Behandlung zunahm (maximale Gefäßbewegung von ungefähr 40 auf ungefähr 150). Somit ist, obwohl eine Gefäßbewegung nicht vollständig quantifiziert war, eine Änderung in einer Physiologie (möglicherweise zusammenhängend mit der Behandlung) demonstriert worden.
  • Eine kardiovaskuläre Periodizität kann einzig basierend auf in IVUS-Bildern gespeicherter Information überwacht werden, wobei die Notwendigkeit nach einem EKG oder irgendeinem anderen externen Signal eliminiert wird. Das bedeutet, dass eine Verbindung hergestellt werden kann zwischen jedem Bild und seiner jeweiligen temporalen Phase in dem kardiovaskulären Zyklus, ohne die Notwendigkeit für ein externes Signal. Sobald diese Verknüpfung erstellt ist, kann dann eine Überwachung das EKG-Signal in einer großen Anzahl von Anwendungen ersetzen, welche Cardiac-Gating erfordern. Diese Überwachung kann erreicht werden unter Verwendung von Genauigkeitsoperationen zwischen aufeinander folgenden Bildern. Darüber hinaus können die gleichen Genauigkeitsoperationen Information bezüglich der Qualität von IVUS-Bildern und deren Verhalten erzeugen.
  • Der Cardiac-Zyklus manifestiert sich selbst in dem zyklischen Verhalten von bestimmten Parametern, welche durch IVUS-Bilder extrahiert werden. Falls die Verhaltensweisen dieser Parameter überwacht werden, kann dann die Periodizität des Cardiac-Zyklus bestimmt werden. Unter Kenntnis der Aufnahmerate wird auch die Bestimmung des kardiovaskulären Zyklus als eine temporale Menge erlaubt.
  • Die Genauigkeit zwischen aufeinander folgenden IVUS-Bildern ist ein Parameter, welcher sich deutlich in einem periodischen Muster verhält. Dies ist ein Ergebnis der Periodizität der meisten Arten von Zwischenbildbewegung, die vorhanden sind. Eine Genauigkeitsfunktion kann ausgebildet werden, in welcher jeder Wert von einer Genauigkeitsoperation zwischen einem Paar von aufeinander folgenden Bildern herrührt. Zum Beispiel wird ein Satz von 10 Bildern neun aufeinander folgende Genauigkeitswerte erzeugen.
  • Die Genauigkeitsfunktion kann abgeleitet werden von einer Kreuzkonelationsartoperation. Eine SAD-Operation oder irgendeine andere Art von Operation, welche eine Genauigkeitsart von Funktion erzeugt. Eine normierte Kreuzkonelation erzeugt sehr gute Ergebnisse, wenn sie zur Überwachung einer Periodizität verwendet wird.
  • Die folgende Formel zeigt die Formel für den Kreuzkonelationskoeffizienten (als eine Funktion des N-ten Bildes) zur Berechnung der Genauigkeitsfunktion:
    Figure 00400001

    wobei:
    Korrelation Funktion(N) = eindimensionale Funktion, welche einen Wert für jedes Paar von Bildern erzeugt;
    A = Vorgängerbildmatrix (des N-ten Bildes);
    B = momentane Bildmatrix (des N-ten + 1 Bildes);
    * = Multiplikation von einem Pixel mit einem entsprechenden Pixel;
    Σ = Summe über alle Pixel in einer Matrix.
  • Der Korrelationskoeffizient ist ein Nebenprodukt des Stabilisierungsvorgangs, da der zentrale Wert (VerschiebungX = 0, VerschiebungY = 0) der normierten Kreuzkonelationsmatrix (C(VerschiebungX, VerschiebungY)) immer berechnet wird. Das gilt für alle Arten von Genauigkeitsoperationen, die für eine Stabilisierung verwendet werden. Der zentrale Wert für die Genauigkeitsmatrix (C(VerschiebungX = 0, VerschiebungY = 0)), entweder eine Kreuzkorrelation oder eine andere Art von Operation, verwendet für eine Stabilisierung, kann immer zur Erzeugung einer Genauigkeitsfunktion verwendet werden.
  • Die Genauigkeitsfunktion kann auch aus Bildern berechnet werden, welche eines im Verhältnis zum anderen verschoben sind, d. h. der Wert, der verwendet wird, um die Funktion auszubilden, ist C(VerschiebungX, VerschiebungY), wobei VerschiebungX und VerschiebungY nicht gleich null sind. Die Genauigkeitsfunktion braucht nicht notwendigerweise ausgebildet werden aus einem gesamten Bild, sondern sie kann auch berechnet werden aus Teilen der Bilder, entweder einander entsprechend oder bezüglich zueinander verschoben.
  • 9 zeigt ein EKG und einen Kreuzkonelationskoeffizienten, graphisch aufgetragen in synchroner Weise. Beide Kurven beziehen sich auf den gleichen Satz von Bildern. 9(a) zeigt einen Graph des EKG-Signals und 9(b) zeigt ei nen Graph des Kreuzkorrelationskoeffizienten, abgeleitet aus aufeinander folgenden IVUS-Bildern. Die horizontale Achse zeigt die Bildnummer an (insgesamt 190 aufeinander folgende Bilder). Wie beobachtet werden kann, zeigt die Kreuzkorrelationskoeffizientenfunktion in 9(b) ein periodisches Muster, und ihre Periodizität ist die gleiche wie die, welche angezeigt ist durch EKG-Signal in 9(a) (beide zeigen ungefähr sechs Herzschläge).
  • Ein Überwachen der Periodizität der Genauigkeitsfunktion kann kompliziert sein, da die Genauigkeitsfunktion keine typische Form aufweist, sie kann über die Zeit variieren, sie kann von der Art der verwendeten Genauigkeitsfunktion abhängen, und sie kann von Gefäßsegment zu Gefäßsegment variieren und von Subjekt zu Subjekt.
  • Um die Periodizität der Genauigkeitsfunktion kontinuierlich und automatisch zu überwachen, können eine Reihe von Verfahren angewandt werden. Ein Verfahren ist z. B. ein Verfahren vom Schwellenwerttyp. Dieses Verfahren hält Ausschau nach einem Wert der Genauigkeitsfunktion über einem bestimmten Wert, bekannt als Schwellenwert. Sobald dieser Wert bestimmt ist, überwacht das Verfahren, wann die Schwelle wieder gekreuzt wird. Die Periode wird bestimmt als die Zeitdifferenz zwischen den Kreuzungen des Schwellenwerts. Ein Beispiel dieses Verfahrens ist in 10 als eine Tabelle gezeigt. Die Tabelle zeigt eine Gruppe von Kreuzkorrelationskoeffizientenwerten (mittlere Reihe), welche zu aufeinander folgenden Bildern (Ziffern 1 bis 10, gezeigt in der oberen Reihe) gehören. Falls die Schwelle, z. B. auf den Wert von 0,885 gesetzt ist, wird dieser Schwellenwert dann zum ersten Mal gekreuzt in dem Übergang von Bild #2 zu Bild#3. Der Schwellenwert wird ein zweites Mal gekreuzt im Übergang zwischen Bild #6 zu Bild #7. Somit ist die Zeitperiode der Periodizität die Zeit, welche erforderlich war, um 7 – 3 = 4 Bilder zu erhalten.
  • Ein weiteres Verfahren, das verwendet werden kann, um die Herzmuskelperiodizität aus der Genauigkeitskurve zu extrahieren, ist eine interne Kreuzkorrelation.
  • Dieses Verfahren verwendet ein Segment der Genauigkeitsfunktion, d. h. eine Gruppe von aufeinander folgenden Werten. Zum Beispiel kann, in der Tabelle in 10 gezeigt, das Segment umfasst sein von den ersten vier aufeinander folgenden Bildern, d. h. Bilder #1 bis #4. Sobald ein Segment ausgewählt ist, wird es mit sich selbst kreuzkorreliert, einen Kreuzkorrelationswert von 1 erzeugend. Als Nächstes wird dieses Segment kreuzkorreliert mit einem Segment der gleichen Größe, welches aus der Genauigkeitsfunktion extrahiert ist, aber um ein Bild nach vorne verschoben. Das wird wiederholt mit dem Segment zwei Bilder nach vorne verschoben und so weiter. In dem in 10 gezeigten Beispiel würde das Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment, welches um ein Bild verschoben ist {0,83, 0,89, 0,85, 0,82}, dann würde das Segment {0,8, 0,83, 0,89, 0,85} kreuzkorreliert werden mit einem Segment, welches um zwei Bilder verschoben ist {0,89, 0,85, 0,82, 0,87} und so weiter. Die untere Reihe der Tabelle in 10 zeigt die Ergebnisse dieser internen Kreuzkorrelationen. Der erste Wert von 1 ist ein Ergebnis der Kreuzkorrelation des Segments mit sich selbst. Diese Kreuzkorrelationswerte werden untersucht, um den Ort der lokalen Maxima zu bestimmen. In diesem Beispiel sind sie in Bild #1 und Bild #5 lokalisiert (deren Werte sind in Fettdruck dargestellt). Die sich ergebende Periodizität ist die Differenz zwischen dem Ort der lokalen Maxima und dem Ort, von welchem aus die Suche gestartet wurde (d. h. Bild #1). In diesem Fall ist die Periodizität die Zeit, welche von der Aufnahme von Bild #1 bis zu Bild #5 verstrichen ist, was 5 – 1 = 4 Bilder ist. Sobald eine Periode bestimmt worden ist, beginnt die Suche von neuem unter Verwendung eines Segments, welches das lokale Maximum umgibt, z. B. Bild #5. In diesem Beispiel könnte z. B. das neue Segment die Gruppe von Genauigkeitswerten sein, welche zu Bildern #4 bis #7 gehören.
  • Aufgrund der Natur der Art der beteiligten Berechnung erfordert die interne Kreuzkorrelationsoperation zu einem bestimmten Zeitpunkt die Genauigkeitswerte der zu einem späteren Zeitpunkt aufgenommenen Bilder. Somit erfordert das Genauigkeitsverfahren anders als das Schwellenwertverfahren die Speicherung von Bildern (in einem Speicher) und die Periodizitätsbestimmung wird rück blickend vorgenommen. Die Herzperiodizität kann auch überwacht werden durch Transformieren der Genauigkeitskurve in die temporale Frequenzdomäne durch die Fourier-Transformation. In der Frequenzdomäne sollte die Periodizität ausgedrückt sein als ein Peak, welcher der Periodizität entspricht. Dieser Peak kann bestimmt werden unter Verwendung einer Spektralanalyse.
  • Die Genauigkeitsfunktion kann zusätzliche wichtige Information über IVUS-Bilder vorsehen, welche nicht aus externen Signalen, wie etwa ein EKG, extrahiert werden kann, welche nicht aus den eigentlichen Bildern abgeleitet sind. Das Verhalten dieser Funktion kann bestimmte Zustände in den IVUS-Bildern oder Bildteilen bezeichnen, die verwendet werden, um die Genauigkeitsfunktion auszubilden. Wichtige Merkmale in der Genauigkeitsfunktion, welche kennzeichnend sind für den Zustand der IVUS-Bilder, sind das Vorhandensein einer Periodizität und die "Rauigkeit" der Genauigkeitsfunktion. Normale IVUS-Bilder sollten eine verhältnismäßig glatte und periodische Genauigkeitsfunktion zeigen, wie z. B. in 9(b) dargestellt.
  • Falls jedoch eine "Rauigkeit" und/oder Periodizität nicht vorhanden sind, dann könnte dies irgendein Problem in der Information der IVUS-Bilder bezeichnen, d. h. das Vorhandensein eines Artefakts in der Bildformation, bewirkt durch beispielsweise entweder eine mechanische oder eine elektronische Fehlfunktion. Die folgende Figur hilft dies zu veranschaulichen. 11 zeigt einen Graph des Kreuzkorrelationskoeffizienten, abgeleitet von aufeinander folgenden IVUS-Bildern. Dieser Graph ist in seiner Formation analog zu der Kreuzkorrelationsauftragung in 9(b), aber in diesem Beispiel ist er ausgebildet durch einen unterschiedlichen Bildgebungskatheter, welcher in einem unterschiedlichen Subjekt verwendet wird.
  • In diesem Beispiel ist es klar, dass die Genauigkeitsfunktion weder eine klare Periodizität zeigt noch eine glatte Erscheinung aufweist, sondern eher eine raue oder spitze Erscheinung. In diesem Fall war das Verhalten des Genauigkeitsgraphen veranlasst durch die Nicht-Uniformität der Drehung des IVUS-Transducers, welcher für die Aussendung/Aufnahme der in dem Bild dargestellten Ultraschallsignale verantwortlich ist. Diese Art von Artefakt tritt manchmal in IVUS-Katheter-Transducer-Zusammenbauten auf, in welchen es dort sich bewegende mechanische Teile gibt.
  • Die Genauigkeitsfunktion kann, wenn in Betracht gezogen, normale Bildgabekonditionen wiederzugeben, für einen. weiteren Zweck dienen. Dies ist mit dem Ort der Maximain jedem Zyklus der Genauigkeitsfunktion verknüpft. Ein Lokalisieren dieser Maxima kann wichtig für Bildverarbeitungsalgorithmen sein, welche verschiedene aufeinander folgende Bilder zusammen verarbeiten. Bilder, welche nahe von Maximumsbildern zu finden sind, tendieren dazu, eine höhere Genauigkeit und weniger Zwischenbildbewegung eines im Bezug auf das andere aufzuweisen. Zusätzlich ist es üblicherweise am besten, falls Bilder, welche zur selben Phase von aufeinander folgenden Herzzyklen gehören, erforderlich sind ausgewählt zu werden, sie unter Verwendung der Maxima (der Genauigkeitsfunktion) in jedem Zyklus auszuwählen.
  • In einem Anzeigeverfahren werden diese Bilder z. B. auf die Anzeige projiziert und die Spalten werden ausgefüllt durch interpolierte Bilder. Bei diesem Anzeigeverfahren können alle Arten von periodischer Bewegung stabilisiert werden.
  • Die Verschiebungslogikstufe in dem Stabilisationsvorgang kann auch von der kardiovaskulären Periodizitätsüberwachung Verwendung machen. Falls eine Drift zu vermeiden ist, sollte die aufaddierte Verschiebung nach jedem (einzelnen) Herzzyklus gering oder null sein, d. h., die Summe aller Verschiebungen über eine Periode eines Zyklus soll null oder nahe null ergeben. Das heißt, dass das Drift-Phänomen limitiert werden kann durch Verwendung einer Verschiebungslogik, welche mit der Periodizitätsüberwachung gekoppelt ist.
  • Bezug nehmend nun auf 12 können die meisten IVUS-Bilder unterteilt werden in drei Grundteile. Der Zentralbereich (um den Katheter), in 12 als Lumen bezeichnet, ist das eigentliche Lumen oder ein innerer Durchgang (Hohlraum), durch welchen Fluid, z. B. Blut, strömt. Um das Lumen befindet sich das eigentliche Gefäß, in 12 als Gefäß bezeichnet, zusammengesetzt aus verschiedenen Schichten von Gewebe und Ablagerung (falls erkrankt). Das Gefäß umgebend ist ein anderes Gewebe, in 12 als außen bezeichnet, d. h. Muskeloder organisches Gewebe, z. B. das Herz in dem Bild eines Herzkranzgefäßes.
  • Wenn IVUS-Bilder dynamisch betrachtet werden (d. h. im Filmformat), zeigt die Anzeige des Inneren, wo das Blut fließt, und des Äußeren, welches das Gefäß umgibt, gewöhnlich ein unterschiedliches zeitliches Verhalten als das Gefäß selbst.
  • Ein automatisches Überwachen des zeitlichen Verhaltens von Pixeln in dem dynamischen IVUS-Bild würde die Verwendung von Information erlauben, die durch den Vorgang extrahiert wird, um die Interpretation von IVUS-Bildern zu unterstützen. Diese Information kann verwendet werden, um IVUS-Anzeigen durch Filtern und Unterdrücken der Erscheinung von sich schnell ändernden Merkmalen, wie etwa Fluid, z. B. Blut, und des umgebenden Gewebes auf Grundlage deren zeitlichen Verhaltens zu verbessern. Diese Information kann auch verwendet werden zur automatischen Unterteilung, um die Größe des Lumens automatisch durch Identifizieren des Fluids, z. B. Blut, und des umgebenden Gewebes zu bestimmen, basierend auf dem zeitlichen Verhalten von Texturattributen, die durch deren zusammensetzende Pixel ausgebildet sind.
  • Um eine automatische Überwachung von zeitlichem Verhalten zu erreichen, muss eine Auswertung des Verhältnisses zwischen Attributen vorgenommen werden, die durch entsprechende Pixel ausgebildet sind, die zu aufeinander folgenden Bildern gehören. Eine Extraktion von zeitlichem Verhalten hat Ähnlichkeit mit den Verfahren, die für Genauigkeitsoperationen auf einer lokalen Basis verwendet werden, wie vorher beschrieben.
  • Hohe zeitliche Änderungen werden gekennzeichnet durch verhältnismäßig große, verhältnismäßig graue Wertänderungen von entsprechenden Pixeln, wenn von einem Bild zum nächsten übergegangen wird. Diese schnellen zeitlichen Änderungen können in der Anzeige unterdrückt werden durch Ausdrücken dieser Änderungen durch die Formation einer Maske, welche das originale Bild multipliziert. Die Maske spiegelt zeitliche Änderungen in Pixelwerten wider. Ein Problem, das in dieser Auswertung auftritt, ist eine Bestimmung, ob Grauwertänderungen in entsprechenden Pixelwerten entweder von einem Fluss oder einer Änderung im Material herrühren oder von Bewegungen des Gefäßes/Katheters. Durch Durchführen dieser Auswertung an stabilisierten Bildern minimiert man zumindest dieses Problem.
  • Es gelten die folgenden Definitionen:
    B = momentanes (stabilisiertes oder nicht-stabilisiertes) Bild;
    A = Vorgängerbild (stabilisiert oder nicht-stabilisiert);
    C = Nachfolgerbild (stabilisiert oder nicht-stabilisiert);
    abs = Absolutwert.
  • Die verwendeten Matrizen können entweder in kartesischer oder Polarform sein.
  • Die folgende Operation, welche zu einer Matrix D1 führt, soll wie folgt definiert sein: D1 ist eine Matrix, in welcher jedes Pixel mit Koordinaten X, Y die Summe der absoluten Differenzen seiner kleinen umgebenden Nachbarschaft ist, z. B. 9 Elemente (X – 2 : X + 2, Y – 2 : Y + 2 – ein 3 × 3 Quadrat), extrahiert jeweils von Bildern A und B.
  • Zum Beispiel zeigt die folgende Illustration entsprechende Pixel (im Fettdruck) und deren nahe Nachbarschaft in Matrizen A und B.
  • Figure 00480001
  • Dem Pixel in Matrix D1, mit dem Ort entsprechend den Pixeln mit Wert 4 (in B) und 7 (in A) wird der folgende Wert zugewiesen:
    abs(1 – 3) + abs(4 – 6) + abs(51 – 8) + abs(6 – 3) + abs(7 – 4) + abs(15 – 70) + abs(3 – 2) + abs(5 – 1) + abs(83 – 6) = 190
    D2 ist ähnlich definiert, aber für Matrizen B und C.
  • D1 und D2 sind im Ergebnis Differenzmatrizen, welche gemittelt sind durch Verwendung der 3 ×3 Nachbarschaft, um lokale Fluktuationen oder Rauschen zu vermindern. Große Grauwertänderungen zwischen Bildern A und B oder zwischen B und C werden ausgedrückt als relativ hohe Werte jeweils in Matrizen D1 und D2.
  • Als Nächstes wird eine neue Matrix Dmax ausgebildet, in welcher jedes Pixel das Maximum des entsprechenden Pixels in Matrix D1 und D2 ist:
    Dmax = max(D1, D2)
    wobei:
    max(D1, D2) = jedes Pixel in Dmax hält das höchste der zwei entsprechenden Pixel in D 1 und D2.
  • Somit verbessert die einzelne Matrix Dmax insbesondere große Pixeländerungen zwischen Matrizen A, B und C. Jede Maskenmatrix (MD) wird dann ausgebildet durch Dmax durch Normierung, d. h., jedes Pixel in Dmax wird geteilt durch den Maximalwert von Dmax. Daher reichen die Pixelwerte der Masken MD von null bis eins.
  • Die Rolle der Maske ist es, das momentane Bild B in der folgenden Art und Weise zu multiplizieren, eine neue Matrix oder Bild, als BOUT definiert, auszubilden:
    BOUT = (1-MDn) * B
    wobei:
    B = originales momentanes Bild;
    BOUT = das neue Bild; n = jedes Pixel in der Matrix MD wird um die Potenz von n erhöht. n ist allgemein eine Zahl mit einem Wert, z. B. von 2–10
    1-MDn = eine Matrix, in welcher Pixelwert eins ist minus den Wert des entsprechenden Pixels in MD.
  • Durch Durchführen der Subtraktion 1-MDn werden kleine Werte von MD, welche sich langsam ändernde Merkmale widerspiegeln, hohe Werte in 1-MDn. Darüber hinaus ist die Chance, dass nur sich langsam ändernde Merkmale hohe Werte aufweisen werden, erhöht aufgrund der vorherigen Verbesserung von hohen MD-Werten (durch Ausbilden von MD als ein Maximum zwischen Matrizen D1 und D2).
  • Die Multiplikation der Maske (1-MDn) durch das momentane Bild B bildet ein neues Bild BOUT, in welchem das Auftreten von sich langsam ändernden Pixeln verbessert wird, während sich rasch ändernde Pixelwerte verringert werden. Die Zahl n bestimmt, wie stark die Unterdrückung der sich rasch ändernden Merkmale auf der Anzeige erscheinen wird.
  • 13 veranschaulicht die Ergebnisse der zeitlichen-Filterung. Das linke Bild ist ein originales IVUS-Bild (d. h. Matrix B) von einem Herzgefäß, wie es auf einer momentanen Anzeige erscheinen würde. Das linke Bild hat die oben beschriebenen Verarbeitungsschritte durchlaufen, d. h. zeitliche Filterung (Matrix BOUT). Man beachte, dass in dem rechten Bild Blut und das umgebende Gewebe ausgefiltert (unterdrückt) ist und Lumen und Gefäßgrenzen viel leichter zu identifizieren sind.
  • Eine automatische Unterteilung unterscheidet Fluid, z. B. Blut, und Äußeres von der Gefäßwand, basierend auf den Unterschieden zwischen dem zeitlichen Verhalten einer texturalen Qualität. Im Fall von zeitlicher Filterung wird dieses Verfahren abgeleitet aus dem Verhältnis zwischen entsprechenden Pixeln von einer Anzahl von aufeinander folgenden Bildern. Falls sich Pixelwerte aufgrund von Zwischenbildbewegung ändern, wird dann die Leistung des Algorithmus verringert werden. Eine Durchführung einer Stabilisierung vor einer automatischen Unterteilung wird dieses Problem überwinden oder zumindest minimieren.
  • Im Fall von temporaler Filterung sollen die folgenden Definitionen gelten:
    B = momentanes (stabilisiertes oder nicht-stabilisiertes) Bild;
    A = Vorgängerbild (stabilisiert oder nicht-stabilisiert);
    C = Nachfolgerbild (stabilisiert oder nicht-stabilisiert);
  • Die Matrizen können in kartesischer oder Polarform vorliegen.
  • Die strukturelle Qualität kann wie folgt definiert werden: angenommen, die vier nächsten Nachbarn eines Pixels mit dem Wert "a" sind "b", "c", "d" und "e", dann wird die Klassifikation von "a" abhängen von dessen Verhältnis zu "b", "c", "d" und "e". Das kann durch die folgende Darstellung gezeigt werden:
    Figure 00510001
    Die folgenden Kategorien können nun ausgebildet werden: In der vertikalen Richtung:
    falls a > b und a > e, dann wird "a" klassifiziert als zur Kategorie I gehörig;
    falls a > b und a < e, dann wird "a" klassifiziert als zur Kategorie II gehörig;
    falls a < b und a < e, dann wird "a" klassifiziert als zur Kategorie III gehörig;
    falls a < b und a > e, dann wird "a" klassifiziert als zur Kategorie IV gehörig;
    falls a = b oder a = e, dann wird "a" klassifiziert als zur Kategorie V gehörig.
  • In der horizontalen Richtung:
    falls a > c und a > d, dann wird "a" klassifiziert als zur Kategorie I gehörig;
    falls a > c und a < d, dann wird "a" klassifiziert als zur Kategorie II gehörig;
    falls a < c und a < d, dann wird "a" klassifiziert als zur Kategorie III gehörig;
    falls a < c und a > d, dann wird "a" klassifiziert als zur Kategorie IV gehörig;
    falls a = c oder a = d, dann wird "a" klassifiziert als zur Kategorie V gehörig.
  • Die vertikalen und horizontalen Kategorien werden als nächstes kombiniert, um eine neue Kategorie zu bilden. Als Ergebnis kann Pixel "a" nun zu 5 × 5 = 25 möglichen Kategorien gehören. Das bedeutet, dass die strukturelle Qualität von "a" charakterisiert ist durch dessen Zugehörigkeit zu einer dieser (25) Kategorien.
  • Zum Beispiel in der folgenden Nachbarschaft:
    Figure 00510002
  • Pixel "a" = 10 ist klassifiziert als zur Kategorie gehörig, welche Vertikalkategorie I einschließt (da 10 > 7 und 10 > 3), und Horizontalkategorie V (da 10 = 10). Falls jedoch Pixel "a" in der folgenden Nachbarschaft angeordnet worden wäre:
    Figure 00520001

    würde es klassifiziert worden sein als zu unterschiedlichen Kategorien gehörig, da seine horizontale Kategorie nun Kategorie III ist (10 < 11 und 10 < 14).
  • Durch Bestimmung des Verhältnisses von jedem Pixel zu seiner nahen Nachbarschaft wurde eine texturale Qualität ausgebildet, welche jedes Pixel in 25 mögliche Kategorien einteilt. Die Anzahl von Kategorien kann variieren (erhöht sein oder erniedrigt sein), d. h. beispielsweise durch Änderung der Kategorie bildenden Bedingungen, wie auch die Anzahl der nächsten verwendeten Nachbarn, z. B. können anstelle von vier acht nahe Nachbarn verwendet werden.
  • Das grundlegende Konzept, durch welches die strukturellen Wechsel verwendet werden, um Fluid, z. B. Blut, von dem Gefäß zu unterscheiden, ist durch Überwachen des Wechsels in Kategorien von entsprechenden Pixeln in aufeinander folgenden Bildern. Um dies zu erreichen, wird die Kategorie in jedem und jeglichem Pixel in Matrizen A, B und C bestimmt. Als Nächstes werden entsprechende Pixel jedes getestet, um zu sehen, ob sich diese Kategorie geändert hat. Falls sie es hat, wird das Pixel betrachtet, als ob es ein Fluid, z. B. Blut, ist, oder ein Pixel des umgebenden Gewebes. Falls sich dieses nicht geändert hat, dann wird das Pixel betrachtet als ein Gefäßpixel.
  • Das folgende Beispiel zeigt drei entsprechende Pixel (mit Werten 8, 12 und 14) und deren Nachbarschaften in aufeinander folgenden Matrizen A, B und C.
  • Figure 00530001
  • In diesem Beispiel ist die Kategoriedes Pixelwertes 12 (in B) die gleiche ist wie in A und C, so wird dies als ein Pixel klassifiziert mit einer höheren Chance, ein Pixel einer Gefäßwand zu sein. Falls jedoch die Situation wie unten gezeigt war (20 in C ändert sich auf 13):
    Figure 00530002

    dann weisen Pixel 8 in A und 12 in B die gleichen Kategorien auf, aber 14 in C weist eine unterschiedliche Kategorie auf als in dem vorherigen Beispiel. Als ein Ergebnis wird Pixel 12 in B als ein Pixel mit einer höheren Chance klassifiziert, ein Fluid-(Lumen)-, z. B. Blut, oder äußeres Gewebe-Pixel zu sein.
  • Das soweit beschriebene Klassifikationsverfahren überwacht die Änderung in der Struktur oder einem Muster, welches mit der kleinen Nachbarschaft um jedes Pixel zusammenhängt. Sobald diese Änderung wie oben beschreiben bestimmt wird, kann jedem Pixel ein binärer Wert zugeordnet werden. Zum Beispiel ein Wert von 0, falls dies betrachtet wird als ein Gefäßpixel, oder einen Wert von 1, falls dies betrachtet wird als ein Blutpixel oder ein Pixel, welches zum Äußeren des Gefäßes gehört. Das binäre Bild dient als eine Eingabe für das Verfahren zur Identifikation des Lumens und die originalen Pixelwerte spielen keine Rolle mehr in dem Unterteilungsvorgang.
  • Eine Identifikation des Lumens unter Verwendung des binären Bildes basiert auf zwei Annahmen, welche allgemein in IVUS-Bildern gültig sind, die in der oben beschriebenen Art und Weise verarbeitet werden. Die erste ist, dass die Flächen in dem Bild, welche Blut enthalten oder als am Äußeren des Gefäßes gefunden werden, gekennzeichnet sind durch eine hohe Dichte an Pixeln mit einem binären Wert von 1 (oder eine niedrige Dichte von Pixeln mit einem Wert von null). Der Ausdruck Dichte wird benötigt, da hier immer Pixel auftreten, welche falsch klassifiziert sind. Die zweite Annahme ist, dass aus morphologischer Sicht verbundene Bereiche hoher Dichte von Pixeln mit dem Wert von 1 (Lumen) gefunden werden sollten, um den Katheter und umgeben von verbundenen Bereichen von niedriger Dichte von Pixeln mit dem Wert von 1 (Gefäß), welche wiederum umgeben sind von verbundenen Bereichen von hoher Dichte von Pixel mit dem Wert von 1 (Gefäßäußeres). Der Grund für diese Annahme ist die typische morphologische Anordnung, welche für ein Blutgefäß erwartet wird.
  • Diese zwei Annahmen bilden die Basis für den nachfolgenden Verarbeitungsalgorithmus, welcher die eigentliche Fläche extrahiert, welche mit dem Lumen verbunden ist, aus dem binären Bild. Dieser Algorithmus kann bekannte Bildverarbeitungstechniken verwenden, wie Festlegen von Schwellenwerten des Dichtemerkmals in lokalisierten Bereichen (um Blut/Äußeres von einem Gefäß zu unterscheiden) und morphologische Operatoren, wie etwa eine Dehnung oder eine Verknüpfung, um eine Zwischenverbindung herzustellen und einen verbundenen Bereich auszubilden, welcher das eigentliche Lumen darstellt, welches sich innerhalb der Wandgrenzen des Gefäßes findet.
  • 14 zeigt ein Bild der Ergebnisse des Algorithmus für eine automatische Extraktion des Lumens. Das Bild ist ein originales IVUS-Bild (z. B. wie oben als Bild B beschrieben) und die Lumengrenzen werden überlagert (durch den Algorithmus) als eine helle Linie. Der Algorithmus für die Extraktion der Lumengrenzen basierte auf der oben beschriebenen Überwachung der Änderung in der strukturellen Qualität, drei aufeinander folgende Bilder verwendend.
  • Die oben beschriebenen Beispiele von zeitlicher Filterung und automatischer Unterteilung schließen die Verwendung von zwei zusätzlichen Bildern ein (z. B. wie oben als Bilder A und C beschrieben) zusätzlich zu dem momentanen Bild (z. B. wie oben als Bild B beschrieben). Jedoch könnten beide dieser Verfahren modifiziert werden, um weniger (d. h. nur ein zusätzliches Bild) oder mehr zusätzliche Bilder zu verwenden.
  • Die Leistung der zwei oben beschriebenen Verfahren wird bedeutend erhöht werden, falls kombiniert mit kardiovaskuläre Periodizitätsüberwachung. Dies gilt insbesondere für aufeinander folgende Bilder, in welchen kardiovaskuläre Periodizitätsüberwachung hohe Zwischenbild-Genauigkeitswerte erzeugt. Diese Bilder weisen gewöhnlich eine Zwischenbildbewegung auf. Somit können zuverlässigste Ergebnisse erwartet werden, wenn aufeinander folgende Bilder mit maximaler Zwischenbildgenauigkeit als Eingaben entweder zeitlicher Filterung oder automatischer Unterteilung zugeführt werden.
  • Während einer Behandlung von Gefäßen unter Verwendung von Katheterisierung ist es eine übliche Praxis, IVUS-Zurückziehuntersuchungen in dem gleichen Gefäßsegment zu wiederholen. Zum Beispiel ist es eine typische Situation, zuerst das in Frage kommende Segment zu begutachten, die Krankheit (falls überhaupt) zu bestimmen, den IVUS-Katheter zu entfernen, Therapieoptionen in Erwägung zu ziehen, eine Therapie durchzuführen und dann unmittelbar nachher (während der gleichen Sitzung) das behandelte Segment wieder unter Verwendung von IVUS zu untersuchen, um die Ergebnisse der Therapie zu bewerten.
  • Um die Ergebnisse einer solchen Therapie richtig zu bewerten, sollten entsprechende Segmente der Segmente vor Behandlung und nach Behandlung, welche an den gleichen Orten entlang der Länge des Gefäßes liegen, d. h. entsprechende Segmente, verglichen werden. Das folgende Verfahren bietet ein Abgleichen, d. h. eine automatische Identifikation (Registrierung) von entsprechenden Segmenten.
  • Um ein Abgleichen von entsprechenden Segmenten zu erreichen, werden Genauigkeits-/Ähnlichkeitsoperationen zwischen Bildern angewandt, welche zu einer ersten Gruppe von aufeinander folgenden Bildern gehören, d. h. ein Referenzsegment, eines ersten Rückziehfilms und Bilder, welche zu einer zweiten Gruppe von aufeinander folgenden Bildern eines zweiten Rückziehfilms gehören. Abgleichen des Referenzsegments in dem ersten Film mit einem entsprechenden Segment in dem zweiten Film wird erreicht, wenn eine Kriterienfunktion maximieri wird.
  • Von jedem der zwei Filme wird ein Referenzsegment gewählt. Das Referenzsegment kann eine Gruppe von aufeinander folgenden Bildern sein, welche z. B. einen Film von zwei Sekunden eines IVUS-Bildes darstellen. Es ist wichtig, das Referenzsegment aus einem Ort in einem Gefäß auszuwählen, der in den zwei Filmen vorhanden ist und keiner Änderung als Ergebnis irgendeines Verfahrens unterzogen wurde, d. h., das Referenzsegment ist proximal oder distal zu dem behandelten Segment.
  • Als Beispiel wird die Tabelle in 15 helfen, das Verfahren zum Abgleichen von entsprechenden Segmenten zu klären.
  • Die linke Spalte zeigt die Zeitsequenz des ersten Films, in diesem Fall besteht der Film aus zwanzig aufeinander folgenden Bildern. Die mittlere Spalte zeigt das Referenzsegment, welches aus dem zweiten Film ausgewählt ist, und besteht aus 10 aufeinander folgenden Bildern. Die rechte Spalte listet die 10 aufeinander folgenden Bilder von dem ersten Film (#5 – #14) auf, welche eigentlich den Bildern des Referenzsegments von dem zweiten Film (# 1 – # 10) entsprechen (oder zusammenpassen). Der Zweck des Abgleichverfahrens ist es, diese Entsprechung zu enthüllen.
  • Sobald ein Referenzsegment ausgewählt ist, wird es entlang dem anderen Film verschoben, jedes Mal um ein Bild (oder mehr), und ein Satz von Stabilisierungs und Genauigkeitsoperationen wird durchgeführt zwischen den entsprechenden Bildern in jedem Segment. Die Richtung der Verschiebung hängt ab von dem relativen Ort des Referenzsegments in der Zeitsequenz der zwei Filme. Falls jedoch allgemein diese nicht bekannt ist, kann die Verschiebung in beide Richtungen ausgeführt werden.
  • Wo zum Beispiel:
    r = Referenzsegment; und
    f = erster Film,
    wird der erste Satz von Operationen stattfinden zwischen den Bildern, welche die folgenden Paare aufweisen: r#1–f#1, r#2–f#2, r#3–f#3, ..., r#10–f#10.
  • Der zweite Satz von Operationen wird stattfinden zwischen den Bildern, welche die folgenden Paare aufweisen: r#1–f#2, r#2–f#3, r#3–f#4, ..., r#10–x#11.
  • Der dritte Satz an Operationen wird stattfinden zwischen den Bildern, welche die folgenden Paare umfassen: r#1–f#3, r#2–f#4, r#3–f#5, ..., x#10–x#12, und so weiter, und so weiter. Wie in diesem Beispiel beobachtet werden kann, wird die Verschiebung durchgeführt, um ein einzelnes Bild jedes Mal und in nur eine Richtung.
  • Zum Beispiel können die folgenden Operationen zwischen den Bildern in jedem Paar durchgeführt werden. Als erstes wird ein Bild von dem Referenzsegment für eine Dreh- und kartesische Bewegung stabilisiert bezüglich seinem Gegenstück in dem ersten Film. Dann werden Genauigkeitsoperationen durchgeführt zwischen den Bildern in jedem Paar. Diese Operation kann beispielsweise sein eine nor- mierte Kreuzkorrelation (oben bezüglich einer Periodizitätsdetektion diskutiert). Eine jede solche Operation erzeugt einen Genauigkeitswert, z. B. einen Kreuzkorrelationskoeffizienten, wenn eine normierte Kreuzkorrelation verwendet wird. Ein Satz von solchen Operationen wird eine Anzahl von Kreuzkorrelationswerten erzeugen. In dem in der Tabelle von 15 gezeigten Beispiel werden, jedes Mal wenn das Referenzsegment verschoben wird, zehn neue Kreuzkorrelationskoeffizienten erzeugt.
  • Die von einem Satz von Operationen erzeugten Genauigkeitswerte können dann in irgendeine Art von Genauigkeitsfunktion abgebildet werden, z. B. eine Mittelungsfunktion: Das obige Beispiel verwendend, werden die Kreuzkorrelationskoeffizienten aufsummiert und dann durch die Anzahl von Paaren, d. h. zehn, geteilt. Jeder Satz von Operationen führt daher zu einem einzelnen Wert, d. h. einer gemittelten Genauigkeit, welche den Grad der Genauigkeit zwischen dem Referenzsegment und seinem zeitlichen Gegenpart in dem ersten Film wiedergeben soll. Somit wird das Ergebnis des ersten Satzes von Operationen ein einzelner Wert sein, das Ergebnis des zweiten Satzes von Operationen wird ein weiterer Wert sein, und so weiter.
  • Wir können erwarten, dass die maximale durchschnittliche Genauigkeit als ein Ergebnis der zwischen Segmenten durchgeführten Operationen auftreten wird, welche sehr ähnlich sind, d. h. einander entsprechende oder abgestimmte Segmente.
  • In dem obigen Beispiel sollten die Segmente angepasst sein während dem fünften Satz von Operationen, welche stattfinden zwischen den Bildern, welche die folgenden Paare aufweisen: r#1–f#5, r#2–f#6, r#3–f#7, ..., r#10–f#14.
  • Die maximale gemittelte Genauigkeit soll daher entsprechende Segmente bezeichnen, da jedes Paar von Bildern in Wirklichkeit entsprechende Bilder sind, d. h. sie zeigen die gleiche Morphologie. Die Kriterien mögen diesem Algorithmus jedoch nicht folgen. Der kann z. B. die Form der Genauigkeitsfunktion berücksichtigen, abgeleitet aus vielen verschobenen Segmentpositionen anstelle der Verwendung nur einer seiner Werte, welcher sich als das Maximum herausstellt.
  • Sobald entsprechende Segmente identifiziert sind, können die gesamten ersten und zweiten Filme einer im Verhältnis zum anderen synchronisiert werden. Dies wird ein Ergebnis einer geeigneten Bildverschiebung sein, sich ergebend durch den Abgleichvorgang, implementiert in einem Film bezüglich dem anderen. Somit wird, wenn man zwei Filme nebeneinander betrachtet, das Segment vor Behandlung gemeinsam mit dem Teil nach Behandlung erscheinen.
  • Neben einer Synchronisation von entsprechenden Segmenten stabilisiert die obige Operation auch die entsprechenden Segmente eines in Bezug auf das andere. Dies verbessert weiter die Fähigkeit, die Änderungen in einer Morphologie zu verstehen. Somit werden, sogar obwohl sich, wenn der Katheter in das Gefäß wieder eingeführt wird, dessen Position und Orientierung wahrscheinlich geändert haben, nichtsdestotrotz die Bilder in den Filmen vor Behandlung und nach Behandlung in Bezug zu einander stabilisiert.
  • Die Anzahl der für das Referenzsegment verwendeten Bilder kann variieren. Je mehr Bilder in dem Abgleichsvorgang verwendet werden, umso stabiler und weniger anfällig für lokale Fehler wird er sein. Der Nachteil ist jedoch mehr erforderliche Rechenzeit für die Berechnungen für jeden Abgleichsvorgang, da sich die Anzahl der Paare erhöht.
  • Es ist beim Aufnehmen der Rückziehfilme wichtig, dass die Rückziehrate stabil bleibt und bekannt ist. Es ist bevorzugt, dass die Rückziehrate bei den zwei Aufnahmen identisch ist.

Claims (48)

  1. Intravaskuläre Ultraschall-Abbildungsvorrichtung, aufweisend: einen Ultraschallsignalsender und -detektor, angepasst, um innerhalb eines Körperlumens angeordnet zu sein; und einen Prozessor, der mit dem Ultraschallsignalsender und -detektor gekoppelt ist, wobei der Prozessor programmiert ist, um: a. ein erstes Bild aus den detektierten intravaskulären Ultraschallsignalen abzuleiten, b. ein zweites Bild aus den detektierten intravaskulären Ultraschallsignalen abzuleiten, und c. das zweite Bild in Bezug auf das erste Bild durch eine kompensierende Bewegung des Körperlumens oder eines Teils davon im zweiten Bild in Bezug zum ersten Bild zu stabilisieren, wobei die Bewegungskompensation ausgeführt wird durch ein Messen einer Ähnlichkeit zwischen dem ersten Bild und dem zweiten Bild.
  2. Vorrichtung nach Anspruch 1, wobei ein Vergleichen des zweiten Bildes mit dem ersten Bild ein Auswerten des zweiten Bildes in Bezug auf das erste Bild einschließt.
  3. Vorrichtung nach Anspruch 1, wobei der Prozessor, der programmiert ist, um abzuleiten, zumindest Einen zum Verarbeiten und Digitalisieren einschließt.
  4. Vorrichtung nach Anspruch 1, weiter aufweisend eine Anzeige, die mit dem Prozessor gekoppelt ist.
  5. Vorrichtung nach Anspruch 1, wobei das Ableiten eine Konfiguration einer zweidimensionalen Matrix einschließt, insbesondere in Polarkoordinaten und kartesische Koordinaten.
  6. Vorrichtung nach Anspruch 1, wobei die Stabilisierung durch Konvertieren der ersten und zweiten Bilder oder Teilen davon in Polarkoordinaten ausgeführt wird; und Ausführen einer entgegengesetzten Gefäßbewegung in radialer Richtung des zweiten Bildes in Polarkoordinaten in Bezug auf das erste Bild in Polarkoordinaten.
  7. Vorrichtung nach Anspruch 5, wobei die zweidimensionale Matrix eine Mehrzahl von Elementen aufweist, wobei jede der Mehrzahl der Elemente ein detektiertes Ultraschallsignal von einem vorbestimmten räumlichen Ort darstellt.
  8. Vorrichtung nach Anspruch 2, wobei ein Auswerten des zweiten Bildes in Bezug auf das erste Bild eine Schiebeauswertung einschließt.
  9. Vorrichtung nach Anspruch 2, wobei das Auswerten des zweiten Bildes in Bezug zum ersten Bild zumindest eine Genauigkeitsoperation einschließt.
  10. Vorrichtung nach Anspruch 9, wobei die zumindest eine Genauigkeitsoperation zumindest eine von Kreuzkorrelation, normalisierter Kreuzkorrelation und SAD einschließt.
  11. Vorrichtung nach Anspruch 10, wobei die Kreuzkorrelation zumindest eine von direkter Kreuzkorrelation und Fourier-Transformation einschließt.
  12. Vorrichtung nach Anspruch 2, wobei das Auswerten des zweiten Bildes in Bezug auf das erste Bild durch Verwendung von zumindest einer von kartesischen Koordinaten und Polarkoordinaten erreicht wird.
  13. Vorrichtung nach Anspruch 2, wobei das Auswerten des zweiten Bildes in Bezug auf das erste Bild in zumindest einer Dimension erreicht wird.
  14. Vorrichtung nach Anspruch 1, wobei der Prozessor weiter so programmiert ist, um zumindest eine von einer kartesischen Verschiebung, Rotationsbewegung und Gefäßbewegung zu detektieren.
  15. Vorrichtung nach Anspruch 14, wobei zumindest eine der kartesischen Verschiebung und der Rotationsbewegung starr ist.
  16. Vorrichtung gemäß Anspruch 14, wobei zumindest eine der kartesischen Verschiebung und der Rotationsbewegung lokal ist.
  17. Vorrichtung gemäß Anspruch 14, wobei die Gefäßbewegung global ist.
  18. Vorrichtung nach Anspruch 14, wobei die Gefäßbewegung lokal ist.
  19. Vorrichtung nach Anspruch 1, wobei der Prozessor weiter programmiert ist, um automatisch eine Änderung in detektierten Ultraschallsignalen zu überwachen, für zumindest eines von Bildverbesserung und Lumen-Identifizierung.
  20. Vorrichtung nach Anspruch 19, wobei die Verarbeitung zumindest eines von Klassifikation der temporären Änderung in Textur und temporärer Filterung einschließt.
  21. Vorrichtung nach Anspruch 1, wobei der Prozessor weiter programmiert ist, um automatisch eine kardiovaskuläre Periodizität zu überwachen.
  22. Vorrichtung nach Anspruch 1, wobei der Prozessor weiter programmiert ist, um eine Bildqualität automatisch zu überwachen.
  23. Vorrichtung nach Anspruch 1, wobei der Prozessor automatisch das erste Bild und das zweite Bild für eine Gefäßbewegung überwacht.
  24. Vorrichtung nach Anspruch 27, wobei der Prozessor weiter programmiert ist, um eine Genauigkeitsfunktion auszubilden.
  25. Vorrichtung nach Anspruch 24, wobei der Prozessor automatisch die Genauigkeitsfunktion für eine kardiovaskuläre Periodizität überwacht.
  26. Vorrichtung nach Anspruch 24, wobei der Prozessor automatisch die Genauigkeitsfunktion für eine kardiovaskuläre Periodizität überwacht, unter Verwendung von zumindest einer von Schwellenkreuzung, interner Genauigkeit, Fourier-Transformation und Spektralanalyse.
  27. Vorrichtung nach Anspruch 24, wobei die Genauigkeitsfunktion für eine Bildqualität analysiert wird.
  28. Vorrichtung nach Anspruch 1, wobei ein Stabilisieren das Stabilisieren für zumindest eine von globaler, lokaler und starrer Bewegung einschließt.
  29. Vorrichtung nach Anspruch 1, wobei eine Stabilisierung die Stabilisierung jedes einer Mehrzahl von Orten im zweiten Bild einschließt.
  30. Vorrichtung nach Anspruch 1, wobei das Stabilisieren eine Verschiebung des zweiten Bildes einschließt.
  31. Vorrichtung nach Anspruch 1, wobei der Prozessor weiter programmiert ist, um eine Drift zu begrenzen.
  32. Vorrichtung nach Anspruch 30, wobei der Prozessor weiter programmiert ist, um eine Drift durch Einstellen der Verschiebung des zweiten Bildes unter Verwendung von Information zu begrenzen, die aus einer kardiovaskulären Periodizitäts-Überwachung abgeleitet ist.
  33. Ultraschall-Abbildungsvorrichtung nach Anspruch l, wobei der Prozessor programmiert ist, um: a. eine erste Serie von Bildern von einem ersten Satz detektierter Ultraschallsignale abzuleiten, b. eine zweite Serie von Bildern von einem zweiten Satz detektierter Ultraschallsignale abzuleiten, c. die erste Serie von Bildern mit der zweiten Serie von Bildern zu vergleichen, und d. automatisch die erste Serie von Bildern und die zweite Serie von Bildern abzugleichen.
  34. Vorrichtung nach Anspruch 33, wobei ein Vergleichen des zweiten Bildes mit dem ersten Bild ein Auswerten des zweiten Bildes in Bezug auf das erste Bild einschließt.
  35. Vorrichtung nach Anspruch 33, wobei das Abgleichen eine Identifizierung von entsprechenden Bildern einschließt.
  36. Vorrichtung nach Anspruch 33, wobei zumindest ein Abschnitt der ersten Serie von Bildern ein Bezugssegment ist, und wobei zumindest ein Abschnitt der zweiten Serie von Bildern ein Nicht-Bezugssegment ist.
  37. Vorrichtung nach Anspruch 36, wobei das Abgleichen einschließt, dass das Nicht-Bezugssegment um ein Bild in Bezug zum Bezugssegment verschoben wird.
  38. Vorrichtung nach Anspruch 36, wobei das Abgleichen einschließt, dass das Nicht-Bezugssegment in Bezug zum Bezugssegment stabilisiert wird.
  39. Vorrichtung nach Anspruch 38, wobei die Stabilisierung für jedes der entsprechenden Bilder von den Bezugs- und den Nicht-Bezugssegmenten individuell ausgeführt wird.
  40. Vorrichtung nach Anspruch 38, wobei die Stabilisierung für jedes der entsprechenden Bilder der ersten Serie und der zweiten Serie der Bilder individuell ausgeführt wird.
  41. Vorrichtung nach Anspruch 33, wobei das Abgleichen eine Genauigkeitsoperatian einschließt.
  42. Vorrichtung nach Anspruch 42, wobei die Genauigkeitsoperation eine von Kreuzkorrelation und normalisierter Kreuzkorrelation einschließt,
  43. Vorrichtung nach Anspruch 42, wobei die erste Serie von Bildern aus einer ersten Bewegung des Ultraschailsignalsenders und -detektors entlang eines ersten Abschnitts des Körperlumens abgeleitet ist, und wobei die zweite Serie von Bildern aus einer zweiten Bewegung des Ultraschallsignalsenders und -detektars entlang eines zweiten Abschnitts des Körperlumens abgeleitet ist,
  44. Vorrichtung nach Anspruch 43, wobei der erste Abschnitt und der zweite Abschnitt des Körperlumens ungefähr koextensiv sind.
  45. Vorrichtung nach Anspruch 1, weiter aufweisend eine Sonde, die mit dem Ultraschallsignalsender und -detektor gekoppelt ist.
  46. Vorrichtung nach Anspruch 1 oder 43, wobei der Ultraschallsignalsender und -detektor einen unabhängigen Sender und einen unabhängigen Detektor einschließt.
  47. Vorrichtung nach Anspruch 42, weiter aufweisend eine Sonde, die mit dem Ultraschallsignalsender und -detektor gekoppelt ist, und ein Bewegen des Ultraschallsignalsenders und -detektors durch den Abschnitt.
  48. Vorrichtung nach den Ansprüchen 45 oder 47, wobei die Sonde zumindest eines von einem Katheter und einem Führungsdraht ist.
DE69813087T 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen Expired - Fee Related DE69813087T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US87912597A 1997-06-19 1997-06-19
US879125 1997-06-19

Publications (2)

Publication Number Publication Date
DE69813087D1 DE69813087D1 (de) 2003-05-15
DE69813087T2 true DE69813087T2 (de) 2004-02-05

Family

ID=25373482

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69813087T Expired - Fee Related DE69813087T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE69827857T Expired - Fee Related DE69827857T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE19827460A Withdrawn DE19827460A1 (de) 1997-06-19 1998-06-19 Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE69827857T Expired - Fee Related DE69827857T2 (de) 1997-06-19 1998-06-18 Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE19827460A Withdrawn DE19827460A1 (de) 1997-06-19 1998-06-19 Verbesserte intravaskuläre Ultraschallbild- und Signalverarbeitung

Country Status (25)

Country Link
US (2) US6095976A (de)
EP (2) EP1227342B1 (de)
JP (1) JPH11151246A (de)
KR (1) KR19990007305A (de)
AR (1) AR015123A1 (de)
AT (2) ATE236574T1 (de)
AU (2) AU8032298A (de)
BR (1) BR9814778A (de)
CA (1) CA2240651A1 (de)
CZ (1) CZ190198A3 (de)
DE (3) DE69813087T2 (de)
DK (1) DK0885594T3 (de)
EE (1) EE04166B1 (de)
ES (1) ES2192290T3 (de)
GB (1) GB2326479B (de)
HK (1) HK1050242A1 (de)
IL (1) IL125000A (de)
NO (1) NO982817L (de)
PL (1) PL326831A1 (de)
PT (1) PT885594E (de)
RU (1) RU2238041C2 (de)
SG (1) SG68672A1 (de)
SK (1) SK87098A3 (de)
UA (1) UA57011C2 (de)
WO (1) WO1998057580A1 (de)

Families Citing this family (212)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930012B2 (en) * 1992-09-23 2011-04-19 St. Jude Medical, Atrial Fibrillation Division, Inc. Chamber location method
US6240307B1 (en) 1993-09-23 2001-05-29 Endocardial Solutions, Inc. Endocardial mapping system
US7189208B1 (en) * 1992-09-23 2007-03-13 Endocardial Solutions, Inc. Method for measuring heart electrophysiology
ATE160273T1 (de) * 1992-09-23 1997-12-15 Endocardial Solutions Inc Endokard-mapping system
US6027451A (en) * 1997-09-26 2000-02-22 Ep Technologies, Inc. Method and apparatus for fixing the anatomical orientation of a displayed ultrasound generated image
US5885218A (en) * 1997-11-07 1999-03-23 Scimed Life Systems, Inc. Method and apparatus for spatial filtering in an intravascular ultrasound imaging system
US7263397B2 (en) 1998-06-30 2007-08-28 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for catheter navigation and location and mapping in the heart
US7670297B1 (en) 1998-06-30 2010-03-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Chamber mapping system
US7806829B2 (en) 1998-06-30 2010-10-05 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for navigating an ultrasound catheter to image a beating heart
US6120445A (en) * 1998-10-02 2000-09-19 Scimed Life Systems, Inc. Method and apparatus for adaptive cross-sectional area computation of IVUS objects using their statistical signatures
US7837624B1 (en) 1998-11-20 2010-11-23 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasound imaging methods for extended field of view
US6352509B1 (en) * 1998-11-16 2002-03-05 Kabushiki Kaisha Toshiba Three-dimensional ultrasonic diagnosis apparatus
US6352508B1 (en) * 1998-11-20 2002-03-05 Acuson Corporation Transducer motion compensation in medical diagnostic ultrasound extended field of view imaging
US7386339B2 (en) * 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US6381350B1 (en) * 1999-07-02 2002-04-30 The Cleveland Clinic Foundation Intravascular ultrasonic analysis using active contour method and system
US6586411B1 (en) 2000-08-16 2003-07-01 Mayo Foundation For Medical Education And Research System for monitoring the location of transgenes
US6200268B1 (en) * 1999-09-10 2001-03-13 The Cleveland Clinic Foundation Vascular plaque characterization
US6896881B1 (en) 1999-09-24 2005-05-24 Mayo Foundation For Medical Education And Research Therapeutic methods and compositions using viruses of the recombinant paramyxoviridae family
JP2001184492A (ja) * 1999-12-27 2001-07-06 Fuji Photo Film Co Ltd 画像表示方法および画像表示装置
US6402693B1 (en) * 2000-01-13 2002-06-11 Siemens Medical Solutions Usa, Inc. Ultrasonic transducer aligning system to replicate a previously obtained image
US6368277B1 (en) * 2000-04-05 2002-04-09 Siemens Medical Solutions Usa, Inc. Dynamic measurement of parameters within a sequence of images
JP3854062B2 (ja) * 2000-04-28 2006-12-06 株式会社モリタ製作所 断層面画像の表示方法、表示装置、この表示方法を実現するプログラムを記録した記録媒体
US6517488B1 (en) * 2000-06-29 2003-02-11 Acuson Corporation Medical diagnostic ultrasound system and method for identifying constrictions
CA2314794A1 (en) * 2000-08-01 2002-02-01 Dimitre Hristov Apparatus for lesion or organ localization
US6716166B2 (en) * 2000-08-18 2004-04-06 Biosense, Inc. Three-dimensional reconstruction using ultrasound
US7118740B1 (en) * 2000-09-22 2006-10-10 Mayo Foundation For Medical Education And Research Method for limiting the growth of cancer cells using an attenuated measles virus
US7778685B2 (en) 2000-10-18 2010-08-17 Paieon Inc. Method and system for positioning a device in a tubular organ
US6508768B1 (en) * 2000-11-22 2003-01-21 University Of Kansas Medical Center Ultrasonic elasticity imaging
US6537221B2 (en) * 2000-12-07 2003-03-25 Koninklijke Philips Electronics, N.V. Strain rate analysis in ultrasonic diagnostic images
US6773402B2 (en) 2001-07-10 2004-08-10 Biosense, Inc. Location sensing with real-time ultrasound imaging
NL1018864C2 (nl) 2001-08-31 2003-03-03 Technologiestichting Stw Inrichting en werkwijze voor het genereren van driedimensionale beelden met hardheidsinformatie van weefsel.
WO2006103644A1 (en) 2005-03-31 2006-10-05 Paieon Inc. Method and apparatus for positioning a device in a tubular organ
US6782284B1 (en) * 2001-11-21 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for semi-automatic aneurysm measurement and stent planning using volume image data
US6589176B2 (en) * 2001-12-05 2003-07-08 Koninklijke Philips Electronics N.V. Ultrasonic image stabilization system and method
NL1019612C2 (nl) * 2001-12-19 2003-06-20 Gemeente Amsterdam Stoomoververhitter.
US7024025B2 (en) * 2002-02-05 2006-04-04 Scimed Life Systems, Inc. Nonuniform Rotational Distortion (NURD) reduction
US6961468B2 (en) * 2002-03-29 2005-11-01 Sun Microsystems, Inc. Method and apparatus for adaptive local image quantification verification
US7092572B2 (en) * 2002-03-29 2006-08-15 Sun Microsystems, Inc. Method and apparatus for global image quantification verification
US7092571B2 (en) 2002-03-29 2006-08-15 Sun Microsystems, Inc. Method and apparatus for regional image quantification verification
JP4088104B2 (ja) 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
US7074188B2 (en) * 2002-08-26 2006-07-11 The Cleveland Clinic Foundation System and method of characterizing vascular tissue
US7927275B2 (en) * 2002-08-26 2011-04-19 The Cleveland Clinic Foundation System and method of aquiring blood-vessel data
TR201902962T4 (tr) * 2002-08-26 2019-03-21 Cleveland Clinic Found Vasküler dokunun karakterize edilmesine yönelik sistem ve yöntem.
US7359554B2 (en) * 2002-08-26 2008-04-15 Cleveland Clinic Foundation System and method for identifying a vascular border
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
AU2003276629A1 (en) 2002-12-02 2004-06-23 Koninklijke Philips Electronics N.V. Segmentation tool for identifying flow regions in an imaging system
US7925327B2 (en) 2002-12-04 2011-04-12 Koninklijke Philips Electronics N.V. Apparatus and method for assisting the navigation of a catheter in a vessel
US7927278B2 (en) * 2002-12-13 2011-04-19 California Institute Of Technology Split-screen display system and standardized methods for ultrasound image acquisition and multi-frame data processing
US20060111877A1 (en) * 2002-12-13 2006-05-25 Haselhoff Eltjo H System and method for processing a series of image frames representing a cardiac cycle
JP2006518623A (ja) * 2003-02-25 2006-08-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 血管内撮像
US7314448B2 (en) * 2003-03-28 2008-01-01 Scimed Life Systems, Inc. Imaging transducer assembly
JP4468677B2 (ja) * 2003-05-19 2010-05-26 オリンパス株式会社 超音波画像生成方法及び超音波画像生成プログラム
US6942618B2 (en) * 2003-06-19 2005-09-13 Siemens Medical Solutions U.S.A., Inc. Change detection for optimized medical imaging
JP4799833B2 (ja) * 2003-06-19 2011-10-26 サラヤ株式会社 エコーを用いた血管径測定方法およびその装置
EP1654704A2 (de) * 2003-07-21 2006-05-10 Paieon Inc. Verfahren und system zum identifizieren eines optimalen bildes in einer reihe von bildern, die ein bewegliches organ abbilden
WO2005024729A1 (en) * 2003-09-04 2005-03-17 Philips Intellectual Property & Standards Gmbh Device and method for displaying ultrasound images of a vessel
DE10343808B4 (de) 2003-09-22 2017-06-01 Siemens Healthcare Gmbh Medizinisches Untersuchungs- und/oder Behandlungssystem
EP1665130A4 (de) 2003-09-25 2009-11-18 Paieon Inc System und verfahren zur dreidimensionalen rekonstruktion eines röhrenförmigen organs
CA2449080A1 (en) 2003-11-13 2005-05-13 Centre Hospitalier De L'universite De Montreal - Chum Apparatus and method for intravascular ultrasound image segmentation: a fast-marching method
DE10354496B4 (de) 2003-11-21 2011-03-31 Siemens Ag Medizinisches Untersuchungs- und/oder Behandlungssystem
US7961920B2 (en) * 2003-12-19 2011-06-14 Koninklijke Philips Electronics N.V. Method for the computer-assisted visualization of diagnostic image data
US7542544B2 (en) * 2004-01-06 2009-06-02 The Regents Of The University Of Michigan Ultrasound gating of cardiac CT scans
US7874990B2 (en) * 2004-01-14 2011-01-25 The Cleveland Clinic Foundation System and method for determining a transfer function
JP4602993B2 (ja) * 2004-01-16 2010-12-22 ボストン サイエンティフィック リミテッド 医用撮像のための方法及び装置
US20080051660A1 (en) * 2004-01-16 2008-02-28 The University Of Houston System Methods and apparatuses for medical imaging
DE102004008366B3 (de) * 2004-02-20 2005-09-15 Siemens Ag Vorrichtung zur Durchführung von Laserangioplastie mit OCT-Überwachung
DE102004008373B3 (de) * 2004-02-20 2005-09-29 Siemens Ag Vorrichtung zum Durchführen und Überwachen der endovaskulären Brachytherapie
DE102004008368B4 (de) * 2004-02-20 2006-05-24 Siemens Ag Katheter zur Durchführung und Überwachung von Rotablation
DE102004008370B4 (de) * 2004-02-20 2006-06-01 Siemens Ag Katheter zur Durchführung und Überwachung von Rotablation
DE102004008371B4 (de) 2004-02-20 2006-05-24 Siemens Ag Atherektomiekatheter
US7215802B2 (en) * 2004-03-04 2007-05-08 The Cleveland Clinic Foundation System and method for vascular border detection
DE102004011156A1 (de) * 2004-03-08 2005-10-06 Siemens Ag Verfahren zur endoluminalen Bildgebung mit Bewegungskorrektur
DE102004015642B3 (de) 2004-03-31 2006-02-02 Siemens Ag Vorrichtung zur Beseitigung eines vollständigen Gefäßverschlusses mit OCT-Überwachung
DE102004015640B4 (de) * 2004-03-31 2007-05-03 Siemens Ag Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit OCT-Überwachung
DE102004015639B4 (de) 2004-03-31 2007-05-03 Siemens Ag Vorrichtung zum Durchführen einer "Cutting-Balloon"-Intervention mit IVUS-Überwachung
US7654958B2 (en) * 2004-04-20 2010-02-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for ultrasound imaging with autofrequency selection
US7397935B2 (en) * 2004-05-10 2008-07-08 Mediguide Ltd. Method for segmentation of IVUS image sequences
US20060173318A1 (en) * 2004-07-20 2006-08-03 Scimed Life Systems Inc. Systems and methods for detecting and presenting textural information from medical images
US7578790B2 (en) * 2004-07-20 2009-08-25 Boston Scientific Scimed, Inc. Systems and methods for detecting and presenting textural information from medical images
US20060036147A1 (en) * 2004-07-20 2006-02-16 Scimed Life Systems, Inc. Systems and methods for detecting and presenting textural information from medical images
DE102005045071A1 (de) * 2005-09-21 2007-04-12 Siemens Ag Kathetervorrichtung mit einem Positionssensorsystem zur Behandlung eines teilweisen und/oder vollständigen Gefäßverschlusses unter Bildüberwachung
DE102004062395B4 (de) 2004-12-23 2008-10-02 Siemens Ag Intravenöse Herzschrittmacherelektrode
EP1835855B1 (de) * 2005-01-11 2017-04-05 Volcano Corporation Ko-registrierung von gefässabbildungen
US8295577B2 (en) 2005-03-31 2012-10-23 Michael Zarkh Method and apparatus for guiding a device in a totally occluded or partly occluded tubular organ
US8858441B2 (en) * 2005-05-12 2014-10-14 The Trustees Of Columbia University In The City Of New York System and method for electromechanical wave imaging of body structures
US10687785B2 (en) 2005-05-12 2020-06-23 The Trustees Of Columbia Univeristy In The City Of New York System and method for electromechanical activation of arrhythmias
DE102005022120B4 (de) * 2005-05-12 2009-04-09 Siemens Ag Katheter, Kathetereinrichtung und bildgebende Diagnosevorrichtung
DE102005027951A1 (de) * 2005-06-16 2007-01-04 Siemens Ag Medizinisches System zur Einführung eines Katheters in ein Gefäß
WO2007002685A2 (en) 2005-06-24 2007-01-04 Volcano Corporation Co-registration of graphical image data representing three-dimensional vascular features
DE102005029476A1 (de) * 2005-06-24 2007-02-08 Siemens Ag Vorrichtung zur Durchführung intravaskulärer Untersuchungen
DE102005032755B4 (de) 2005-07-13 2014-09-04 Siemens Aktiengesellschaft System zur Durchführung und Überwachung minimal-invasiver Eingriffe
DE102005034167B4 (de) 2005-07-21 2012-01-26 Siemens Ag Einrichtung und Verfahren zur Ermittlung einer Position eines Implantats in einem Körper
DE102005045362B4 (de) * 2005-09-22 2012-03-22 Siemens Ag Vorrichtung zur Positionsbestimmung eines medizinischen Instruments, dazugehörige bildgebende Untersuchungseinrichtung nebst dazugehörigem Verfahren
DE102005048892B4 (de) 2005-09-22 2009-01-15 Siemens Ag Vorrichtung zur Durchführung von Rotablation sowie medizinische Behandlungseinrichtung
DE102005045600B4 (de) 2005-09-23 2008-01-17 Siemens Ag Injektor und Verfahren zum Unterstützen der Bildgebung an einem Patienten
US7988633B2 (en) * 2005-10-12 2011-08-02 Volcano Corporation Apparatus and method for use of RFID catheter intelligence
DE102005050344A1 (de) 2005-10-20 2007-05-03 Siemens Ag Kryokatheter zur Einführung in ein Körpergefäß sowie medizinische Untersuchungs- und Behandlungsvorrichtung
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
EP1963805A4 (de) * 2005-12-09 2010-01-06 Univ Columbia Systeme und verfahren zur elastografie-bildgebung
DE102005059261B4 (de) * 2005-12-12 2013-09-05 Siemens Aktiengesellschaft Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung
DE102006015013B4 (de) 2006-03-31 2010-06-02 Siemens Ag Implantierbarer Herzschrittmacher
WO2007124953A1 (de) * 2006-05-02 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung
RU2449372C2 (ru) * 2006-07-17 2012-04-27 Конинклейке Филипс Электроникс, Н.В. Эффективное взаимодействие пользователя с многоугольными сетками для сегментации медицинских изображений
US9867530B2 (en) 2006-08-14 2018-01-16 Volcano Corporation Telescopic side port catheter device with imaging system and method for accessing side branch occlusions
DE102006061178A1 (de) 2006-12-22 2008-06-26 Siemens Ag System zur Durchführung und Überwachung minimal-invasiver Eingriffe
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US9305334B2 (en) 2007-03-08 2016-04-05 Sync-Rx, Ltd. Luminal background cleaning
US8781193B2 (en) 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
WO2008107905A2 (en) 2007-03-08 2008-09-12 Sync-Rx, Ltd. Imaging and tools for use with moving organs
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
WO2009153794A1 (en) 2008-06-19 2009-12-23 Sync-Rx, Ltd. Stepwise advancement of a medical tool
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
EP2162737B1 (de) 2007-06-15 2012-03-21 GE Sensing & Inspection Technologies GmbH Sensorarray zur navigation auf oberflächen
JP5524835B2 (ja) 2007-07-12 2014-06-18 ヴォルカノ コーポレイション 生体内撮像用カテーテル
WO2009009802A1 (en) 2007-07-12 2009-01-15 Volcano Corporation Oct-ivus catheter for concurrent luminal imaging
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
CA2696190C (en) * 2007-08-17 2014-02-18 Bell Helicopter Textron Inc. System for optical recognition, interpretation, and digitization of human readable instruments, annunciators, and controls
JP5134932B2 (ja) * 2007-12-03 2013-01-30 株式会社東芝 超音波診断装置及び超音波診断装置の制御プログラム
WO2011035312A1 (en) 2009-09-21 2011-03-24 The Trustees Of Culumbia University In The City Of New York Systems and methods for opening of a tissue barrier
US20090259099A1 (en) * 2008-04-10 2009-10-15 Georgia Tech Research Corporation Image-based control systems
US9451929B2 (en) 2008-04-17 2016-09-27 Boston Scientific Scimed, Inc. Degassing intravascular ultrasound imaging systems with sealed catheters filled with an acoustically-favorable medium and methods of making and using
WO2009156918A1 (en) * 2008-06-25 2009-12-30 Koninklijke Philips Electronics N.V. Device and method for localizing an object of interest in a subject
WO2010014977A1 (en) 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
WO2010030819A1 (en) 2008-09-10 2010-03-18 The Trustees Of Columbia University In The City Of New York Systems and methods for opening a tissue
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
EP2377095B1 (de) * 2008-12-10 2016-05-25 Koninklijke Philips N.V. Gefässanalyse
US8545412B2 (en) * 2009-05-29 2013-10-01 Boston Scientific Scimed, Inc. Systems and methods for making and using image-guided intravascular and endocardial therapy systems
WO2011015952A1 (en) * 2009-08-07 2011-02-10 Medinol Ltd. Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images
CN102665569B (zh) * 2009-10-12 2015-05-13 硅谷医疗器械有限公司 用于共同配准成像的血管内超声系统
US20110118590A1 (en) * 2009-11-18 2011-05-19 Siemens Medical Solutions Usa, Inc. System For Continuous Cardiac Imaging And Mapping
FR2955007B1 (fr) * 2010-01-04 2012-02-17 Sagem Defense Securite Estimation de mouvement global et dense
WO2011122200A1 (ja) 2010-03-29 2011-10-06 ソニー株式会社 データ処理装置およびデータ処理方法、画像処理装置および方法、並びに、プログラム
DE102010019421A1 (de) 2010-05-05 2011-11-10 Siemens Aktiengesellschaft Bildgebendes Verfahren zur Darstellung von Ergebnissen intravaskulärer Bildgebung und CFD-Ergebnissen sowie Medizinsystem zur Durchführung des Verfahrens
EP4151154A3 (de) * 2010-06-30 2023-06-07 Muffin Incorporated Perkutane, ultraschallgeführte einführung von medizinischen vorrichtungen
US9951117B2 (en) 2010-09-02 2018-04-24 Mayo Foundation For Medical Education And Research Vesicular stomatitis viruses
CA2847413C (en) 2010-09-02 2018-05-22 Mayo Foundation For Medical Education And Research Vesicular stomatitis viruses
JP5944913B2 (ja) 2010-10-28 2016-07-05 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. 超音波画像内の不均一回転歪みを低減するためのコンピュータ可読媒体及び同コンピュータ可読媒体を含むシステム
GB2485390A (en) * 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
BR112013012194A8 (pt) * 2010-11-18 2017-04-18 Koninklijke Philips Electronics Nv Aparelho de detecção para a detecção de um objeto e programa de computador para a detecção de um objeto
US11141063B2 (en) 2010-12-23 2021-10-12 Philips Image Guided Therapy Corporation Integrated system architectures and methods of use
US20120330145A1 (en) * 2010-12-31 2012-12-27 Volcano Corporation Pulmonary Embolism Therapeutic Methods and Associated Devices and Systems
US11040140B2 (en) 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
US9320491B2 (en) 2011-04-18 2016-04-26 The Trustees Of Columbia University In The City Of New York Ultrasound devices methods and systems
WO2012162664A1 (en) 2011-05-26 2012-11-29 The Trustees Of Columbia University In The City Of New York Systems and methods for opening of a tissue barrier in primates
WO2013033592A1 (en) 2011-08-31 2013-03-07 Volcano Corporation Optical-electrical rotary joint and methods of use
US10292676B2 (en) * 2011-12-21 2019-05-21 Volcano Corporaton Method for visualizing blood and blood-likelihood in vascualar images
JP6134789B2 (ja) 2012-06-26 2017-05-24 シンク−アールエックス,リミティド 管腔器官における流れに関連する画像処理
US9307926B2 (en) 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
US9292918B2 (en) 2012-10-05 2016-03-22 Volcano Corporation Methods and systems for transforming luminal images
JP2015532536A (ja) 2012-10-05 2015-11-09 デイビッド ウェルフォード, 光を増幅するためのシステムおよび方法
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
US10568586B2 (en) 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
US9286673B2 (en) 2012-10-05 2016-03-15 Volcano Corporation Systems for correcting distortions in a medical image and methods of use thereof
US9367965B2 (en) 2012-10-05 2016-06-14 Volcano Corporation Systems and methods for generating images of tissue
US9324141B2 (en) 2012-10-05 2016-04-26 Volcano Corporation Removal of A-scan streaking artifact
US10070827B2 (en) 2012-10-05 2018-09-11 Volcano Corporation Automatic image playback
US9858668B2 (en) 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
WO2014059170A1 (en) 2012-10-10 2014-04-17 The Trustees Of Columbia University In The City Of New York Systems and methods for mechanical mapping of cardiac rhythm
US9840734B2 (en) 2012-10-22 2017-12-12 Raindance Technologies, Inc. Methods for analyzing DNA
WO2014093374A1 (en) 2012-12-13 2014-06-19 Volcano Corporation Devices, systems, and methods for targeted cannulation
EP2934310A4 (de) 2012-12-20 2016-10-12 Nathaniel J Kemp Optisches kohärenztomografiesystem zwischen verschiedenen rekonfigurierbaren bildgebungsmodi
JP2016506276A (ja) 2012-12-20 2016-03-03 ジェレミー スティガール, 血管内画像の位置の特定
CA2895502A1 (en) 2012-12-20 2014-06-26 Jeremy Stigall Smooth transition catheters
US11406498B2 (en) 2012-12-20 2022-08-09 Philips Image Guided Therapy Corporation Implant delivery system and implants
US10942022B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Manual calibration of imaging system
US10939826B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Aspirating and removing biological material
EP2936426B1 (de) 2012-12-21 2021-10-13 Jason Spencer System und verfahren zur grafischen verarbeitung medizinischer daten
US9383263B2 (en) 2012-12-21 2016-07-05 Volcano Corporation Systems and methods for narrowing a wavelength emission of light
WO2014099760A1 (en) 2012-12-21 2014-06-26 Mai Jerome Ultrasound imaging with variable line density
US10413317B2 (en) 2012-12-21 2019-09-17 Volcano Corporation System and method for catheter steering and operation
US10191220B2 (en) 2012-12-21 2019-01-29 Volcano Corporation Power-efficient optical circuit
CA2895940A1 (en) 2012-12-21 2014-06-26 Andrew Hancock System and method for multipath processing of image signals
US10058284B2 (en) 2012-12-21 2018-08-28 Volcano Corporation Simultaneous imaging, monitoring, and therapy
US9486143B2 (en) 2012-12-21 2016-11-08 Volcano Corporation Intravascular forward imaging device
US10993694B2 (en) 2012-12-21 2021-05-04 Philips Image Guided Therapy Corporation Rotational ultrasound imaging catheter with extended catheter body telescope
US9612105B2 (en) 2012-12-21 2017-04-04 Volcano Corporation Polarization sensitive optical coherence tomography system
EP2962283B1 (de) * 2013-03-01 2019-09-25 Boston Scientific Scimed, Inc. Systeme und verfahren zur lumengrenzenerkennung in intravaskularen ultraschallsequenzen
US10226597B2 (en) 2013-03-07 2019-03-12 Volcano Corporation Guidewire with centering mechanism
WO2014138555A1 (en) 2013-03-07 2014-09-12 Bernhard Sturm Multimodal segmentation in intravascular images
US11154313B2 (en) 2013-03-12 2021-10-26 The Volcano Corporation Vibrating guidewire torquer and methods of use
US10638939B2 (en) 2013-03-12 2020-05-05 Philips Image Guided Therapy Corporation Systems and methods for diagnosing coronary microvascular disease
EP2967488B1 (de) 2013-03-13 2021-06-16 Jinhyoung Park System zur herstellung eines bildes aus einer rotierenden intravaskulären ultraschallvorrichtung
US11026591B2 (en) 2013-03-13 2021-06-08 Philips Image Guided Therapy Corporation Intravascular pressure sensor calibration
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US10292677B2 (en) 2013-03-14 2019-05-21 Volcano Corporation Endoluminal filter having enhanced echogenic properties
WO2014152365A2 (en) 2013-03-14 2014-09-25 Volcano Corporation Filters with echogenic characteristics
US10219887B2 (en) 2013-03-14 2019-03-05 Volcano Corporation Filters with echogenic characteristics
US9247921B2 (en) 2013-06-07 2016-02-02 The Trustees Of Columbia University In The City Of New York Systems and methods of high frame rate streaming for treatment monitoring
US10322178B2 (en) 2013-08-09 2019-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for targeted drug delivery
KR102185723B1 (ko) * 2013-08-26 2020-12-02 삼성메디슨 주식회사 경동맥의 경직도를 측정하는 초음파 장치 및 그 측정 방법
US10028723B2 (en) 2013-09-03 2018-07-24 The Trustees Of Columbia University In The City Of New York Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening
WO2015054232A1 (en) * 2013-10-07 2015-04-16 Acist Medical Systems, Inc. Signal processing for intravascular imaging
JP6154496B2 (ja) * 2014-01-30 2017-06-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波を使用するガスポケットを検出するための方法及び装置
CN104537645A (zh) * 2014-12-15 2015-04-22 北京工业大学 一种基于血管内超声图像的roi标记点匹配方法
US11369337B2 (en) 2015-12-11 2022-06-28 Acist Medical Systems, Inc. Detection of disturbed blood flow
KR102182489B1 (ko) * 2016-07-26 2020-11-24 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 영상을 생성하는 방법, 초음파 시스템 및 기록매체
EP3569154A1 (de) 2018-05-15 2019-11-20 Koninklijke Philips N.V. Ultraschallverarbeitungseinheit und -verfahren sowie bildgebungssystem
US11911213B2 (en) * 2019-06-03 2024-02-27 General Electric Company Techniques for determining ultrasound probe motion
US11024034B2 (en) 2019-07-02 2021-06-01 Acist Medical Systems, Inc. Image segmentation confidence determination
JP7157098B2 (ja) * 2019-10-30 2022-10-19 i-PRO株式会社 血管内視鏡システムおよび血管径測定方法
CN111856474B (zh) * 2020-07-30 2023-07-25 重庆大学 一种基于子阵的空时域条件相干系数超声成像方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4063549A (en) * 1975-12-22 1977-12-20 Technicon Instruments Corporation Ultrasonic method and apparatus for imaging and characterization of bodies
GB1590950A (en) * 1976-12-11 1981-06-10 Emi Ltd System for comparing representations of a scene
US4581581A (en) * 1983-06-30 1986-04-08 General Electric Company Method of projection reconstruction imaging with reduced sensitivity to motion-related artifacts
US4803990A (en) * 1985-12-03 1989-02-14 U.S. Philips Corporation Examining moving objects by ultrasound echograpy
US5000185A (en) * 1986-02-28 1991-03-19 Cardiovascular Imaging Systems, Inc. Method for intravascular two-dimensional ultrasonography and recanalization
US4794931A (en) * 1986-02-28 1989-01-03 Cardiovascular Imaging Systems, Inc. Catheter apparatus, system and method for intravascular two-dimensional ultrasonography
US5582178A (en) * 1986-02-28 1996-12-10 Cardiovascular Imaging Systems, Inc. Method and apparatus for intravascular ultrasonography
US4841977A (en) * 1987-05-26 1989-06-27 Inter Therapy, Inc. Ultra-thin acoustic transducer and balloon catheter using same in imaging array subassembly
US5040225A (en) * 1987-12-07 1991-08-13 Gdp, Inc. Image analysis method
US4951677A (en) * 1988-03-21 1990-08-28 Prutech Research And Development Partnership Ii Acoustic imaging catheter and the like
GB2233094B (en) * 1989-05-26 1994-02-09 Circulation Res Ltd Methods and apparatus for the examination and treatment of internal organs
JPH04146737A (ja) * 1990-10-11 1992-05-20 Toshiba Corp 超音波診断装置
US5445155A (en) * 1991-03-13 1995-08-29 Scimed Life Systems Incorporated Intravascular imaging apparatus and methods for use and manufacture
US5353798A (en) * 1991-03-13 1994-10-11 Scimed Life Systems, Incorporated Intravascular imaging apparatus and methods for use and manufacture
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
JP3043873B2 (ja) * 1991-11-29 2000-05-22 フクダ電子株式会社 超音波開口面合成装置
US5217456A (en) * 1992-02-24 1993-06-08 Pdt Cardiovascular, Inc. Device and method for intra-vascular optical radial imaging
JP3213766B2 (ja) * 1992-03-16 2001-10-02 株式会社日立製作所 レプリケートファイル更新システム
US5453575A (en) * 1993-02-01 1995-09-26 Endosonics Corporation Apparatus and method for detecting blood flow in intravascular ultrasonic imaging
US5331964A (en) * 1993-05-14 1994-07-26 Duke University Ultrasonic phased array imaging system with high speed adaptive processing using selected elements
US5419328A (en) * 1993-08-09 1995-05-30 Hewlett-Packard Company Mean squared speed and myocardial performance
JP3045642B2 (ja) * 1994-01-25 2000-05-29 アロカ株式会社 超音波診断装置
US5363850A (en) * 1994-01-26 1994-11-15 Cardiovascular Imaging Systems, Inc. Method for recognition and reduction of blood speckle in blood vessel imaging system
US5363849A (en) * 1994-01-26 1994-11-15 Cardiovascular Imaging Systems, Inc. Enhancing intravascular ultrasonic blood vessel image
NO943269D0 (no) * 1994-09-02 1994-09-02 Vingmed Sound As Fremgangsmåte for analyse og måling av ultralydsignaler
US5683451A (en) * 1994-06-08 1997-11-04 Cardiovascular Concepts, Inc. Apparatus and methods for deployment release of intraluminal prostheses
GB2296565B (en) * 1994-12-23 1999-06-16 Intravascular Res Ltd Ultrasound imaging
NO943696D0 (no) * 1994-10-04 1994-10-04 Vingmed Sound As Fremgangsmåte ved ultralydavbildning
US5538004A (en) * 1995-02-28 1996-07-23 Hewlett-Packard Company Method and apparatus for tissue-centered scan conversion in an ultrasound imaging system
US5575286A (en) * 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
US5899861A (en) * 1995-03-31 1999-05-04 Siemens Medical Systems, Inc. 3-dimensional volume by aggregating ultrasound fields of view
JPH08280684A (ja) * 1995-04-18 1996-10-29 Fujitsu Ltd 超音波診断装置
US5752522A (en) * 1995-05-04 1998-05-19 Cardiovascular Concepts, Inc. Lesion diameter measurement catheter and method
US5596990A (en) * 1995-06-06 1997-01-28 Yock; Paul Rotational correlation of intravascular ultrasound image with guide catheter position
US5623929A (en) * 1995-06-30 1997-04-29 Siemens Medical Systems, Inc. Ultrasonic doppler flow imaging method for eliminating motion artifacts
US5566674A (en) * 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
US5503153A (en) * 1995-06-30 1996-04-02 Siemens Medical Systems, Inc. Noise suppression method utilizing motion compensation for ultrasound images
US5601085A (en) * 1995-10-02 1997-02-11 Nycomed Imaging As Ultrasound imaging
US5771895A (en) * 1996-02-12 1998-06-30 Slager; Cornelis J. Catheter for obtaining three-dimensional reconstruction of a vascular lumen and wall
US5724978A (en) * 1996-09-20 1998-03-10 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US5830145A (en) * 1996-09-20 1998-11-03 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US5876345A (en) * 1997-02-27 1999-03-02 Acuson Corporation Ultrasonic catheter, system and method for two dimensional imaging or three-dimensional reconstruction
US5971895A (en) * 1997-09-26 1999-10-26 Precor Incorporated Combined press and row exercise arm
US5885218A (en) * 1997-11-07 1999-03-23 Scimed Life Systems, Inc. Method and apparatus for spatial filtering in an intravascular ultrasound imaging system
US5921934A (en) * 1997-11-25 1999-07-13 Scimed Life Systems, Inc. Methods and apparatus for non-uniform rotation distortion detection in an intravascular ultrasound imaging system

Also Published As

Publication number Publication date
DE69813087D1 (de) 2003-05-15
KR19990007305A (ko) 1999-01-25
DE69827857T2 (de) 2005-12-15
PL326831A1 (en) 1998-12-21
ES2192290T3 (es) 2003-10-01
ATE283497T1 (de) 2004-12-15
EP0885594A3 (de) 1999-10-27
CZ190198A3 (cs) 1999-10-13
DK0885594T3 (da) 2003-07-14
EP1227342A1 (de) 2002-07-31
AU757314B2 (en) 2003-02-13
GB2326479B (en) 2002-04-10
NO982817D0 (no) 1998-06-18
CA2240651A1 (en) 1998-12-19
AR015123A1 (es) 2001-04-18
AU8032298A (en) 1999-01-04
HK1050242A1 (zh) 2003-06-13
SK87098A3 (en) 2000-02-14
EP1227342B1 (de) 2004-11-24
US6095976A (en) 2000-08-01
EE9800196A (et) 1999-02-15
NO982817L (no) 1998-12-21
DE69827857D1 (de) 2004-12-30
EE04166B1 (et) 2003-10-15
US6152878A (en) 2000-11-28
GB2326479A (en) 1998-12-23
AU7307498A (en) 1999-01-14
JPH11151246A (ja) 1999-06-08
IL125000A0 (en) 1999-01-26
EP0885594B1 (de) 2003-04-09
PT885594E (pt) 2003-08-29
EP0885594A2 (de) 1998-12-23
RU2238041C2 (ru) 2004-10-20
BR9814778A (pt) 2001-06-26
GB9813217D0 (en) 1998-08-19
ATE236574T1 (de) 2003-04-15
UA57011C2 (uk) 2003-06-16
SG68672A1 (en) 1999-11-16
WO1998057580A1 (en) 1998-12-23
IL125000A (en) 2004-05-12
DE19827460A1 (de) 1998-12-24

Similar Documents

Publication Publication Date Title
DE69813087T2 (de) Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
DE60038382T2 (de) Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode
DE69824660T2 (de) Verfahren und Vorrichtung zur Farbbilddarstellung einer Blutströmung über von einer intravaskularen Ultraschall-Bildsonde empfangene Ultraschall-Echosignale
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE69917708T2 (de) Blutgefässabbildung mit adaptiver Mittelwertbildung
DE69533183T2 (de) Vorrichtung zur darstellung des gefäss-inneren mittels ultraschall
DE19732125C1 (de) Verfahren zur Aufnahme von Ultraschallbildern bewegter Objekte
DE69831742T2 (de) System zur rekonstruktion bei kegelstrahltomographie
DE60215964T2 (de) Verfahren zur rekonstruktion eines 3d bildes mit hoher auflösung
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE602005003015T2 (de) Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder
DE19611990A1 (de) Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern
DE10054106A1 (de) EKG-gesteuerte Ultraschallbildzusammensetzung
DE19613342A1 (de) Automatisches Bildauswertungsverfahren
DE102004036726A1 (de) Verfahren und Vorrichtung zur Visualisierung von Ablagerungen in Blutgefäßen, insbesondere in Herzkranzgefäßen
DE4236757A1 (en) Ultrasonic diagnostic appts. e.g. to generate tomographic images - senses minute tissue displacements and generates corresp. data for creating tomographic image.
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE602004008175T2 (de) Verfahren zur Erzeugung zeitunabhängiger Parameter-Bilder bewegter Objekte, wobei die Bildinformation von Eigenschaften des bewegten Objektes abhängt
DE69632775T2 (de) Geschwindigkeitsanpassbare gefilterte angiographie
EP1483742B1 (de) Verfahren und vorrichtung zur rekonstruktion und darstellung von mehrdimensionalen objekten aus ein- oder zweidimensionalen bilddaten
DE60038156T2 (de) Blickfelderweiterung für ein ultraschall-diagnose-bildsystem mit bildwiedererfassung
DE102010062975B4 (de) Verfahren zur Erzeugung einer vierdimensionalen Darstellung eines einer periodischen Bewegung unterworfenen Zielgebiets eines Körpers
DE60309455T2 (de) Analyse der herzdurchblutung
DE102009021521B4 (de) Verfahren zur bewegungskompensierten Rekonstruktion eines dreidimensionalen Bilddatensatzes und Röntgeneinrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, 853

8339 Ceased/non-payment of the annual fee