DE102005036564A1 - Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände - Google Patents

Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände Download PDF

Info

Publication number
DE102005036564A1
DE102005036564A1 DE102005036564A DE102005036564A DE102005036564A1 DE 102005036564 A1 DE102005036564 A1 DE 102005036564A1 DE 102005036564 A DE102005036564 A DE 102005036564A DE 102005036564 A DE102005036564 A DE 102005036564A DE 102005036564 A1 DE102005036564 A1 DE 102005036564A1
Authority
DE
Germany
Prior art keywords
evaluation
images
operating method
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005036564A
Other languages
English (en)
Inventor
Estelle Dr. Camus
Martin Dr. Kleen
Thomas Dr Redel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005036564A priority Critical patent/DE102005036564A1/de
Priority to JP2006210750A priority patent/JP5196748B2/ja
Priority to CN2006101593870A priority patent/CN1911174B/zh
Priority to US11/498,440 priority patent/US7796796B2/en
Publication of DE102005036564A1 publication Critical patent/DE102005036564A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/503Clinical applications involving diagnosis of heart
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/922Computer assisted medical diagnostics including image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

Eine Steuereinrichtung (1) einer bildgebenden medizintechnischen Anlage nimmt von einem Anwender (12) eine Auswahl eines Bildauswertungsverfahrens entgegen. Sie stellt daraufhin selbsttätig anwahlspezifisch positionierungsunabhängige Betriebsparameter (U, I, alpha, k, gamma, R, M) der Aufnahmeanordnung (1) ein und/oder gibt dem Anwender (12) Anweisungen zum Einstellen der positionierungsunabhängigen Betriebsparameter (U, I, alpha, k, gamma, R, M) vor. Auf eine Starteingabe (S) des Anwenders (12) hin erfasst die Steuereinrichtung (2) mittels einer Aufnahmeanordnung (1) der bildgebenden medizintechnischen Anlage eine Sequenz von aufeinander folgenden zweidimensionalen Bildern (B) eines sich iterierend bewegenden Untersuchungsobjekts (11) und deren Erfassungszeitpunkte (t) sowie ein Phasensignal (phi) des Untersuchungsobjekts (11) und archiviert die Sequenz von Bildern (B), die Erfassungszeitpunkte (t) und das Phasensignal (phi).

Description

  • Die vorliegende Erfindung betrifft ein Betriebsverfahren für eine bildgebende medizintechnische Anlage mit einer Steuereinrichtung und einer Aufnahmeanordnung. Derartige Betriebsverfahren sind allgemein bekannt.
  • Die vorliegende Erfindung betrifft weiterhin einen Datenträger mit einem auf dem Datenträger gespeicherten Computerprogramm zur Durchführung eines solchen Betriebsverfahrens, einen Rechner mit einem solchen Datenträger und eine bildgebende medizintechnische Anlage, die eine Aufnahmeanordnung und einen Rechner aufweist, wobei im Rechner ein Computerprogramm hinterlegt ist, bei dessen Aufruf die bildgebende medizintechnische Anlage gemäß einem solchen Betriebsverfahren betreibbar ist. Auch diese Gegenstände sind allgemein bekannt.
  • Das oben genannte Betriebsverfahren und die zugehörigen Einrichtungen werden unter anderem dazu eingesetzt, um angiographische Aufnahmen (= zweidimensionale Bilder) der Herzkranzgefäße eines menschlichen Herzens zu erfassen und dann Anzahl, Länge, Durchmesser usw. der Herzkranzgefäße zu ermitteln. Auch die Auswertung der Bilder zur Erfassung der Fließgeschwindigkeit des Blutes ist bereits bekannt.
  • Eine weitere Anwendung des oben genannten Betriebsverfahrens und der zugehörigen Einrichtungen besteht darin, über eine längere Zeit eine Sequenz von Bildern des schlagenden Herzens (bzw. allgemeiner eines sich iterierend bewegenden Untersuchungsobjekts) zu erfassen. Die Erfassung der Sequenz von Bildern erfolgt dabei auf eine entsprechende Starteingabe eines Anwenders hin. Simultan zu den Bildern werden ferner deren Erfassungszeitpunkte und ein Phasensignal (beim schlagenden Herz z. B. ein EKG-Signal) erfasst. Die Sequenz von Bildern, die Erfassungszeitpunkte und das Phasensignal werden dann für spätere Auswertungen archiviert.
  • Mittels derartiger Sequenzen kann beispielsweise der so genannte Myocardial Blush erfasst werden, anhand dessen Aussagen über die Versorgung des Herzens mit Blut getroffen werden können.
  • Die Einschätzung der Durchblutung des Myocardiums ist jedoch mit Schwierigkeiten verbunden. Denn worauf es letztendlich ankommt, ist die Durchblutung in den winzigen Kapillargefäßen, die nur Durchmesser von wenigen Mikrometern aufweisen und in denen der Sauerstoffaustausch stattfindet. Die angiographisch beobachtbaren Herzgefäße weisen jedoch einen Durchmesser von knapp einem Millimeter oder mehr auf. Ein Rückschluss von der Durchblutung der angiographisch beobachtbaren Herzgefäße auf die Durchblutung der Kapillargefäße ist aber nicht ohne weiteres korrekt und zulässig.
  • Die Dynamik des Blutflusses in den Kapillargefäßen ist im angiographischen Bild durch die allgemeine (das heißt die nicht auf einzelne Gefäße lokalisierte) Kontrastanhebung der Herzmuskulatur prinzipiell erkennbar. Auf Grund von Problemen in der Anwendung und Interpretation wird diese Anhebung des Kontrastes im Allgemeinen jedoch nicht verwendet. Im Stand der Technik behilft man sich daher dennoch oftmals damit, aus der Durchblutung der größeren Herzkranzgefäße auf die Durchblutung der Kapillargefäße zu schließen.
  • Um die Blutflussdynamik in großen Gefäßen und auch in den Kapillargefäßen messbar und damit vergleichbar zu machen, bedient man sich verschiedener Gradationssysteme, die das Kontinuum der Verhältnisse in diskrete Klassen einteilen. Verschiedene solcher Klassifikationen beschreiben den makroskopischen, andere den kapillaren Blutkreislauf. Die meist gebrauchten Klassifikationen wurden dabei von der Wissenschaftsorganisation „Thrombolysis in Myocardial Infarction" (TIMI) erarbeitet. Diese Klassifikationen gelten als Stan dard, sind jedoch komplex und nur zeitaufwändig zu verwenden. In multizentrischen Studien, in denen es besonders auf reproduzierbare und vergleichbare Ergebnisse ankommt, werden die TIMI-Klassifikationen häufig verwendet. In der klinischen Routinearbeit erfolgt jedoch in der Regel keine Anwendung dieser Klassifikationen. Zudem ergeben sich auf Grund der individuellen Bewertungen des Blushs stark unterschiedliche Ergebnisse (insbesondere bei verschiedenen Anwendern).
  • Die Aufgabe der vorliegenden Erfindung besteht darin, die Hemmnisse bei der Anwendung der TIMI-Klassifikation oder einer anderen Klassifikation zu beseitigen.
  • Die Aufgabe wird bei einem Betriebsverfahren der eingangs genannten Art dadurch gelöst,
    • – dass die Steuereinrichtung von einem Anwender eine Anwahl eines Bildauswertungsverfahrens entgegen nimmt und daraufhin selbsttätig anwahlspezifisch positionierungsunabhängige Betriebsparameter der Aufnahmeanordnung einstellt und/oder dem Anwender Anweisungen zum Einstellen der positionierungsunabhängigen Betriebsparameter vorgibt und
    • – dass die Steuereinrichtung auf eine Starteingabe des Anwenders hin eine Sequenz von aufeinander folgenden zweidimensionalen Bildern eines sich iterierend bewegenden Untersuchungsobjekts und deren Erfassungszeitpunkte sowie ein Phasensignal des Untersuchungsobjekts erfasst und die Sequenz von Bildern, die Erfassungszeitpunkte und das Phasensignal archiviert.
  • Denn dadurch ist gewährleistet, dass die Betriebsparameter der bildgebenden medizintechnischen Anlage stets gleich eingestellt werden, wodurch eine Reproduzierbarkeit und auch eine Vergleichbarkeit der erfassten Sequenzen von Bildern erreicht wird.
  • Vorzugsweise nimmt die Steuereinrichtung vor der Starteingabe vom Anwender auch eine Selektion für einen Bereich des Untersuchungsobjekts entgegen und positioniert daraufhin die Auf nahmeanordnung selbsttätig selektionsspezifisch und/oder gibt den Anwender selektionsspezifische Anweisungen zum Positionieren der Aufnahmeanordnung vor. Denn dadurch wird die Reproduzierbarkeit und Vergleichbarkeit der Sequenzen noch weiter gesteigert.
  • Vorzugsweise werden die zu archivierenden Bilder vor dem Archivieren um detektorspezifische Korrekturen korrigiert. Denn erst dann sind die archivierten Bilder wirklich aussagekräftig. Vorzugsweise werden die zu archivierenden Bilder vor dem Archivieren über die detektorspezifischen Korrekturen hinaus aber nicht weiter aufbereitet.
  • Die Anzahl und Art der positionierungsunabhängigen Parameter ist sehr vielfältig. Wenn die Aufnahmeanordnung eine Röntgenquelle und einen Röntgendetektor aufweist, können die positionierungsunabhängigen Betriebsparameter beispielsweise mindestens eine der Größen Betriebsspannung der Röntgenquelle, Betriebsstrom der Röntgenquelle, Ausmaß einer Kantenanhebung in den erfassten Bildern, k-Faktor, γ-Parameter, Bildrate und Kontrastmittelmenge umfassen. Insbesondere können die positionierungsunabhängigen Betriebsparameter auch mehrere der oben genannten Größen umfassen, gegebenenfalls sogar alle der oben genannten Größen.
  • Vorzugsweise erfasst die Steuereinrichtung vor der Starteingabe ein Bild des Untersuchungsobjekts und gibt dieses Bild über ein Sichtgerät an den Anwender aus. Denn dann ist vor der Starteingabe eine visuelle Kontrolle durch den Anwender möglich. Dieses vor der Starteingabe erfasste Bild wird selbstverständlich nicht archiviert. Es kann gegebenenfalls über die detektorspezifischen Korrekturen hinaus aufbereitet werden.
  • Die Steuereinrichtung gibt vorzugsweise auf Grund der Starteingabe ein optisches und/oder akustisches Erstsignal an das Untersuchungsobjekt aus. Denn dann ist es möglich, dass das Untersuchungsobjekt entsprechend reagiert. Wenn beispielswei se ca. eine Sekunde vor dem Start eine Aufforderung zum Luft anhalten an das Untersuchungsobjekt ausgegeben wird, kann das Untersuchungsobjekt die Luft anhalten. Wenn alternativ oder zusätzlich vor dem Beginn des Erfassens der Sequenz von Bildern eine weitere Mitteilung an das Untersuchungsobjekt ausgegeben wird, aus der hervorgeht, wann die Erfassung der Sequenz von Bildern beginnt, kann sich das Untersuchungsobjekt rechtzeitig vorher darauf einstellen, wann es einatmen und danach die Luft anhalten muss.
  • Wenn die Steuereinrichtung dem Untersuchungsobjekt Triggerimpulse zuführt, ist gegebenenfalls eine nahezu periodische Bewegung des Untersuchungsobjekts erzwingbar. Dies ist insbesondere dann von Vorteil, wenn die Iterationen des Untersuchungsobjekts ohne die Triggerimpulse starken Schwankungen unterlägen.
  • Vorzugsweise steuert die Steuereinrichtung die Erfassung der Bilder derart, dass mehrere Gruppen von Bildern erfasst werden und innerhalb jeder Gruppe von Bildern jedes Bild zu einem für das jeweilige Bild spezifischen Erfassungszeitpunkt relativ zu einem vorhergehenden Zeitpunkt (Referenzzeitpunkt) erfasst wird, zu dem das Untersuchungsobjekt eine vorbestimmte Referenzphasenlage annimmt. Es ist also bevorzugt, die Erfassung der Bilder mit der Referenzphasenlage des Untersuchungsobjekts in Relation zu setzen. Dadurch sind insbesondere bei periodischen Bewegungen des Objekts Sequenzen von Bildern erfassbar, bei denen bildgruppenübergreifend Bilder mit praktisch gleicher Phasenlage des Untersuchungsobjekts existieren.
  • Im Einzelfall ist es möglich, dass die Anzahl von Bildern pro Gruppe von Bildern Eins beträgt. Im Regelfall ist die Anzahl von Bildern pro Gruppe von Bildern aber größer als Eins.
  • Im letztgenannten Fall ist es alternativ möglich, dass die Erfassungszeitpunkte innerhalb jeder Gruppe von Bildern mit einem konstanten oder mit einem nicht konstanten Zeitversatz aufeinander folgen. Der früheste Erfassungszeitpunkt kann dabei alternativ der Referenzzeitpunkt sein oder aber nach dem Referenzzeitpunkt liegen. Wenn der Zeitversatz zwischen aufeinander folgenden Bildern konstant ist und der früheste Erfassungszeitpunkt nach dem Referenzzeitpunkt liegt, kann insbesondere ein Zeitversatz zwischen dem frühesten Erfassungszeitpunkt und dem Referenzzeitpunkt mit dem konstanten Zeitversatz korrespondieren.
  • Wenn die Steuereinrichtung auf Grund des Startsignals zu einem vorbestimmten Injektionszeitpunkt selbsttätig ein Kontrastmittel in das Untersuchungsobjekt injiziert oder eine Aufforderung zum Injizieren des Kontrastmittels an den Anwender ausgibt, wird die Reproduzierbarkeit und Vergleichbarkeit der erfassten Sequenz von Bildern noch weiter gesteigert.
  • Die Steuereinrichtung überprüft laufend, ob eine Abbruchbedingung erfüllt ist. Sobald die Abbruchbedingung erfüllt ist, stellt sie das Erfassen der Bilder ein. Die Abbruchbedingung kann dabei ein Zeitablauf, das Erreichen einer bestimmten Anzahl erfasster Bilder, das Erreichen einer bestimmten Anzahl von Iterationen des Untersuchungsobjekts oder eine Anwendereingabe sein.
  • Vorzugsweise gibt die Steuereinrichtung nach dem Beenden der Erfassung der Bilder ein optisches und/oder akustisches Zweitsignal an das Untersuchungsobjekt aus. Denn dadurch kann das Untersuchungsobjekt beispielsweise darüber informiert werden, dass es wieder atmen und sich bewegen darf.
  • Vorzugsweise werden die erfassten Bilder zusätzlich zur Archivierung über ein Sichtgerät unmittelbar an den Anwender ausgegeben. Dabei ist es möglich, dass die erfassten Bilder vor dem Ausgeben an den Anwender um detektorspezifische Korrekturen korrigiert und darüber hinaus aufbereitet werden. Auf Grund des Ausgebens der erfassten Bilder an den Anwender ist auch während des Erfassens der Sequenz von Bildern eine laufende visuelle Kontrolle durch den Anwender möglich.
  • Vorzugsweise hält die Steuereinrichtung die positionierungsunabhängigen Betriebsparameter (gegebenenfalls auch die positionierungsabhängigen Betriebsparameter) während der Erfassung der Bilder möglichst konstant. Dies steigert die Reproduzierbarkeit und Vergleichbarkeit der erfassten Bilder noch weiter. Sofern Betriebsparameter nicht konstant gehalten werden können, wird zumindest soweit wie möglich gegen geregelt.
  • Es ist möglich, das Erfassen und Archivieren der Bilder auf der einen Seite und das Auswerten der erfassten und archivierten Bilder auf der anderen Seite vollständig voneinander zu trennen. Es ist aber auch eine Kopplung möglich. Wenn die Erfassung und Archivierung auf der einen Seite und die Auswertung auf der anderen Seite miteinander gekoppelt sind, stellt die Steuereinrichtung die archivierte Sequenz von Bildern, die korrespondierenden Erfassungszeitpunkte und das korrespondierende Phasensignal einer Auswertungseinrichtung zur Verfügung. Der Anwender wählt dann zumindest eines der Bilder als Referenzbild aus, woraufhin die Auswertungseinrichtung anhand der Erfassungszeitpunkte und des Phasensignals selbsttätig oder auf Grund entsprechender Anwendereingaben weitere Bilder der erfassten Sequenz als Auswertungsbilder bestimmt. Anhand des Referenzbildes und der Auswertungsbilder erstellt die Auswertungseinrichtung schließlich selbsttätig einen Report, ordnet ihn der erfassten Sequenz zu und archiviert ihn. Die Auswertungseinrichtung kann dabei mit der Steuereinrichtung identisch sein. Sie kann aber auch eine von der Steuereinrichtung verschiedene Einrichtung sein.
  • Zum Bestimmen des Referenzbildes ist folgende Vorgehensweise bevorzugt:
    • – Die Auswertungseinrichtung selektiert selbsttätig ein Bild, das in der ersten oder in der letzten Iteration des Untersuchungsobjekts erfasst wurde.
    • – Die Auswertungseinrichtung ermittelt anhand des Erfassungszeitpunktes des selektierten Bildes und des Phasensignals dessen Phasenlage.
    • – Die Auswertungseinrichtung gibt das selektierte Bild und die ermittelte Phasenlage über ein Sichtgerät an den Anwender aus und wartet eine Anwendereingabe ab.
    • – In Abhängigkeit von der Anwendereingabe ergreift die Auswertungseinrichtung eine der folgenden Maßnahmen: Sie selektiert das zeitlich unmittelbar vor dem momentan selektierten Bild erfasste Bild oder das zeitlich unmittelbar nach dem momentan selektierten Bild erfasste Bild, ermittelt dessen Phasenlage, gibt das nunmehr selektierte Bild und dessen Phasenlage über das Sichtgerät an den Anwender aus und wartet erneut die Anwendereingabe ab. Oder aber sie bestimmt das momentan selektierte Bild zum Referenzbild.
  • Durch diese obenstehend beschriebene Vorgehensweise ist die Bestimmung des Referenzbildes interaktiv und besonders einfach. Alternativ ist es aber auch möglich, dass die Auswertungseinrichtung vom Anwender eine Phasenlage entgegennimmt und anhand der Erfassungszeitpunkte und des Phasensignals eines der Bilder, die in der ersten oder in der letzten Iteration des Untersuchungsobjekts erfasst wurden, zum Referenzbild bestimmt.
  • Vorzugsweise subtrahiert die Auswertungseinrichtung das Referenzbild von den Auswertungsbildern und bestimmt so Differenzbilder. Denn dadurch ist es möglich, dass die Auswertungseinrichtung den Report anhand der Differenzbilder erstellt. Diese Vorgehensweise ist deshalb bevorzugt, weil die Differenzbilder besonders aussagekräftig sind.
  • Wenn die Auswertungseinrichtung vor der Differenzbildung eine elastische Bildverschiebung der Auswertungsbilder vornimmt, auf Grund derer eine Korrelation der Auswertungsbilder mit dem Referenzbild maximiert wird, kann die Aussagekraft der Differenzbilder noch weiter gesteigert werden. Die Ermittlung elastischer Bildverschiebungen ist dabei an sich bekannt. Beispielhaft wird auf den Fachaufsatz „Digital Image Warping" von George Wollberg, erschienen in IEEE Computer Society Press Monograph, Wiley-IEEE Computer Society Pr; 1st edition (July 27, 1990), ISBN 0818689447, Seiten 187 bis 260, verwiesen. Alternativ kann auch der Fachaufsatz „Quantitative Analyse von Koronarangiographischen Bildfolgen zur Bestimmung der Myokardperfusion" von Urban Malsch et al., erschienen in „Bildverarbeitung für die Medizin 2003 – Algorithmen – Systeme – Anwendungen", Springer-Verlag, Seiten 81 bis 85, verwiesen werden.
  • Die Auswertungseinrichtung erstellt den Report vorzugsweise im DICOM-Format. Denn das DICOM-Format ist weit verbreitet.
  • Von besonderem Vorteil ist es, wenn die Auswertungseinrichtung einen Teilbereich der Auswertungsbilder mit dem korrespondierenden Teilbereich des Referenzbildes vergleicht, anhand des Vergleichs eine für alle Pixel des jeweiligen Auswertungsbildes gültige Transformation der Pixelwerte bestimmt, so dass der Mittelwert der Pixel des Teilbereichs des transformierten Auswertungsbildes und der Mittelwert der Pixel des Teilbereichs des Referenzbildes in einer vorbestimmten funktionalen Beziehung stehen, und die Pixel des jeweiligen Auswertungsbildes entsprechend dieser Transformation transformiert. Denn dadurch können selbst dann miteinander vergleichbare Bilder generiert werden, wenn die positionierungsunabhängigen Betriebsparameter nicht konstant gehalten werden können. Die Transformation kann alternativ linear oder nicht linear sein. Die funktionale Beziehung kann beispielsweise darin bestehen, dass die Differenz oder Quotient der Mittelwerte in einem vorbestimmten Verhältnis zueinander stehen. Insbesondere kann hier derart transformiert werden, dass die Differenz gegen Null bzw. ein Minimum strebt bzw. der Quotient gegen Eins strebt.
  • Es ist möglich, dass der Teilbereich für alle Auswertungsbilder derselbe ist. Er kann alternativ der Auswertungseinrich tung vom Anwender vorgegeben werden oder aber von der Auswertungseinrichtung selbsttätig ermittelt werden.
  • Wenn die Auswertungseinrichtung den Teilbereich selbsttätig ermittelt, verschiebt sie vorzugsweise innerhalb eines Verschiebebereichs der Auswertungsbilder oder des Referenzbildes einen Auswertungskern, ermittelt bei jeder Position des Auswertungskerns einen für die Schwankung der Pixel des Auswertungskerns charakteristischen Schwankungswert und bestimmt als Teilbereich den Auswertungskern bei der Position, bei dem der Schwankungswert minimal ist. Als Schwankungswert kann beispielsweise die Differenz zwischen maximalem und minimalem Mittelwert, die Varianz, die Streuung usw. herangezogen werden.
  • Der Verschiebebereich kann alternativ von der Auswertungseinrichtung selbsttätig ermittelt werden oder aber der Auswertungseinrichtung vom Anwender vorgegeben werden. Der Verschiebebereich kann dabei gegebenenfalls vom selektierten Bereich des Untersuchungsobjekts abhängen. Analoges gilt für den Auswertungskern.
  • Wenn die Auswertungseinrichtung den Teilbereich zusammen mit dem Referenzbild, einem der Auswertungsbilder oder einem anhand der Differenz eines der Auswertungsbilder und des Referenzbildes ermittelten Differenzbildes über ein Sichtgerät an den Anwender ausgibt, ist insbesondere eine visuelle Kontrolle durch den Anwender möglich. Soweit dabei das Differenzbild ermittelt wird, erfolgt dies vorzugsweise wieder mittels einer elastischen Bildverschiebung des herangezogenen Auswertungsbildes, auf Grund derer eine Korrelation des Auswertungsbildes mit dem Referenzbild maximiert wird.
  • Vorzugsweise erstellt die Auswertungseinrichtung den Report ausschließlich anhand der Pixelwerte mindestens eines in sich zusammenhängenden zweidimensionalen Auswertungsbereichs des Referenzbildes und der Auswertungsbilder. Denn dann ist der Report noch aussagekräftiger. Der Auswertungsbereich kann da bei alternativ von der Auswertungseinrichtung selbsttätig ermittelt werden oder aber der Auswertungseinrichtung vom Anwender vorgegeben werden.
  • Im Falle der Vorgabe durch den Anwender ist es insbesondere möglich, dass die Auswertungseinrichtung dem Anwender einen vorläufigen Auswertungsbereich vorschlägt und der Anwender den vorläufigen Auswertungsbereich bestätigt oder verwirft. Gegebenenfalls ist es auch möglich, dass der Anwender die Möglichkeit hat, den vorläufigen Auswertungsbereich vor dem Bestätigen zu ändern.
  • In der Regel wird der Auswertungsbereich einmal für alle Bilder vorgegeben. Es ist aber auch möglich, dass der Auswertungsbereich der Auswertungseinrichtung individuell für jedes Auswertungsbild vorgegeben wird. In diesem Fall vergleicht die Auswertungseinrichtung die Auswertungsbereiche vorzugsweise miteinander und gibt eine Warnmeldung an den Anwender aus, wenn die Auswertungsbereiche nicht miteinander korrespondieren.
  • Wenn das Untersuchungsobjekt ein Gefäßsystem enthält, berücksichtigt die Auswertungseinrichtung vorzugsweise die Bereiche des Referenzbildes und der Auswertungsbilder, die mit dem Gefäßsystem korrespondieren, beim Erstellen des Reports nicht. Denn dann ist der Report besonders aussagekräftig für den Myocardial Blush. Das Ermitteln des Gefäßsystems ist als Segmentieren allgemein bekannt. Es muss daher nicht näher erläutert werden.
  • Vorzugsweise ermittelt die Auswertungseinrichtung anhand der Auswertungsbilder und des Referenzbildes eine zeitliche Änderung des Untersuchungsobjekts und gibt eine für die zeitliche Änderung des Untersuchungsobjekts charakteristische Darstellung über ein Sichtgerät an den Anwender aus. Beispielsweise kann die ausgegebene charakteristische Darstellung eine farbcodierte Darstellung eines der Auswertungsbilder oder des Referenzbildes sein, wobei die Farbe eine Funktion der Dauer und/oder des Ausmaßes der zeitlichen Änderung des Untersuchungsobjekts an der jeweiligen Stelle ist. Alternativ ist es natürlich auch möglich, eine Matrix, eine Tabelle oder eine andere Darstellung mit entsprechenden Werten der Intensität des Myocardial Blush als Funktion der Zeit darzustellen.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung eines Ausführungsbeispiels in Verbindung mit den Zeichnungen. Dabei zeigen in Prinzipdarstellung:
  • 1 einen Prinzipaufbau einer bildgebenden medizintechnischen Anlage,
  • 2 ein Ablaufdiagramm,
  • 38 Zeitdiagramme,
  • 914 Ablaufdiagramme und
  • 15 schematisch ein farbcodiertes Bild.
  • Gemäß 1 weist eine bildgebende medizintechnische Anlage eine Aufnahmeanordnung 1 und einen Rechner 2 auf. Die Aufnahmeanordnung 1 wird dabei vom Rechner 2 gesteuert. Der Rechner 2 entspricht daher einer Steuereinrichtung für die Aufnahmeanordnung 1.
  • Der Rechner 2 weist einen Datenträger 3 in Form eines Massenspeichers auf, z. B. in Form einer Festplatte. Im Massenspeicher 3 ist ein Computerprogramm 4 hinterlegt, bei dessen Aufruf die bildgebende medizintechnische Anlage gemäß einem nachstehend näher erläuterten Betriebsverfahren betrieben wird.
  • Das Computerprogramm 4 kann dem Rechner 2 auf verschiedene Art und Weise zugeführt worden sein. Beispielsweise ist es möglich, das Computerprogramm 4 dem Rechner 2 über eine Schnittstelle 5 zu einem Rechnernetz 6 zuzuführen. Auch ist es möglich, das Computerprogramm 4 auf einem mobilen Datenträger 7, also einem Wechselmedium, in ausschließlich maschinenlesbarer Form zu speichern, das Wechselmedium 7 über eine geeignete Schnittstelle 8 an den Rechner 2 anzukoppeln und das Computerprogramm 4 aus dem Wechselmedium 7 auszulesen und im Massenspeicher 3 zu hinterlegen.
  • Gemäß Ausführungsbeispiel ist die Aufnahmeanordnung 1 als Röntgenanlage ausgebildet. Sie weist daher eine Röntgenquelle 9 und einen Röntgendetektor 10 auf, wobei mittels des Röntgendetektors 10 zweidimensionale Durchleuchtungsbilder B eines Untersuchungsobjekts 11 (oftmals eines Menschen) erfasst werden können. Die vorliegende Erfindung wird daher nachfolgend in Verbindung mit einer als Röntgenanordnung ausgebildeten Aufnahmeanordnung 1 und einem Menschen als Untersuchungsobjekt 11 geschildert. Dieses Ausführungsbeispiel ist aber nicht beschränkend zu sehen. Soweit die nachfolgende Beschreibung des erfindungsgemäßen Betriebsverfahrens auf eine Röntgenanordnung und einen Menschen abstellt, ist sie daher nur beispielhaft.
  • Gemäß 2 nimmt der Rechner 2 in einem Schritt S1 zunächst von einem Anwender 12 über eine geeignete Eingabeeinrichtung 13 eine Anwahl einer Betriebsart entgegen. Die angewählte Betriebsart kann beispielsweise ein Einzelbildbetrieb, ein Handbetrieb, ein Schwenken der Aufnahmeanordnung 1 zum Erfassen von Bildern für eine dreidimensionale Rekonstruktion des Untersuchungsobjekts 11 usw. sein. Mit jeder dieser Betriebsarten ist ein korrespondierendes Bildauswertungsverfahren gekoppelt. Die Anwahl der Betriebsart entspricht daher zugleich auch der Anwahl eines entsprechenden Bildauswertungsverfahrens.
  • Nachfolgend wird angenommen, dass der Anwender 12 eine Betriebsart angewählt hat, bei der eine Erfassung einer Sequenz von Bildern B erfolgen soll, die später für die Auswertung eines so genannten Myocardial Blush herangezogen werden sollen. Das Untersuchungsobjekt 11 ist daher im konkreten Fall nicht nur ein Mensch ganz allgemein, sondern dessen Herz. Bei dem Untersuchungsobjekt 11 handelt es sich somit um ein sich iterierend bewegendes Objekt, da das Herz selbstverständlich schlägt. Weiterhin enthält das Untersuchungsobjekt 11 aus diesem Grund ein Gefäßsystem, nämlich die Herzkranzgefäße.
  • In Abhängigkeit von der Anwahl des Bildauswertungsverfahrens, also anwahlspezifisch, stellt der Rechner 2 nunmehr in einem Schritt S2 positionierungsunabhängige Betriebsparameter U, I, α, k, γ, R, M der Aufnahmeanordnung 1 ein. Alternativ wäre es auch möglich, dem Anwender 12 entsprechende Anweisungen zum Einstellen der positionierungsunabhängigen Betriebsparameter U, I, α, k, γ, R, M vorzugeben. Beispielsweise kann der Rechner 2 der Aufnahmeanordnung 1 eine Betriebsspannung U der Röntgenquelle 9, einen Betriebsstrom I der Röntgenquelle 9, ein Ausmaß α einer Kantenanhebung in den erfassten Bildern B, einen k-Faktor k, einen γ-Parameter γ, eine Bildrate R und eine Kontrastmittelmenge M vorgeben. Die eingestellten bzw. vorgegebenen Betriebsparameter U, I, α, k, γ, R und/oder M können dabei alternativ fest vorgegeben sein, also vom Hersteller der medizintechnischen Anlage festgelegt sein. Alternativ ist es aber auch möglich, dass der Anwender 12 sie bei anderer Gelegenheit bestimmt hat. Entscheidend ist, dass die Werte vorbestimmt sind.
  • Es ist möglich, verschiedene Bereiche des Untersuchungsobjekts 11 zu erfassen. Vorzugsweise nimmt der Rechner 2 daher in einem Schritt S3 vom Anwender 12 eine Anwahl bzw. Selektion für einen Bereich des Untersuchungsobjekts 11 entgegen. Je nach selektiertem Bereich sind dann andere Positionierungen der Aufnahmeanordnung 1 relativ zum Untersuchungsobjekt 11 optimal. In einem Schritt S4 positioniert der Rechner 2 daher die Aufnahmeanordnung 1 entsprechend der Selektion von Schritt S3 oder gibt dem Anwender 12 entsprechende selektionsspezifische Anweisungen zum Positionieren der Aufnahmeanordnung 1 vor. Auch hier ist es entscheidend, dass die Positionierungen vorbestimmt sind. Hingegen ist es zweitrangig, ob die Positionierungen vom Hersteller der bildgebenden medizintechnischen Anlage oder vom Anwender 12 bestimmt sind.
  • Als nächstes erfasst der Rechner 2 mittels des Röntgendetektors 10 in einem Schritt S5 ein zweidimensionales Bild B. Dieses Bild B korrigiert er – ebenfalls im Rahmen des Schrittes S5 – um detektorspezifische Korrekturen. Weiterhin bereitet er das erfasste Bild zusätzlich auf und gibt es über ein Sichtgerät 14 an den Anwender aus. Der Anwender 12 hat somit die Möglichkeit, sich visuell zu vergewissern, dass die Einstellungen und Betriebsparameter (positionierungsabhängige und positionierungsunabhängige) ordnungsgemäß sind.
  • In einem Schritt S6 wartet der Rechner 2 sodann ein Startsignal S des Anwenders 12 ab.
  • Wenn der Anwender 12 das Startsignal S vorgibt, gibt der Rechner 2 in einem Schritt S7 zunächst ein optisches und/oder akustisches Erstsignal an das Untersuchungsobjekt 11 aus. Der Sinn der Ausgabe des Erstsignals besteht darin, das Untersuchungsobjekt davon in Kenntnis zu setzen, dass die Erfassung einer Sequenz von Bildern B in Kürze beginnt, nämlich nach Ablauf einer Verzögerungszeit. Das Untersuchungsobjekt hat daher noch Zeit, beispielsweise einzuatmen und die Luft anzuhalten oder dergleichen mehr. Der Ablauf der Verzögerungszeit wird vom Rechner 2 in einem Schritt S8 abgewartet.
  • Nach Ablauf der Verzögerungszeit erfasst der Rechner 2 in einem Schritt S9 ein zweidimensionales Bild B und parallel dazu ein Phasensignal φ des Untersuchungsobjekts 11. Dieses Bild B korrigiert der Rechner 2 im Rahmen des Schrittes S9 um detektorspezifische Korrekturen, arbeitet es aber nicht weiter auf. Das korrigierte erfasste Bild B archiviert der Rechner 2. Zusammen mit dem Bild werden auch dessen Erfassungszeitpunkt t und das Phasensignal φ archiviert.
  • Weiterhin bereitet der Rechner 2 in einem Schritt S10 das erfasste Bild B über die detektorspezifischen Korrekturen hin aus auf und gibt das aufbereitete Bild B über das Sichtgerät 14 unmittelbar an den Anwender 12 aus. Dadurch ist eine permanente Sichtkontrolle durch den Anwender 12 möglich.
  • Gemäß 2 ist es darüber hinaus optional möglich, in einem Schritt S11 dem Untersuchungsobjekt 11 Triggerimpulse T zuzuführen. Dies kann gegebenenfalls sinnvoll sein, wenn das Herz des Menschen beispielsweise sehr unregelmäßig oder nur schwach schlägt. In der Regel ist das Zuführen der Triggerimpulse T hingegen nicht erforderlich. Der Schritt S11 ist daher nur optional und aus diesem Grund in 2 nur gestrichelt eingezeichnet.
  • In einem Schritt S12 überprüft der Rechner 2 weiterhin, ob – gerechnet ab dem Startsignal S – ein Injektionszeitpunkt erreicht ist, zu dem ein Kontrastmittel in das Untersuchungsobjekt 11 injiziert werden soll. Wenn dieser Injektionszeitpunkt erreicht ist, injiziert der Rechner 2 in einem Schritt S13 das Kontrastmittel oder gibt an den Anwender 12 eine entsprechende Anforderung zum Injizieren des Kontrastmittels aus. Anderenfalls wird direkt zu einem Schritt S14 übergegangen.
  • Im Schritt S14 überprüft der Rechner, ob sich die positionierungsunabhängigen Betriebsparameter U, I, α, k, γ, R, M während der Erfassung der Bilder B geändert haben. Wenn dies der Fall ist, greift der Rechner 2 in einem Schritt S15 korrigierend ein, so dass die Betriebsparameter U, I, α, k, γ, R, M möglichst konstant gehalten werden. Anderenfalls wird direkt zu einem Schritt S16 übergegangen.
  • Im Schritt S16 überprüft der Rechner 2, ob eine Abbruchbedingung erfüllt ist. Die Abbruchbedingung kann dabei beispielsweise in einem Zeitablauf, dem Erreichen einer bestimmten Anzahl erfasster Bilder B, dem Erreichen einer bestimmten Anzahl von Iterationen des Untersuchungsobjekts 11 oder einer Eingabe des Anwenders 12 bestehen.
  • Wenn das Abbruchkriterium nicht erfüllt ist, geht der Rechner 2 zum Schritt S9 zurück, wo er das nächste Bild B erfasst. Wenn das Abbruchkriterium hingegen erfüllt ist, stellt der Rechner 2 das Erfassen der Bilder B ein und geht zu einem Schritt S17 über. In diesem Schritt S17 gibt der Rechner 2 ein optisches und/oder akustisches Zweitsignal an das Untersuchungsobjekt 11 aus. Das Untersuchungsobjekt 11 weiß daher, dass es beispielsweise wieder atmen darf und/oder sich bewegen darf.
  • Die Art der Erfassung der einzelnen zweidimensionalen Bilder B kann verschiedenartig ausgestaltet sein. Dies wird nachfolgend in Verbindung mit den 3 bis 8 näher erläutert.
  • 3 zeigt zunächst mehrere Zeitpunkte, zu denen das Untersuchungsobjekt 11 jeweils eine Referenzphasenlage annimmt. Die Referenzphasenlage kann beispielsweise der R-Zacke eines EKG entsprechen.
  • Die Erfassung der einzelnen zweidimensionalen Bilder B erfolgt im einfachsten Fall unabhängig von den Referenzzeitpunkten. Dieser Fall ist in 4 dargestellt.
  • Es ist aber auch möglich, dass der Rechner 2 die Erfassung der Bilder B derart steuert, dass mehrere Gruppen von Bildern 8 erfasst werden. Innerhalb jeder Gruppe von Bildern B wird dann jedes Bild B zu einem für das jeweilige Bild B spezifischen Erfassungszeitpunkt relativ zu einem vorhergehenden Zeitpunkt (Referenzzeitpunkt) erfasst, zu dem das Untersuchungsobjekt 11 die Referenzphasenlage angenommen hat. Derartige Fallgestaltungen sind in den 5 bis 8 dargestellt.
  • Gemäß 5 beträgt die Anzahl von Bildern B pro Gruppe von Bildern B Eins. Ein Zeitversatz t1 zwischen den jeweiligen Referenzzeitpunkten und den Erfassungszeitpunkten der Bilder B kann dabei alternativ Null sein oder größer als Null sein.
  • In der Regel ist die Anzahl von Bildern B pro Gruppe von Bildern B aber größer als Eins. Diese Fallgestaltungen sind in den 6 bis 8 dargestellt.
  • Gemäß den 6 und 7 folgen die Erfassungszeitpunkte innerhalb jeder Gruppe von Bildern B mit einem konstanten Zeitversatz t2 aufeinander. Der Unterschied zwischen 6 und 7 besteht darin, dass in 6 der früheste Erfassungszeitpunkt um einen Zeitversatz t3 nach dem Referenzzeitpunkt liegt, während bei 7 der früheste Erfassungszeitpunkt der Referenzzeitpunkt selbst ist. Gemäß 6 ist somit ein Zeitversatz t3 zwischen dem Referenzzeitpunkt und dem frühesten Erfassungszeitpunkt gegeben. Dieser Zeitversatz t3 kann alternativ gleich dem Zeitversatz t2 oder ungleich dem Zeitversatz t2 sein.
  • Gemäß 8 ist es auch möglich, dass die Erfassungszeitpunkte innerhalb jeder Gruppe von Bildern B nicht mit einem konstanten Zeitversatz aufeinander folgen. Dies ergibt sich aus 8 anhand der voneinander verschiedenen Beabstandungen der einzelnen Bilder B. Ein Zeitversatz t4 vom jeweiligen Referenzzeitpunkt zum Erfassungszeitpunkt des ersten Bildes B der jeweiligen Gruppe kann alternativ Null oder größer als Null sein.
  • Die erfassten und archivierten Bilder B müssen selbstverständlich auch ausgewertet werden. Dies erfolgt in einem Schritt S18. Dabei ist es möglich, dass der Rechner 2 den Schritt S18 selbst ausführt. In diesem Fall stellt er die archivierte Sequenz von Bildern B, die korrespondierenden Erfassungszeitpunkte t und das korrespondierende Phasensignal φ sich selbst zur Verfügung. In diesem Fall stellt er also selbst zugleich eine Auswertungseinrichtung für die erfasste Sequenz von Bildern B dar. Es ist aber auch möglich, die erfasste Sequenz von Bildern B, die korrespondierenden Erfassungszeitpunkte t und das Phasensignal φ einer Auswertungseinrichtung zur Verfügung zu stellen, die vom Rechner 2 verschieden ist. Nachfolgend wird beispielhaft angenommen, dass der Rechner 2 selbst auch die Funktion der Auswertungseinrichtung übernimmt.
  • Im Rahmen der Auswertung der erfassten Sequenz von Bildern B wählt zunächst der Anwender 12 eines der Bilder B als Referenzbild aus. Der Rechner 2 nimmt diese Anwahl gemäß 9 in einem Schritt S21 entgegen. Zur Auswahl des Referenzbildes sind dabei zwei bevorzugte Vorgehensweisen möglich. Diese beiden Vorgehensweisen werden nachfolgend in Verbindung mit den 10 und 11 näher erläutert.
  • Gemäß 10 selektiert der Rechner 2 zum Auswählen des Referenzbildes in einem Schritt S31 zunächst selbsttätig ein Bild B, das in der ersten oder in der letzten Iteration des Untersuchungsobjekts 11 erfasst wurde. Sodann ermittelt der Rechner 2 in einem Schritt S32 anhand des korrespondierenden Erfassungszeitpunktes t und des Phasensignals φ eine Phasenlage des selektierten Bildes B. Das selektierte Bild B und die ermittelte Phasenlage gibt der Rechner 2 über das Sichtgerät 14 in einem Schritt S33 an den Anwender 12 aus und wartet dann in einem Schritt S34 eine Anwendereingabe ab.
  • In einem Schritt S35 prüft der Rechner 2, ob die Anwendereingabe eine Auswahl war. Wenn dies der Fall ist, bestimmt der Rechner 2 das momentan selektierte Bild B in einem Schritt S36 zum Referenzbild. Anderenfalls prüft der Rechner in einem Schritt S37, ob die Anwendereingabe ein Befehl zum Vorwärtsblättern war. Wenn dies der Fall ist, selektiert der Rechner 2 in einem Schritt S38 das zeitlich unmittelbar nach dem momentan selektierten Bild B erfasste Bild B und geht zum Schritt S32 zurück. Anderenfalls selektiert der Rechner 2 das unmittelbar vor dem momentan selektierten Bild B erfasste Bild B und geht ebenfalls zum Schritt S32 zurück.
  • Alternativ ist es gemäß 11 auch möglich, dass der Anwender 12 dem Rechner 2 in einem Schritt S41 eine gewünschte Phasenlage vorgibt. In diesem Fall bestimmt der Rechner 2 in einem Schritt S42 anhand der Erfassungszeitpunkte t und des Phasensignals φ eines der Bilder B, die in der ersten oder in der letzten Iteration des Untersuchungsobjekts 11 erfasst wurden, zum Referenzbild in einem Schritt S42.
  • Nach dem Bestimmen des Referenzbildes setzt der Rechner 2 die Auswertung der erfassten Sequenz von Bildern B gemäß 9 mit einem Schritt S22 fort. Im Schritt S22 bestimmt der Rechner 2 anhand der Erfassungszeitpunkte t und des Phasensignals φ selbsttätig weitere Bilder B der erfassten Sequenz als Auswertungsbilder. Vorzugsweise erfolgt diese Bestimmung dabei selbsttätig durch den Rechner 2. Es ist aber auch eine interaktive Bestimmung durch entsprechende Hilfseingaben des Anwenders 12 möglich.
  • Vorzugsweise ermittelt der Rechner 2 als nächstes in einem Schritt S23 elastische Bildverschiebungen der Auswertungsbilder und nimmt diese elastischen Bildverschiebungen vor. Die Ermittlung der elastischen Bildverschiebungen erfolgt dabei derart, dass für das jeweils betrachtete Auswertungsbild eine Korrelation mit dem Referenzbild maximiert wird.
  • Sodann passt der Rechner 2 die Auswertungsbilder in einem Schritt S24 an das Referenzbild an. Dieser Schritt S24 wird nachfolgend in Verbindung mit 12 näher erläutert.
  • Gemäß 12 bestimmt der Rechner 2 zunächst in einem Schritt S51 einen Teilbereich der Auswertungsbilder und des Referenzbildes. Im einfachsten Fall erfolgt diese Bestimmung auf Grund einer entsprechenden Eingabe des Anwenders 12. Es ist aber auch möglich, dass der Rechner 2 den Teilbereich selbsttätig bestimmt. Dies wird später in Verbindung mit 13 noch näher erläutert werden.
  • Nach der Bestimmung der Teilbereiche selektiert der Rechner 2 in einem Schritt S52 eines der Auswertungsbilder. In einem Schritt S53 vergleicht der Rechner 2 dann das selektierte Auswertungsbild und das Referenzbild miteinander. Der Vergleich erfolgt dabei nur innerhalb der miteinander korrespon dierenden Teilbereiche. Anhand des Vergleichs bestimmt der Rechner 2 sodann in einem Schritt S54 eine Transformation der Pixelwerte des selektierten Auswertungsbildes. Die Transformation ist derart bestimmt, dass der Mittelwert der Pixel des Teilbereichs des transformierten Auswertungsbildes auf der einen Seite und der Mittelwert der Pixel des Referenzbildes auf der anderen Seite in einer vorbestimmten funktionalen Beziehung zueinander stehen. Die funktionale Beziehung kann dabei insbesondere darin bestehen, dass der Mittelwert der Pixel des Teilbereichs des transformierten Auswertungsbildes gleich dem Mittelwert der Pixel des Teilbereichs des Referenzbildes ist. Die Transformation kann alternativ linear oder nicht linear sein.
  • Entsprechend der im Schritt S54 bestimmten Transformation transformiert der Rechner 2 dann in einem Schritt S55 alle Pixel des selektierten Auswertungsbildes, also sowohl innerhalb als auch außerhalb des Teilbereichs.
  • In einem Schritt S56 prüft der Rechner 2, ob er die Schritte S52 bis S55 bereits für alle Auswertungsbilder durchgeführt hat. Wenn dies noch nicht der Fall ist, geht er zunächst zu einem Schritt S57 über, in dem er ein anderes der Auswertungsbilder selektiert, und dann zum Schritt S52 zurück. Anderenfalls ist das Anpassen der Auswertungsbilder gemäß Schritt S24 von 9 beendet.
  • Wie bereits in Verbindung mit 12 erwähnt, ist eine Bestimmung des Teilbereichs durch eine entsprechende Anwendereingabe der einfachste Fall. Die Bestimmung des Teilbereichs durch den Rechner 2 wird nunmehr nachfolgend in Verbindung mit 13 näher erläutert. Unabhängig von der Frage, ob die Bestimmung des Teilbereichs durch eine entsprechende Anwendereingabe oder selbsttätig durch den Rechner 2 erfolgt, ist aber vorzugsweise der Teilbereich für alle Auswertungsbilder derselbe.
  • Wenn der Rechner 2 den Teilbereich selbsttätig bestimmt, wählt der Rechner 2 gemäß 13 in einem Schritt S61 zunächst eines der Auswertungsbilder oder das Referenzbild aus. In dem ausgewählten Bild ermittelt der Rechner 2 dann in einem Schritt S62 einen Verschiebebereich oder nimmt vom Anwender 12 einen Verschiebebereich entgegen. Soweit erforderlich, berücksichtigt der Rechner 2 dabei den selektierten Bereich des Untersuchungsobjekts 11.
  • Wenn der Rechner 2 selbsttätig den Verschiebebereich bestimmt, kann dies beispielsweise dadurch geschehen, dass er selbsttätig einen Quadranten oder einen Teil eines Quadranten selektiert, der dann dem Verschiebebereich entspricht. Wenn der Verschiebebereich dem Rechner 2 vom Anwender 12 vorgegeben wird, ist es beispielsweise möglich, dass der Anwender 12 im ausgewählten Bild einen Polygonzug oder ein Rechteck markiert.
  • In beiden Fällen ist es möglich, den selektierten Bereich des Untersuchungsobjekts 11 bei der Bestimmung des Verschiebebereichs zu berücksichtigen. Beispielsweise kann der Rechner 2 den Quadranten oder dessen Teil in Abhängigkeit von dem selektierten Bereich des Untersuchungsobjekts 11 bestimmen. Auch kann für den Fall einer Eingabe durch den Anwender 12 ein Rahmenbereich, innerhalb dessen der Verschiebebereich liegen muss, in Abhängigkeit vom selektierten Bereich des Untersuchungsobjekts 11 bestimmt sein.
  • Der Verschiebebereich ist ein Bereich, in dem ein noch festzulegender Auswertungskern verschoben wird. Analog zum Verschiebebereich wird der zweidimensionale Auswertungskern in einem Schritt S63 bestimmt. Auch hier kann alternativ wieder eine selbsttätige Ermittlung durch den Rechner 2 oder eine Vorgabe durch den Anwender 12 erfolgen. Ferner kann auch hier wieder gegebenenfalls der selektierte Bereich des Untersuchungsobjekts 11 berücksichtigt werden.
  • Zur eigentlichen Bestimmung des Teilbereichs wird als nächstes in einem Schritt S64 eine Variable MIN auf einen maximal möglichen Wert gesetzt. Weiterhin wird in einem Schritt S66 eine – prinzipiell beliebige – anfängliche Position des Auswertungskerns innerhalb des Verschiebungsbereichs in dem ausgewählten Bild bestimmt.
  • In einem Schritt S67 bestimmt der Rechner 2 nunmehr bei der momentanen Position einen Schwankungswert SW, der für die Schwankung der Pixel innerhalb des Auswertungskerns bei der momentan bestimmten Position des Auswertungskerns charakteristisch ist. Beispielsweise kann die Differenz von maximalem und minimalem Pixelwert bestimmt werden oder eine statistische Größe wie beispielsweise die Streuung oder die Varianz.
  • In einem Schritt S68 überprüft der Rechner 2, ob der Schwankungswert SW kleiner als die Variable MIN ist. Wenn dies der Fall ist, setzt der Rechner 2 in einem Schritt S69 die Variable MIN auf den Schwankungswert SW und speichert die derzeitige Position als Minimalposition ab. Anderenfalls geht der Rechner 2 direkt zu einem Schritt S70 über.
  • Im Schritt S70 prüft der Rechner 2, ob er die Schritte S67 bis S69 bereits für alle möglichen Positionen des Auswertungskerns innerhalb des Verschiebebereichs ausgeführt hat. Wenn dies nicht der Fall ist, geht der Rechner 2 zu einem Schritt S71 über, in dem er eine neue, bisher noch nicht ausgewertete Position des Auswertungskerns bestimmt. Sodann geht er zum Schritt S67 zurück. Anderenfalls bestimmt der Rechner 2 in einem Schritt S72 den Auswertungskern bei der Minimalposition zum Teilbereich. In einem Schritt S73 gibt der Rechner 2 dann das Referenzbild, eines der Auswertungsbilder oder ein Differenzbild eines der Auswertungsbilder und des Referenzbildes über das Sichtgerät 14 an den Anwender 12 aus. Den Teilbereich blendet er dabei in das ausgegebene Bild ein.
  • Soweit nicht bereits anderweitig erfolgt, werden als nächstes gemäß 9 in einem Schritt S25 durch Subtrahieren des Refe renzbildes von den Auswertungsbildern Differenzbilder gebildet. Weiterhin wird in einem Schritt S26 ein Ausschnitt der Differenzbilder selektiert. Das Selektieren des Ausschnitts wird nachfolgend in Verbindung mit 14 näher erläutert.
  • Gemäß 14 bestimmt der Rechner 2 in einem Schritt S81 zunächst selbsttätig einen ersten in sich zusammenhängenden zweidimensionalen Auswertungsbereich. Dieser Auswertungsbereich ist aber nur vorläufig. Sodann wartet der Rechner 2 in einem Schritt S82 eine Anwendereingabe ab.
  • In einem Schritt S83 überprüft der Rechner 2, ob die Anwendereingabe eine Bestätigung war. Wenn dies der Fall ist, übernimmt der Rechner 2 in einem Schritt S84 den in sich geschlossen Auswertungsbereich als selektierten Auswertungsbereich. Anderenfalls übernimmt der Rechner 2 in einem Schritt S85 eine Änderungsanweisung des Anwenders 12 und geht zum Schritt S82 zurück.
  • Der Anwender 12 hat selbstverständlich nicht nur die Möglichkeit, den vorläufigen Auswertungsbereich zu bestätigen und zu ändern, sondern er kann ihn auch verwerfen. Dies ist in 14 lediglich der Übersichtlichkeit halber nicht mit dargestellt.
  • In einem Schritt S86 prüft der Rechner 2 als nächstes, ob die Bestimmung der Auswertungsbereiche nunmehr beendet ist. Wenn dies nicht der Fall ist, bestimmt der Rechner 2 in einem Schritt S87 selbsttätig einen vorläufigen weiteren in sich geschlossenen Auswertungsbereich und geht zum Schritt S82 zurück. Anderenfalls ist die Bestimmung der Auswertungsbereiche beendet.
  • Die Schritte S82 bis S85 sind nur optional. Sie können also gegebenenfalls entfallen. Wenn dies der Fall ist, wenn die Schritte S82 bis S85 also entfallen, ermittelt der Rechner 2 die Auswertungsbereiche völlig selbsttätig.
  • Nach der Bestimmung des selektierten Ausschnitts führt der Rechner 2 gemäß 14 noch einen Schritt S88 durch. In diesem Schritt S88 segmentiert der Rechner 2 die Gefäße des Untersuchungsobjekts 11 im Auswertungsbereich der Differenzbilder. Sodann setzt er die weitere Abarbeitung des erfindungsgemäßen Betriebsverfahrens mit einem Schritt S27 (siehe 9) fort.
  • In der Regel erfolgt die Bestimmung des selektierten Ausschnitts einmal für alle Differenzbilder. Es ist aber auch möglich, dass der Anwender 12 den Auswertungsbereich individuell für jedes Auswertungsbild bestimmt und dem Rechner 2 entsprechend vorgibt. In diesem Fall vergleicht der Rechner 2 die Auswertungsbereiche der einzelnen Auswertungsbilder miteinander. Er gibt eine Warnmeldung an den Anwender 12 aus, wenn die Auswertungsbereiche nicht miteinander korrespondieren.
  • Im Schritt S27 bestimmt der Rechner 2 anhand der selektierten Ausschnitte der Differenzbilder einen zeitlichen Verlauf einer Änderung des Untersuchungsobjekts 11. Das im Schritt S88 segmentierte Gefäßsystem des Untersuchungsobjekts 11 lässt er dabei unberücksichtigt.
  • In einem nachfolgenden Schritt S28 erstellt der Rechner 2 selbsttätig einen Report, ordnet ihn der erfassten Sequenz zu und archiviert ihn. Das Erstellen des Reports erfolgt dabei anhand der im Schritt S25 ermittelten Differenzbilder, genauer: Ausschließlich anhand der Pixelwerte der Differenzbilder im Auswertungsbereich. Auf Grund des Segmentierens des Gefäßsystems im Schritt S88 berücksichtigt der Rechner 2 beim Erstellen des Reports das Gefäßsystem nicht.
  • Das Format des Reports kann prinzipiell beliebig gewählt sein. Bevorzugt aber erstellt der Rechner 2 den Report im DICOM-Format.
  • Über das Erstellen des Reports hinaus gibt der Rechner 2 in einem Schritt S20 auch eine Darstellung über das Sichtgerät 14 an den Anwender 12 aus, die für die zeitliche Änderung des Untersuchungsobjekts 11 charakteristisch ist. Beispielsweise ist es – siehe 15 – möglich, eine farbcodierte Darstellung eines der Auswertungsbilder oder des Referenzbildes bzw. eines der Differenzbilder auf dem Sichtgerät 14 darzustellen. Die Farbe ist in diesem Fall eine Funktion der Dauer und/oder des Ausmaßes der zeitlichen Änderung des Untersuchungsobjekts 11. Eine entsprechende Farbskala kann in das dargestellte Bild mit eingeblendet sein.
  • Mittels des erfindungsgemäßen Betriebsverfahrens ist es somit erheblich zuverlässiger als bisher möglich, reproduzierbare Sequenzen von Bildern des Untersuchungsobjekts 11 zu erfassen.

Claims (54)

  1. Betriebsverfahren für eine bildgebende medizintechnische Anlage mit einer Steuereinrichtung (2) und einer Aufnahmeanordnung (1), – wobei die Steuereinrichtung (2) von einem Anwender (12) eine Anwahl eines Bildauswertungsverfahrens entgegen nimmt und daraufhin selbsttätig anwahlspezifisch positionierungsunabhängige Betriebsparameter (U, I, α, k, γ, R, M) der Aufnahmeanordnung (1) einstellt und/oder dem Anwender (12) Anweisungen zum Einstellen der positionierungsunabhängigen Betriebsparameter (U, I, α, k, γ, R, M) vorgibt, – wobei die Steuereinrichtung (2) auf eine Starteingabe (S) des Anwenders (12) hin eine Sequenz von aufeinander folgenden zweidimensionalen Bildern (B) eines sich iterierend bewegenden Untersuchungsobjekts (11) und deren Erfassungszeitpunkte (t) sowie ein Phasensignal (φ) des Untersuchungsobjekts (11) erfasst und die Sequenz von Bildern (B), die Erfassungszeitpunkte (t) und das Phasensignal (φ) archiviert.
  2. Betriebsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Steuereinrichtung (2) vor der Starteingabe (S) vom Anwender (12) eine Selektion für einen Bereich des Untersuchungsobjekts (11) entgegen nimmt und daraufhin selbsttätig die Aufnahmeanordnung (1) selektionsspezifisch positioniert und/oder dem Anwender (12) selektionsspezifische Anweisungen zum Positionieren der Aufnahmeanordnung (1) vorgibt.
  3. Betriebsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die zu archivierenden Bilder (B) vor dem Archivieren um detektorspezifische Korrekturen korrigiert werden.
  4. Betriebsverfahren nach Anspruch 3, dadurch gekennzeichnet, dass die zu archivierenden Bilder (B) vor dem Archivieren über die detektorspezifischen Korrekturen hinaus nicht weiter aufbereitet werden.
  5. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Aufnahmeanordnung (1) eine Röntgenquelle (9) und einen Röntgendetektor (10) aufweist und dass die positionierungsunabhängigen Betriebsparameter (U, I, α, k, γ, R, M) mindestens eine der Größen Betriebsspannung (U) der Röntgenquelle (9), Betriebsstrom (I) der Röntgenquelle (9), Ausmaß (α) einer Kantenanhebung in den erfassten Bildern (B), k-Faktor (k), γ-Parameter (γ), Bildrate (R) und Kontrastmittelmenge (M) umfassen.
  6. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) vor der Starteingabe (S) ein Bild (B) des Untersuchungsobjekts (11) erfasst und über ein Sichtgerät (14) an den Anwender (12) ausgibt.
  7. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) auf Grund der Starteingabe (S) ein optisches und/oder akustisches Erstsignal an das Untersuchungsobjekt (11) ausgibt.
  8. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) dem Untersuchungsobjekt (11) Triggerimpulse (T) zuführt.
  9. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) die Erfassung der Bilder (B) derart steuert, dass mehrere Gruppen von Bildern (B) erfasst werden und innerhalb jeder Gruppe von Bildern (B) jedes Bild (B) zu einem für das jeweilige Bild (B) spezifischen Erfassungszeitpunkt (t) relativ zu einem vorhergehenden Zeitpunkt (Referenzzeitpunkt) erfasst wird, zu dem das Untersuchungsobjekt (11) eine vorbestimmte Referenzphasenlage angenommen hat.
  10. Betriebsverfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Anzahl von Bildern (B) pro Gruppe von Bildern (B) Eins beträgt.
  11. Betriebsverfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Anzahl von Bildern (B) pro Gruppe von Bildern (B) größer als Eins ist.
  12. Betriebsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Erfassungszeitpunkte (t) innerhalb jeder Gruppe von Bildern (B) mit einem konstanten Zeitversatz (t2) aufeinander folgen.
  13. Betriebsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Erfassungszeitpunkte (t) innerhalb jeder Gruppe von Bildern (B) mit einem nicht konstanten Zeitversatz aufeinander folgen.
  14. Betriebsverfahren nach Anspruch 11, 12 oder 13, dadurch gekennzeichnet, dass der früheste Erfassungszeitpunkt (t) der Referenzzeitpunkt ist.
  15. Betriebsverfahren nach Anspruch 11, 12 oder 13, dadurch gekennzeichnet, dass der früheste Erfassungszeitpunkt (t) nach dem Referenzzeitpunkt liegt.
  16. Betriebsverfahren nach Anspruch 12 und 15, dadurch gekennzeichnet, dass ein Zeitversatz (t3) zwischen dem frühesten Erfassungszeitpunkt (t) und dem Referenzzeitpunkt mit dem konstanten Zeitversatz (t2) korrespondiert.
  17. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) auf Grund des Startsignals (S) zu einem vorbestimmten Injektionszeitpunkt selbsttätig ein Kontrastmittel in das Untersuchungsobjekt (11) injiziert oder eine Aufforderung zum Injizieren des Kontrastmittels an den Anwender (12) ausgibt.
  18. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) laufend prüft, ob eine Abbruchbedingung erfüllt ist, und das Erfassen der Bilder (B) einstellt, sobald die Abbruchbedingung erfüllt ist.
  19. Betriebsverfahren nach Anspruch 18, dadurch gekennzeichnet, dass die Abbruchbedingung ein Zeitablauf, das Erreichen einer bestimmten Anzahl erfasster Bilder (B), das Erreichen einer bestimmten Anzahl von Iterationen des Untersuchungsobjekts (11) oder eine Anwendereingabe ist.
  20. Betriebsverfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass die Steuereinrichtung (2) nach dem Beenden der Erfassung der Bilder (B) ein optisches und/oder akustisches Zweitsignal an das Untersuchungsobjekt (11) ausgibt.
  21. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die erfassten Bilder (B) zusätzlich zur Archivierung über ein Sichtgerät (14) unmittelbar an den Anwender (12) ausgegeben werden.
  22. Betriebsverfahren nach Anspruch 21, dadurch gekennzeichnet, dass die auszugebenden Bilder (B) vor dem Ausgeben an den Anwender (12) um detektorspezifische Korrekturen korrigiert und darüber hinaus aufbereitet werden.
  23. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (2) die positionierungsunabhängigen Betriebsparameter (U, I, α, k, γ, R, M) während der Erfassung der Bilder (B) möglichst konstant hält.
  24. Betriebsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, – dass die Steuereinrichtung (2) die archivierte Sequenz von Bildern (B), die korrespondierenden Erfassungszeitpunkte (t) und das korrespondierende Phasensignal (φ) einer Auswertungseinrichtung (2) zur Verfügung stellt, – dass der Anwender (12) zunächst eines der Bilder (B) als Referenzbild auswählt, – dass sodann die Auswertungseinrichtung (2) anhand der Erfassungszeitpunkte (t) und des Phasensignals (φ) selbsttätig oder aufgrund entsprechender Anwendereingaben weitere Bilder (B) der erfassten Sequenz als Auswertungsbilder bestimmt und – dass die Auswertungseinrichtung (2) anhand des Referenzbildes und der Auswertungsbilder selbsttätig einen Report erstellt, der erfassten Sequenz zuordnet und archiviert.
  25. Betriebsverfahren nach Anspruch 24, dadurch gekennzeichnet, – dass die Auswertungseinrichtung (2) zum Auswählen des Referenzbildes selbsttätig ein Bild (B) selektiert, das in der ersten oder in der letzten Iteration des Untersuchungsobjekts (11) erfasst wurde, – dass die Auswertungseinrichtung (2) anhand des Erfassungszeitpunktes (t) des selektierten Bildes (B) und des Phasensignals (φ) dessen Phasenlage ermittelt, – dass die Auswertungseinrichtung (2) das selektierte Bild (B) und die ermittelte Phasenlage über ein Sichtgerät (14) an den Anwender (12) ausgibt und sodann eine Anwendereingabe abwartet und – dass die Auswertungseinrichtung (2) in Abhängigkeit von der Anwendereingabe – entweder das zeitlich unmittelbar vor dem momentan selektierten Bild (B) erfasste Bild (B) oder das zeitlich unmittelbar nach dem momentan selektierten Bild (B) erfasste Bild (B) selektiert, dessen Phasenlage ermittelt, das nunmehr selektierte Bild (B) und dessen Phasenlage über das Sichtgerät (14) an den Anwender (12) ausgibt und erneut die Anwendereingabe abwartet – oder das momentan selektierte Bild (B) zum Referenzbild bestimmt.
  26. Betriebsverfahren nach Anspruch 24, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) vom Anwender (12) eine Phasenlage entgegen nimmt und anhand der Erfassungszeitpunkte (t) und des Phasensignals (φ) eines der Bilder (B), die in der ersten oder in der letzten Iteration des Untersuchungsobjekts (11) erfasst wurden, zum Referenzbild bestimmt.
  27. Betriebsverfahren nach Anspruch 24, 25 oder 26, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) das Referenzbild von den Auswertungsbildern subtrahiert und so Differenzbilder bestimmt und dass die Auswertungseinrichtung (2) den Report anhand der Differenzbilder erstellt.
  28. Betriebsverfahren nach Anspruch 27, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) vor der Differenzbildung eine elastische Bildverschiebung der Auswertungsbilder vornimmt, auf Grund derer eine Korrelation der Auswertungsbilder mit dem Referenzbild maximiert wird.
  29. Betriebsverfahren nach einem der Ansprüche 24 bis 28, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Report im DICOM-Format erstellt.
  30. Betriebsverfahren nach einem der Ansprüche 24 bis 29, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) einen Teilbereich der Auswertungsbilder mit dem korrespondierenden Teilbereich des Referenzbildes vergleicht, anhand des Vergleichs eine für alle Pixel des jeweiligen Auswertungsbildes gültige Transformation der Pixelwerte bestimmt, so dass der Mittelwert der Pixel des Teilbereichs des transformierten Auswertungsbildes und der Mittelwert der Pixel des Teilbereichs des Referenzbildes in einer vorbestimmten funktionalen Beziehung stehen, und die Pixel des jeweiligen Auswertungsbildes entsprechend dieser Transformation transformiert.
  31. Betriebsverfahren nach Anspruch 30, dadurch gekennzeichnet, dass der Teilbereich für alle Auswertungsbilder derselbe ist.
  32. Betriebsverfahren nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass der Teilbereich der Auswertungseinrichtung (2) vom Anwender (12) vorgegeben wird.
  33. Betriebsverfahren nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Teilbereich selbsttätig ermittelt.
  34. Betriebsverfahren nach Anspruch 33, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) zur Ermittlung des Teilbereichs innerhalb eines Verschiebebereichs eines der Auswertungsbilder oder des Referenzbildes einen zweidimensionalen Auswertungskern verschiebt, bei jeder Position des Auswer tungskerns einen für die Schwankung der Pixel des Auswertungskerns charakteristischen Schwankungswert (SW) ermittelt und als Teilbereich den Auswertungskern bei der Position bestimmt, bei der der Schwankungswert (SW) minimal ist.
  35. Betriebsverfahren nach Anspruch 34, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Verschiebebereich selbsttätig ermittelt.
  36. Betriebsverfahren nach Anspruch 34, dadurch gekennzeichnet, dass der Verschiebebereich der Auswertungseinrichtung (2) vom Anwender (12) vorgegeben wird.
  37. Betriebsverfahren nach Anspruch 34, 35 oder 36 in Verbindung mit Anspruch 2, dadurch gekennzeichnet, dass der Verschiebebereich vom selektierten Bereich des Untersuchungsobjekts abhängt.
  38. Betriebsverfahren nach einem der Ansprüche 34 bis 37, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Auswertungskern selbsttätig ermittelt.
  39. Betriebsverfahren nach einem der Ansprüche 34 bis 37, dadurch gekennzeichnet, dass der Auswertungskern der Auswertungseinrichtung (2) vom Anwender (12) vorgegeben wird.
  40. Betriebsverfahren nach einem der Ansprüche 34 bis 39 in Verbindung mit Anspruch 2, dadurch gekennzeichnet, dass der Auswertungskern vom selektierten Bereich des Untersuchungsobjekts (11) abhängt.
  41. Betriebsverfahren nach einem der Ansprüche 30 bis 40, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Teilbereich zusammen mit dem Referenzbild, einem der Auswertungsbilder oder einem anhand der Differenz eines der Auswertungsbilder und des Referenzbildes ermittelten Differenzbildes über ein Sichtgerät (14) an den Anwender (12) ausgibt.
  42. Betriebsverfahren nach Anspruch 41, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) vor der Differenzbildung eine elastische Bildverschiebung des herangezogenen Auswertungsbildes vornimmt, auf Grund derer eine Korrelation des herangezogenen Auswertungsbildes mit dem Referenzbild maximiert wird.
  43. Betriebsverfahren nach einem der Ansprüche 24 bis 42, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Report ausschließlich anhand der Pixelwerte mindestens eines in sich zusammenhängenden zweidimensionalen Auswertungsbereichs des Referenzbildes und der Auswertungsbilder erstellt.
  44. Betriebsverfahren nach Anspruch 43, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) den Auswertungsbereich selbsttätig ermittelt.
  45. Betriebsverfahren nach Anspruch 43, dadurch gekennzeichnet, dass der Auswertungsbereich der Auswertungseinrichtung (2) vom Anwender (12) vorgegeben wird.
  46. Betriebsverfahren nach Anspruch 45, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) dem Anwender (12) einen vorläufigen Auswertungsbereich vorschlägt und dass der Anwen der (12) den vorläufigen Auswertungsbereich bestätigt oder verwirft.
  47. Betriebsverfahren nach Anspruch 46, dadurch gekennzeichnet, dass der Anwender (12) die Möglichkeit hat, den vorläufigen Auswertungsbereich vor dem Bestätigen zu ändern.
  48. Betriebsverfahren nach Anspruch 45, 46 oder 47, dadurch gekennzeichnet, dass der Auswertungsbereich der Auswertungseinrichtung (2) individuell für jedes Auswertungsbild vorgegeben wird, dass die Auswertungseinrichtung (2) die Auswertungsbereiche miteinander vergleicht und dass die Auswertungseinrichtung (2) eine Warnmeldung an den Anwender (12) ausgibt, wenn die Auswertungsbereiche nicht miteinander korrespondieren.
  49. Betriebsverfahren nach einem der Ansprüche 24 bis 48, dadurch gekennzeichnet, dass das Untersuchungsobjekt (11) ein Gefäßsystem enthält und dass die Auswertungseinrichtung (2) die Bereiche des Referenzbildes und der Auswertungsbilder, die mit dem Gefäßsystem korrespondieren, beim Erstellen des Reports nicht berücksichtigt.
  50. Betriebsverfahren nach einem der Ansprüche 24 bis 49, dadurch gekennzeichnet, dass die Auswertungseinrichtung (2) anhand der Auswertungsbilder und des Referenzbildes eine zeitliche Änderung des Untersuchungsobjekts (11) ermittelt und eine für die zeitliche Änderung des Untersuchungsobjekts (11) charakteristische Darstellung über ein Sichtgerät (14) an den Anwender (12) ausgibt.
  51. Betriebsverfahren nach Anspruch 50, dadurch gekennzeichnet, dass die charakteristische Darstellung eine farbcodierte Darstellung eines der Auswertungsbilder oder des Referenzbildes oder eines Differenzbildes ist und dass die Farbe eine Funktion der Dauer und/oder des Ausmaßes der zeitlichen Änderung des Untersuchungsobjekts (11) ist.
  52. Datenträger mit einem auf dem Datenträger gespeicherten Computerprogramm (4) zur Durchführung eines Betriebsverfahrens nach einem der obigen Ansprüche.
  53. Rechner mit einem Datenträger (3, 7) nach Anspruch 52.
  54. Bildgebende medizintechnische Anlage, die eine Aufnahmeanordnung (1) und einen Rechner (2) aufweist, wobei im Rechner (2) ein Computerprogramm (4) hinterlegt ist, bei dessen Aufruf die bildgebende medizintechnische Anlage gemäß einem Betriebsverfahren nach einem der Ansprüche 1 bis 51 betreibbar ist.
DE102005036564A 2005-08-03 2005-08-03 Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände Withdrawn DE102005036564A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102005036564A DE102005036564A1 (de) 2005-08-03 2005-08-03 Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände
JP2006210750A JP5196748B2 (ja) 2005-08-03 2006-08-02 医用画像化設備の作動方法およびこれの対応物
CN2006101593870A CN1911174B (zh) 2005-08-03 2006-08-03 用于医学成像设备的运行方法和与其对应的对象
US11/498,440 US7796796B2 (en) 2005-08-03 2006-08-03 Operating method for an image-generating medical engineering assembly and articles associated herewith

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005036564A DE102005036564A1 (de) 2005-08-03 2005-08-03 Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände

Publications (1)

Publication Number Publication Date
DE102005036564A1 true DE102005036564A1 (de) 2007-02-22

Family

ID=37697145

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005036564A Withdrawn DE102005036564A1 (de) 2005-08-03 2005-08-03 Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände

Country Status (4)

Country Link
US (1) US7796796B2 (de)
JP (1) JP5196748B2 (de)
CN (1) CN1911174B (de)
DE (1) DE102005036564A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623622B2 (en) 2006-05-29 2009-11-24 Siemens Aktiengesellschaft X-ray system with an adjustment-acquisition device
DE102009031141B3 (de) * 2009-06-30 2010-12-23 Siemens Aktiengesellschaft Ermittlungsverfahren für ein farbkodiertes Auswertungsbild sowie korrespondierende Gegenstände
US7860288B2 (en) 2006-05-31 2010-12-28 Siemens Aktiengesellschaft X-ray device having a dual energy mode and method to analyze projection images detected in the dual energy mode
US8837807B2 (en) 2010-11-05 2014-09-16 Hseb Dresden Gmbh Inspection method with color correction

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098908B2 (en) * 2004-09-21 2012-01-17 Imedos Gmbh Method and device for analyzing the retinal vessels by means of digital images
JP5093727B2 (ja) * 2006-01-05 2012-12-12 国立大学法人金沢大学 連続x線画像スクリーニング検査装置、プログラム及び記録媒体
US8553832B2 (en) 2007-05-21 2013-10-08 Siemens Aktiengesellschaft Device for obtaining perfusion images
US9025840B2 (en) * 2010-03-12 2015-05-05 Koninklijke Philips N.V. Motion visualisation in angiographic images
TWI446894B (zh) * 2010-12-17 2014-08-01 Univ Nat Chiao Tung 生理訊號圖譜分析系統、方法、圖譜建立方法與其媒體
US9700219B2 (en) 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
JP2015213548A (ja) * 2014-05-08 2015-12-03 セイコーエプソン株式会社 薬液投与装置、コントローラー、薬液投与システム、及び制御方法
US10413253B2 (en) * 2014-11-21 2019-09-17 Samsung Electronics Co., Ltd. Method and apparatus for processing medical image
DE102015202999B4 (de) * 2015-02-19 2019-12-05 Siemens Healthcare Gmbh Automatisierte Justierung von Signalanalyseparametern für Röntgendetektoren
EP3096254A1 (de) 2015-05-21 2016-11-23 Universität Zürich Verfahren zur überwachung und visualisierung des medizinischen zustandes eines patienten
WO2017114916A1 (en) 2015-12-30 2017-07-06 Koninklijke Philips N.V. Synthetic representation of a vascular structure
US11200750B2 (en) 2015-12-30 2021-12-14 Koninklijke Philips N.V. Three dimensional model of a body part
EP3382414A1 (de) * 2017-03-28 2018-10-03 Siemens Healthcare GmbH Verfahren zur durchführung einer angiographischen messung und erstellung einer angiographie
DE102018208955A1 (de) * 2018-06-06 2019-12-12 Siemens Healthcare Gmbh Bestimmung eines Schwellwertes für wenigstens ein Energieband eines direkt-konvertierenden Detektors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004891A2 (de) * 1998-11-25 2000-05-31 General Electric Company System zur Bilderzeugung durch magnetische Resonanz mit interaktiver Kontrolle des Bildkontrastes
US20020032376A1 (en) * 1999-11-29 2002-03-14 Mitsue Miyazaki MR imaging using ECG-prep scan
US6529757B1 (en) * 1999-12-28 2003-03-04 General Electric Company Picture archiving and communication system and method for multi-level image data processing
US20030195414A1 (en) * 2001-02-26 2003-10-16 Toshiba America Mri, Inc. Acoustic gating monitor for magnetic resonance imaging system
US6687527B1 (en) * 2001-08-28 2004-02-03 Koninklijke Philips Electronics, N.V. System and method of user guidance in magnetic resonance imaging including operating curve feedback and multi-dimensional parameter optimization
US20050018895A1 (en) * 2000-04-04 2005-01-27 Konica Corporation Image processing selecting method, image selecting method and image processing apparatus

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59214431A (ja) * 1983-05-20 1984-12-04 株式会社東芝 放射線診断装置
DE3783835T2 (de) * 1986-08-29 1993-08-12 Fujirebio Kk Verfahren und geraet zur einschaetzung der agglutination.
US4851779A (en) * 1987-08-14 1989-07-25 Picker International, Inc. Three dimensional volume imaging with conjugate symmetrization
US5319696A (en) * 1992-10-05 1994-06-07 General Electric Company X-ray dose reduction in pulsed systems by adaptive X-ray pulse adjustment
DE4329922A1 (de) * 1993-09-04 1995-03-09 Philips Patentverwaltung MR-Abbildungsverfahren und Anordnung zur Durchführung des Verfahrens
US5533085A (en) * 1995-02-27 1996-07-02 University Of Washington Automatic indexing of cine-angiograms
US6151405A (en) * 1996-11-27 2000-11-21 Chromavision Medical Systems, Inc. System and method for cellular specimen grading
US6066949A (en) * 1997-11-19 2000-05-23 The Board Of Trustees Of The Leland Stanford Junior University Gradient characterization using fourier-transform
US6201985B1 (en) * 1998-08-14 2001-03-13 General Electric Company Segmented k-space method for three-dimensional MR imaging
KR100322596B1 (ko) * 1998-12-15 2002-07-18 윤종용 입력 영상의 밝기를 유지하는 화질 개선 장치 및 그 방법
US6954767B1 (en) * 1999-03-31 2005-10-11 Fuji Photo Film Co., Ltd. Server and method for searching for image using image prefetch, designating database and storage devices for searching, and setting retrieval and processing parameters for search
US6937884B1 (en) * 1999-09-14 2005-08-30 The Research Foundation Of State University Of New York Method and system for imaging the dynamics of scattering medium
US6909436B1 (en) * 1999-10-27 2005-06-21 The Board Of Supervisors Of Louisiana State University And Agrigultural & Mechanical College Radiologist workstation
US7490048B2 (en) * 1999-12-18 2009-02-10 Raymond Anthony Joao Apparatus and method for processing and/or for providing healthcare information and/or healthcare-related information
DE10000185A1 (de) * 2000-01-05 2001-07-12 Philips Corp Intellectual Pty Verfahren zur Darstellung des zeitlichen Verlaufs des Blutflusses in einem Untersuchungsobjekt
EP1148333A1 (de) * 2000-02-05 2001-10-24 YXLON International X-Ray GmbH Verfahren zur automatischen Gussfehlererkennung in einem Prüfling
US20030206646A1 (en) * 2000-04-24 2003-11-06 Brackett Charles C. Imaging system having means for creating, managing and selecting from list of exam descriptions
DE10120980B4 (de) * 2001-05-01 2009-12-03 Pulsion Medical Systems Ag Verfahren, Vorrichtung und Computerprogramm zur Bestimmung des Blutflusses in einer Gewebe- oder Organregion
FR2829268A1 (fr) * 2001-09-04 2003-03-07 Koninkl Philips Electronics Nv Procede de traitement d'images pour angiographie soustractiv e numerisee
US6754522B2 (en) * 2001-09-05 2004-06-22 Medimag C.V.I., Inc. Imaging methods and apparatus particularly useful for two and three-dimensional angiography
US6574500B2 (en) * 2001-09-05 2003-06-03 Medimag C.V.I. Ltd. Imaging methods and apparatus particularly useful for two and three-dimensional angiography
US6842638B1 (en) * 2001-11-13 2005-01-11 Koninklijke Philips Electronics N.V. Angiography method and apparatus
DE10214763A1 (de) * 2002-04-03 2003-10-30 Philips Intellectual Property Verfahren zur Bestimmung eines Bildes aus einer Bildsequenz
JP4012016B2 (ja) * 2002-08-29 2007-11-21 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体、及びプログラム
JP3748433B2 (ja) * 2003-03-05 2006-02-22 株式会社日立製作所 ベッド位置決め装置及びその位置決め方法
DE10325003A1 (de) * 2003-06-03 2004-12-30 Siemens Ag Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie
US20050113680A1 (en) * 2003-10-29 2005-05-26 Yoshihiro Ikeda Cerebral ischemia diagnosis assisting apparatus, X-ray computer tomography apparatus, and apparatus for aiding diagnosis and treatment of acute cerebral infarct
DE10354900A1 (de) * 2003-11-24 2005-06-30 Siemens Ag Verfahren zur Erzeugung von tomographischen Schnittbildern eines sich periodisch bewegenden Objektes mit mehreren Fokus-Detektor-Kombinationen
US20050111757A1 (en) * 2003-11-26 2005-05-26 Brackett Charles C. Auto-image alignment system and method based on identified anomalies
US20070118550A1 (en) * 2003-11-27 2007-05-24 Yang Guo L Method and apparatus for building a multi-discipline and multi-media personal medical image library
DE102004011156A1 (de) * 2004-03-08 2005-10-06 Siemens Ag Verfahren zur endoluminalen Bildgebung mit Bewegungskorrektur
EP1766570B1 (de) * 2004-07-07 2008-01-16 Philips Intellectual Property & Standards GmbH System und verfahren zur korrektur zeitlicher artefakte in tomographischen bildern
US7433504B2 (en) * 2004-08-27 2008-10-07 General Electric Company User interactive method for indicating a region of interest
US20060056680A1 (en) * 2004-09-13 2006-03-16 Sandy Stutsman 3D volume construction from DICOM data
US20060083442A1 (en) * 2004-10-15 2006-04-20 Agfa Inc. Image archiving system and method
US8121863B2 (en) * 2005-09-12 2012-02-21 Diakides Nicholas A Method for detecting abnormalities in medical screening
EP2702940B1 (de) * 2005-11-25 2023-08-09 Toshiba Medical Systems Corporation Bildreferenzvorrichtung
DE102006006451A1 (de) * 2006-02-10 2007-08-16 Siemens Ag Verfahren zum Betrieb einer Röntgendiagnostikeinrichtung zur Erzeugung hochaufgelöster Subtraktionsangiographie-Bilder
DE102006024973B4 (de) * 2006-05-29 2010-06-10 Siemens Ag Röntgenanlage und Betriebsverfahren mit Einstellungserfassungseinrichtung
US9535912B2 (en) * 2006-09-15 2017-01-03 Oracle International Corporation Techniques for checking whether a complex digital object conforms to a standard
DE102006055934A1 (de) * 2006-11-27 2008-06-12 Siemens Ag Auswertungsverfahren für eine Anzahl zweidimensionaler Projektionsbilder eines dreidimensionalen Untersuchungsobjekts
US7783008B2 (en) * 2007-03-30 2010-08-24 General Electric Company Digital radiograph patient positioning system and method
DE102007041826B4 (de) * 2007-09-03 2018-02-01 Siemens Healthcare Gmbh Verfahren zur Optimierung von angiographischen MR-Bildern
US7668294B2 (en) * 2008-01-29 2010-02-23 Siemens Medical Solutions Usa, Inc. Method and system for adjusting the image acquisition size in a biplane angiography
US8150127B2 (en) * 2008-05-28 2012-04-03 Siemens Medical Solutions Usa, Inc. Method for automatically synchronizing the review of two DSA scenes
US20090309874A1 (en) * 2008-06-11 2009-12-17 Siemens Medical Solutions Usa, Inc. Method for Display of Pre-Rendered Computer Aided Diagnosis Results

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004891A2 (de) * 1998-11-25 2000-05-31 General Electric Company System zur Bilderzeugung durch magnetische Resonanz mit interaktiver Kontrolle des Bildkontrastes
US20020032376A1 (en) * 1999-11-29 2002-03-14 Mitsue Miyazaki MR imaging using ECG-prep scan
US6529757B1 (en) * 1999-12-28 2003-03-04 General Electric Company Picture archiving and communication system and method for multi-level image data processing
US20050018895A1 (en) * 2000-04-04 2005-01-27 Konica Corporation Image processing selecting method, image selecting method and image processing apparatus
US20030195414A1 (en) * 2001-02-26 2003-10-16 Toshiba America Mri, Inc. Acoustic gating monitor for magnetic resonance imaging system
US6687527B1 (en) * 2001-08-28 2004-02-03 Koninklijke Philips Electronics, N.V. System and method of user guidance in magnetic resonance imaging including operating curve feedback and multi-dimensional parameter optimization

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MALSCH,U. u.a.: "Quantitative Analyse von Koronar- angiographischen Bildfolgen zur Bestimmung der Myokardenperfusion". In: "Bildverarbeitung für die Medizin 2003 - Algorithmen - Systeme - Anwendun- gen", Springer-Verlag, S.81-85
MALSCH,U. u.a.: "Quantitative Analyse von Koronar-angiographischen Bildfolgen zur Bestimmung der Myokardenperfusion". In: "Bildverarbeitung für dieMedizin 2003 - Algorithmen - Systeme - Anwendun- gen", Springer-Verlag, S.81-85 *
WOLLBERG,G.: "Digital Image Warping". In: IEEE Computer Society Press Monograph, Wiley-IEEE Com- puter Society Pr., 1.Auflage, Juli 1990, ISBN 0818689447, S.187-260 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623622B2 (en) 2006-05-29 2009-11-24 Siemens Aktiengesellschaft X-ray system with an adjustment-acquisition device
US7860288B2 (en) 2006-05-31 2010-12-28 Siemens Aktiengesellschaft X-ray device having a dual energy mode and method to analyze projection images detected in the dual energy mode
DE102009031141B3 (de) * 2009-06-30 2010-12-23 Siemens Aktiengesellschaft Ermittlungsverfahren für ein farbkodiertes Auswertungsbild sowie korrespondierende Gegenstände
US8948475B2 (en) 2009-06-30 2015-02-03 Siemens Aktiengesellschaft Method for computing a color-coded analysis image
US8837807B2 (en) 2010-11-05 2014-09-16 Hseb Dresden Gmbh Inspection method with color correction

Also Published As

Publication number Publication date
US7796796B2 (en) 2010-09-14
US20070031018A1 (en) 2007-02-08
CN1911174B (zh) 2012-05-30
CN1911174A (zh) 2007-02-14
JP2007038008A (ja) 2007-02-15
JP5196748B2 (ja) 2013-05-15

Similar Documents

Publication Publication Date Title
DE102005036564A1 (de) Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände
DE102005039189B4 (de) Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102006025423A1 (de) Röntgenanlage mit dual energy Betrieb und Auswertungsverfahren für im dual energy Betrieb erfasste Projektionsbilder
DE102005004383B4 (de) Verfahren und Vorrichtung zur Steuerung einer bildgebenden Modalität
DE102005018327A1 (de) Betriebsverfahren für einen Rechner, Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände
DE102008040804B4 (de) Verfahren, Operationsmikroskop und Analysesystem zur quantitativen Darstellung des Blutflusses
DE10064768B4 (de) Verfahren zur Untersuchung eines Lebewesens mittels eines bildgebenden Verfahrens
DE102013201136B4 (de) Vorhersage eines voraussichtlichen Kontrastmittelverlaufs
DE19748080A1 (de) Verfahren und Vorrichtung zur Prädiktion einer Kontrastmittelaufnahme bei einem Computer-Tomographie-System
DE102005038561A1 (de) Scansteuerungsverfahren und Röntgen-CT-Vorrichtung
DE10319546A1 (de) Verfahren und Vorrichtung zur automatischen Detektion von Anomalien in Gefäßstrukturen
DE102006024973B4 (de) Röntgenanlage und Betriebsverfahren mit Einstellungserfassungseinrichtung
WO1998020919A1 (de) Vorrichtung zur erzielung von konstanten dichten von kontrastmitteln in geweben und organen
DE102005022544A1 (de) Verfahren und Einrichtung zum Aufnehmen eines digitalen Röntgenbildes
DE102005056105A1 (de) Dosisbewertungssverfahren und Röntgen-CT-Gerät
DE102012209410A1 (de) Ermittlung einer patientenspezifischen Kontrastmittel-Impulsantwortfunktion
DE102009014764A1 (de) Verfahren und Vorrichtung zur Visualisierung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen
DE3833309A1 (de) Bildverarbeitungseinrichtung
DE102006049865A1 (de) Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
DE102009054990A1 (de) Messprotokoll-Optimierung für ein medizintechnisches Gerät
DE102008003945B3 (de) Verfahren zur Erstellung von auf das Blutgefäßsystem eines Patienten bezogenen Bildaufnahmen mittels eines in seiner Position veränderbaren Detektors einer Einrichtung zur digitalen Subtraktionsangiographie
DE102006025422B4 (de) Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE102004018498A1 (de) Betriebsverfahren für eine Röntgenanlage, rechnergestütztes Ermittlungsverfahren für mindestens eine 3D-Rekonstruktion eines Objekts und hiermit korrespondierende Einrichtungen
DE102019220147A1 (de) Computerimplementiertes Verfahren zur Verarbeitung von Röntgenaufnahmen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R011 All appeals rejected, refused or otherwise settled