DE69636176T2 - System zur Unterstützung der ferngesteuerten Chirurgie - Google Patents

System zur Unterstützung der ferngesteuerten Chirurgie Download PDF

Info

Publication number
DE69636176T2
DE69636176T2 DE69636176T DE69636176T DE69636176T2 DE 69636176 T2 DE69636176 T2 DE 69636176T2 DE 69636176 T DE69636176 T DE 69636176T DE 69636176 T DE69636176 T DE 69636176T DE 69636176 T2 DE69636176 T2 DE 69636176T2
Authority
DE
Germany
Prior art keywords
data
surgical
manipulation
manipulator
diseased
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69636176T
Other languages
English (en)
Other versions
DE69636176D1 (de
Inventor
Fujio Niihari-gun Tajima
Masakatsu Ushiku-shi Fujie
Isao Nishiibaraki-gun Nakajima
Hiroshi Matsudo-shi Takeuchi
Norihiko Musashimurayama-shi Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of DE69636176D1 publication Critical patent/DE69636176D1/de
Application granted granted Critical
Publication of DE69636176T2 publication Critical patent/DE69636176T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/77Manipulators with motion or force scaling

Description

  • Die Erfindung betrifft ein System zur Unterstützung ferngesteuerter Chirurgie, insbesondere ein System zur Unterstützung ferngesteuerter Chirurgie, das geeignet ist, chirurgische Operateure bei der chirurgischen Behandlung des Gehirns, des Nervensystems, der Augäpfel oder dergleichen durch ferngesteuerte chirurgische Instrumente oder therapeutische Instrumente mittels eines Manipulators mit einem hohen Freiheitsgrad zu unterstützen.
  • Bislang ist als System zur Durchführung einer Operation an Hirnnerven oder dergleichen, bei der die Daten der Messinstrumente sichtbar rekonstruiert werden, ein Behandlungssystem mit Überwachung auf der Basis von Magnetresonanz bekannt, bei dem die Position eines Katheters automatisch durch eine Positionierungseinrichtung gesteuert wird, wenn ein chirurgischer Operateur die Position und das Einsetzen des Katheters eingibt, während er ein MRI-Bild (Magnet Resonance Imaging) sieht. Ein derartiges System wird zum Beispiel in der JP-A-4-53533 offenbart.
  • Des Weiteren ist als System für gehirnchirurgische Arbeiten ein Manipulator zur Punktion bei der Stereotaxie bekannt, wie er zum Beispiel in der japanischen Offenlegungsschrift Nr. Hei. 3-121064 offenbart wird. Als ein System zur Durchführung eines chirurgischen Eingriffs mittels Fernsteuerung ist ein System mit einem ferngesteuerten chirurgischen Manipulator in einer Doppelrohrsonde bekannt, wie zum Beispiel in der JP-A-4-146097 offenbart.
  • Des Weiteren ist ein Mikrohandhabungssystem bekannt, dessen Konstruktion es ermöglicht, dem Drehen und Verschieben eines Manipulators und eines Tisches Freiheitsgrade zuzuweisen. Ein derarti ges System ist aus einer Sammlung von Veröffentlichungen bekannt, Symposium on Robotics Mechatoronics in 1993, The Japan Society of Mechanical Engineers, Seiten 693-696.
  • Das in der JP-A-4-53533 beschriebene System ist hauptsächlich dafür vorgesehen, eine Behandlung durchzuführen, bei der hauptsächlich ein Katheter verwendet wird, und es ist schwierig, mit diesem System eine Operation durchzuführen, die eine direkte Behandlung der erkrankten Bereiche mit hochentwickelten technischen Fähigkeiten erfordert, wie zum Beispiel die Entfernung eines Tumors, der an einer Blutkapillare oder einem Nerv anhängt.
  • Außerdem ist es schwierig, die Nachgiebigkeit zu erhöhen, um Arbeiten zur Behandlung von weichem Gewebe zu ermöglichen, da ein Ultraschallmotor (piezoelektrisches Element) als Aktuator zum Betrieb in einem statischen Magnetfeld verwendet wird.
  • Das System ist außerdem mehr oder weniger unvollständig im Hinblick darauf, wie die Daten zur Verfügung gestellt werden, da es sich bei der betreffenden Modalität nur um Magnetresonanz handelt, so dass es bei der Durchführung von Kraniotomie schwierig ist, Veränderungen in der Form eines Schädelknochens zu verstehen, die gemessenen Inhalte zeigen nur Formen und es ist keine funktionelle Messung implementiert, und die gemessenen und dargestellten Inhalte zeigen ein zweidimensionales tomographisches Bild, das nicht intuitiv ist.
  • Das in der oben erwähnten JP-A-3-121064 beschriebene System wird für die Stereotaxie eingesetzt und ist lediglich in der Lage, Punktionen durchzuführen. Es gibt jedoch erhebliche Schwierigkeiten mit Gehirnnerven, die ausschließlich durch Punktion nicht gut chirurgisch behandelt werden können, und die eine Mehrzahl von Einrich tungen mit höherem Freiheitsgrad erfordern, um das Gewebe der erkrankten Bereiche zu behandeln. Das oben erwähnte System ist nicht in der Lage, derartige Behandlungen zu ermöglichen. Außerdem ist nichts bezüglich weiterer Teile zur Steuerung des Manipulators zur Punktion offenbart.
  • Das in der oben erwähnten JP-A-4-146097 offenbarte System isoliert den chirurgischen Operateur vollständig von dem Patienten, so dass es Schwierigkeiten haben wird, auf einen Notfall zu reagieren und selbst wenn es dazu in der Lage wäre, könnte es erheblich zu spät sein.
  • Das in der Sammlung von Veröffentlichungen des Symposium on Robotics Mechatoronics, The Japan Society of Mechanical Engineers, 1993, beschriebene System ist derart aufgebaut, dass die Arbeit nicht begonnen werden kann, solange nicht ein Objekt auf dem Tisch platziert ist. Zudem ist dieses System für tatsächliche chirurgische Arbeiten nicht geeignet.
  • Außerdem wird in all den oben beschriebenen Beispielen der Verbesserung der Arbeiten und der Vereinfachung der Steuerung keine Beachtung geschenkt.
  • In den oben beschriebenen bekannten Beispielen werden die Daten ausschließlich um des chirurgischen Operateurs willen bis zum Ende erhalten, unabhängig, ob vor oder während der Operation.
  • Außerdem weisen sie keine chirurgische Simulationsfunktion auf und können nicht von dem Ergebnis profitieren, unabhängig davon, ob es sich bei dem Objekt des chirurgischen Eingriffs um ein tatsächliches "Dummy"-Lebendgewebe oder ein Modell in einem Computer handelt.
  • Die WO 93/13916 beschreibt ein Telemanipulatorsystem mit Telepräsenz, das für chirurgische Verfahren eingesetzt werden kann und das Steuerungen für die rechte und linke Hand aufweist zum Steuern eines Manipulators, jeweils für die rechte und linke Hand, durch die Verwendung einer Servoeinrichtung, die einen Computer einschließt. Videokameras überwachen einen Arbeitsraum aus verschiedenen Winkeln zur Erzeugung eines stereoskopischen Signals als Output an Linien. Anhand des Signaloutputs der Kamera wird ein 3D-Bild erzeugt und in Richtung der Augen des Operateurs reflektiert. Ein virtuelles Bild wird in der Nähe der Steuerarme erzeugt, das von dem in Richtung der Steuerarme blickenden Operateur gesehen wird. Indem das Arbeitsraumbild nahe an den Steuerarmen angeordnet wird, wird dem Operateur ein Gefühl vermittelt, als ob die von den Manipulatorarmen getragenen Endeffektoren und die Steuerarme im Wesentlichen einstückig ausgebildet wären, und das Gefühl, dass er die Endeffektoren direkt per Hand steuert.
  • Verschiedene Konzepte einer Roboter-Arbeitsstation zur computerunterstützten Chirurgie werden von P. Dario, S. Matelli und A.M. Sabatini in dem Artikel 'An experimental set-up for investigating sensorbased tele-operated surgery procedures" beschrieben, der in Proceedings of the twelfth annual international conference of the IEEE Engineering in Medicine and Biology Society, Band 12, 1990, Seite 1942 veröffentlicht wurde.
  • In der Zeitschrift Surgical Enthroscopy 7 (1993) Nr. 3 ist auf den Seiten 203 bis 205 eine Veröffentlichung von R.M. Satawa mit dem Titel "Virtual Reality Surgical Simulator" veröffentlicht worden, die einen Überblick über die Entwicklung von chirurgischen Simulatoren für Virtual Reality als ein Beispiel für die Verwendung der Computersimulation im Rahmen der Chirurgie gibt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Dementsprechend ist es Aufgabe der Erfindung, ein System zur Unterstützung ferngesteuerter Chirurgie bereitzustellen für die Unterstützung von chirurgischen Operateuren bei der chirurgischen Behandlung des Gehirns, des Nervensystems, der Augäpfel oder dergleichen durch ferngesteuerte chirurgische Instrumente oder therapeutische Instrumente mittels eines Manipulators mit hohem Freiheitsgrad, während sie die Daten verschiedener Messinstrumente in visuell rekonstruierter Form sehen.
  • Eine weitere Aufgabe der Erfindung ist es, ein System zur Unterstützung ferngesteuerter Chirurgie des "Master/Slave"-Typs bereitzustellen, das die Durchführung chirurgischer Arbeiten ermöglicht, die einen hohen Freiheitsgrad und eine Mehrzahl an Zusammenarbeit innerhalb des begrenzten Raums am Terminal erfordern.
  • Eine weitere Aufgabe der Erfindung ist es, ein System zur Unterstützung ferngesteuerter Chirurgie bereitzustellen, das den Verlust an Arbeitsfertigkeit des chirurgischen Operateurs kompensiert, der durch Verschlechterung der Sehkraft und der Verschlechterung der Terminal-Auflösung durch Alterung verursacht wird.
  • Es ist eine weitere Aufgabe der Erfindung, ein System zur Unterstützung ferngesteuerter Chirurgie bereitzustellen, das eine Blutinfektion zwischen dem Patienten und dem chirurgischen Operateur verhindert.
  • Es ist eine weitere Aufgabe der Erfindung, ein System zur Unterstützung ferngesteuerter Chirurgie bereitzustellen, das eine chirurgische Behandlung mit weniger Eingriffen verwirklicht, hauptsächlich durch Ausnutzen der Degeneration von Gewebe.
  • Es ist eine weitere Aufgabe der Erfindung, ein System zur Unterstützung ferngesteuerter Chirurgie bereitzustellen, das miteinander im Einklang stehend die Durchführung von chirurgischem Training über die chirurgische Simulation, bei der mit Einwilligung des informierten Patienten die Ergebnisse hiervon verwendet werden können, bis hin zur chirurgischen Operation ermöglicht.
  • Diese Aufgaben werden durch ein System zur Unterstützung ferngesteuerter Chirurgie gelöst, das die Merkmale des Anspruchs 1 aufweist.
  • Das System zur Unterstützung ferngesteuerter Chirurgie der vorliegenden Erfindung zur Unterstützung chirurgischer Eingriffe chirurgischer Operateure, die ein chirurgisches Werkzeug oder therapeutisches Instrument fernsteuern, umfasst eine Einrichtung zur Manipulation von erkranktem Gewebe, die aus den chirurgischen Werkzeugen oder therapeutischen Instrumenten besteht; einer in-vivo-Daten-Messeinrichtung zum Messen von in-vivo-Daten durch periodisches Aufbringen eines oder mehrerer schwankender Magnetfelder, elektromagnetischer Wellen und/oder Ultraschallwellen auf einen erkrankten Bereich und den diesen umgebenden Bereich vor und während der Operation und durch Messen des eingedrungenen Signals oder des Resonanzsignals; eine Messdaten-Verarbeitungseinrichtung zur Erzeugung von Messdatenbildern in 3D-Darstellung aus den mittels der in-vivo-Daten-Messeinrichtung gemessenen in-vivo-Daten; eine Einrichtung zum Erfassen von Daten in der Arbeitsumgebung zur Aufnahme von Bilddaten des erkrankten Bereichs und zur Erfassung eines Annäherungszustands und einer Berührungskraft der Einrichtung zur Manipulation von erkrankten Gewebe auf den er krankten Bereich; eine Einrichtung zur Erzeugung von Realitätssteuerdaten zum Synthetisieren und Verarbeiten der Ausgabe der Einrichtung zur Erfassung von Daten in der Arbeitsumgebung und jene der Messdaten-Verarbeitungseinrichtung, um sie dann jedem operierenden Chirurgen als Realitätssteuerdaten zu präsentieren; Eingabeeinrichtungen zur Eingabe von Aktionsbefehlen zum Eingeben von Aktionen, die von jedem operierenden Chirurgen auf der Grundlage der von der Einrichtung zur Erzeugung von Realitätssteuerdaten jedem operierenden Chirurgen präsentierten Realitätssteuerdaten vorgenommen werden; und eine Einrichtung zum Erzeugen von Manipulationsbefehlen zum Umsetzen des aus der Eingabeeinrichtung zur Eingabe von Aktionsbefehlen ausgegebenen Aktionsbefehls in Manipulationsbefehlsdaten zur Übertragung dieser Daten an die Einrichtung zur Manipulation von erkranktem Gewebe und zur Übertragung einer von der Einrichtung zur Erfassung der Arbeitsumgebungsdaten erfassten Berührungskraft an die Einrichtung zur Manipulation von erkranktem Gewebe.
  • Eine Einrichtung zur Positionierung der chirurgischen Werkzeuge oder der therapeutischen Instrumente des Manipulators zur Behandlung erkrankten Gewebes der vorliegenden Erfindung ist aus einem Material hergestellt und mit einer Antriebslehre konstruiert, die weniger empfindlich sind für das magnetische Feld.
  • Die Realitätssteuerdaten, die von der Realitätssteuerdaten-Erzeugungseinrichtung der vorliegenden Erfindung erzeugt werden, umfassen ferner mindestens eine Datenmenge aus der folgenden Gruppe: ein virtuelles Bild, das dem chirurgischen Operateur präsentiert wird durch Synthetisierung mit den Bilddaten, die von der Arbeitsumgebungsdaten-Erfassungseinrichtung aufgezeichnet werden, und den gemessenen Bilddaten, die von der Messdaten-Verarbeitungseinrichtung erzeugt werden; ein virtuelles Klangfeld, das dem chirurgischen Operateur als Klangdaten präsentiert wird; und virtuelle Kraftreflexionsdaten, die dem chirurgischen Operateur durch Kombination mit der Kontaktkraft in der Manipulationsbefehls-Erzeugungseinrichtung präsentiert werden.
  • Die Manipulationsbefehl-Erzeugungseinrichtung der vorliegenden Erfindung überträgt eine synthetisierte Kraftreflexion, die durch Kombination der durch die Arbeitsumgebungsdaten-Erfassungseinrichtung detektierten Kraftsensordaten und der durch die Realitätssteuerdaten-Erzeugungseinrichtung erzeugten virtuellen Kraftreflexion erhalten wurde, über die Aktionsbefehl-Eingabeeinrichtung an jeden chirurgischen Operateur.
  • Erfindungsgemäß wird ferner die Einrichtung zur Manipulation von erkranktem Gewebe über das chirurgische Instrument oder das therapeutische Instrument an dem erkrankten Teil positioniert, wenn die Einrichtung den Manipulationsbefehl als Eingabe empfängt und erzeugt Deformation, Zerstörung oder Degeneration des erkrankten Gewebes durch Erzeugen oder Übertragen von mindestens einer Energie aus der Gruppe kinetische Energie, Lichtenergie, elektrische Energie und thermische Energie.
  • Das System zur Unterstützung ferngesteuerter Chirurgie der vorliegenden Erfindung umfasst außerdem eine Datenspeichereinrichtung zur Speicherung der durch die Realitätssteuerdaten-Erzeugungseinrichtung erzeugten Realitätssteuerdaten und/oder der durch die Messdaten-Verarbeitungseinrichtung erzeugten Bilddaten zur Bereitstellung einer zusätzlichen Trainingsfunktion für chirurgische Operateure durch Simulation der chirurgischen Arbeiten unter Verwendung der in der Speichereinrichtung gespeicherten Daten oder zur Hinzufügung einer Funktion zur Darstellung der in der Speicherein richtung gespeicherten Daten, um den Krankheitszustand zu erläutern.
  • Außerdem werden gemäß der vorliegenden Erfindung Modelle zur Erzeugung der Realitätssteuerdaten und/oder der gemessenen Bilddaten gespeichert zur Erzeugung einer Trainingsfunktion der chirurgischen Operateure durch Simulation der chirurgischen Arbeiten durch Verwendung dieses Modells oder zur Erzeugung einer Funktion zur Darstellung der in der Speichereinrichtung gespeicherten Daten zur Erläuterung des Krankheitszustandes.
  • Darüber hinaus umfasst eine Vorrichtung zur Unterstützung ferngesteuerter Chirurgie für die Unterstützung von chirurgischen Operateuren, die chirurgische Arbeiten an einem erkrankten Teil durch Betätigung eines mit einem chirurgischen Werkzeug oder einem therapeutischen Instrument ausgestatteten „Slave"-Manipulators durch Manipulation eines "Master"-Manipulators durchführen, die Betätigung eines "Slave"-Manipulators durch einen kombinierten Befehl, der erhalten wird, indem der Output des Aktionsbefehls von den "Master"-Manipulatoren der chirurgischen Operateure mit einem vorbestimmten Wichtungsfaktor multipliziert wird und diese anschließend addiert werden.
  • Wie oben beschrieben, ist die vorliegende Erfindung in der Lage, ein System zur Unterstützung ferngesteuerter Chirurgie zu realisieren zur Unterstützung von chirurgischen Operateuren bei der chirurgischen Behandlung des Gehirns, des Nervensystems, der Augäpfel oder dergleichen durch ferngesteuerte chirurgische Instrumente oder therapeutische Instrumente mittels eines Manipulators mit hohem Freiheitsgrad, während die Daten verschiedener Messinstrumente visuell rekonstruiert werden.
  • Außerdem kann die vorliegende Erfindung ein System zur Unterstützung ferngesteuerter Chirurgie vom "Master/Slave"-Typ verwirklichen, das eine Durchführung chirurgischer Arbeiten erlaubt, die einen hohen Freiheitsgrad und eine Vielzahl an Kooperationen an dem Terminal innerhalb eines begrenzten Raums erfordern.
  • Darüber hinaus ermöglicht die vorliegende Erfindung die Realisierung eines Systems zur Unterstützung ferngesteuerter Chirurgie, das den Verlust an Arbeitsfertigkeit des chirurgischen Operateurs kompensiert, der durch Verschlechterung der Sehkraft und der Verschlechterung der Terminal-Auflösung durch Alterung verursacht wird.
  • Die vorliegende Erfindung ermöglicht auch die Realisierung eines Systems zur Unterstützung ferngesteuerter Chirurgie, das eine Blutinfektion zwischen dem Patienten und dem chirurgischen Operateur verhindert.
  • Die vorliegende Erfindung ermöglicht die Realisierung eines Systems zur Unterstützung ferngesteuerter Chirurgie, das eine chirurgische Behandlung mit weniger Eingriffen verwirklicht, hauptsächlich durch Ausnutzen der Degeneration von Gewebe.
  • Die vorliegende Erfindung ermöglicht die Realisierung eines Systems zur Unterstützung ferngesteuerter Chirurgie, das es den chirurgischen Operateuren ermöglicht, ihre Arbeitsfertigkeiten untereinander zu transferieren.
  • Die vorliegende Erfindung ermöglicht die Realisierung eines Systems zur Unterstützung ferngesteuerter Chirurgie, das miteinander im Einklang stehend die Durchführung von chirurgischem Training über die chirurgische Simulation, bei der mit Einwilligung des informierten Patienten die Ergebnisse hiervon verwendet werden können, bis hin zur chirurgischen Operation ermöglicht.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das ein Ausführungsbeispiel des erfindungsgemäßen Systems zur Unterstützung ferngesteuerter Chirurgie zeigt;
  • 2 ist ein Blockdiagramm, das ein strukturelles Beispiel der Realitätssteuerdaten-Erzeugungseinrichtung zeigt;
  • 3 ist ein Blockdiagramm, das ein strukturelles Beispiel einer Manipulationsbefehl-Erzeugungseinrichtung zeigt;
  • 4 ist ein Blockdiagramm, das ein strukturelles Beispiel einer Arbeitsumgebungsdaten-Erfassungseinrichtung zeigt;
  • 5 ist ein Blockdiagramm, das eine ganze Struktur einer Manipulationseinrichtung zur Behandlung von erkranktem Gewebe zeigt;
  • 6 ist ein schematisches Diagramm, das ein strukturelles Beispiel eines Grobbewegungsteils zeigt;
  • 7 ist ein schematisches Diagramm, das ein Feinbewegungsteil zeigt;
  • 8 ist ein schematisches Diagramm, das ein Feinstbewegungsteil zeigt;
  • 9 ist ein schematisches Diagramm, das ein erstes Gelenk des Feinstbewegungsteils zeigt;
  • 10 ist eine Schnittdarstellung von zwei Teilen des ersten Gelenks;
  • 11 ist eine vergrößerte Darstellung des Bereichs A in 11;
  • 12 ist eine vergrößerte Darstellung des Bereichs B in 10;
  • 13 ist ein schematisches Diagramm, das eine Hauptantriebslehre des ersten Gelenks zeigt;
  • 14 ist ein schematisches Diagramm der 2 aus der Draufsicht von oben;
  • 15 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung visualisierter Daten einer Spannungs- oder Abstandsverteilung zeigt;
  • 16 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Überführung der Bewegung des Manipulators in Farbdaten zeigt;
  • 17 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Umsetzung der Bewegung des Manipulators in graphische Daten zeigt;
  • 18 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung visualisierter Daten einer Temperaturverteilung eines erkrankten Teils zeigt;
  • 19 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung hörbarer Daten der Spannungs- oder Abstandsverteilung zeigt;
  • 20 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Umsetzung der Bewegung des Manipulators in Klangfelddaten zeigt;
  • 21 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung hörbarer Daten der Temperaturverteilung des erkrankten Teils zeigt;
  • 22 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Umsetzung einer Bewegung des Manipulators in ein tatsächliches Geräusch zeigt;
  • 23 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung einer virtuellen Kraftreflexion aus den Abstandswerten zeigt;
  • 24 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Erzeugung einer virtuellen Kraftreflexion aus der Temperaturverteilung zeigt;
  • 25 ist ein Flussdiagramm, das einen Algorithmus zum Betrieb einer Kraftsensordaten-Betriebseinheit zeigt;
  • 26 ist ein Flussdiagramm, das einen Algorithmus zur Umsetzung synthetisierter Kraftreflexion zeigt;
  • 27 ist ein Flussdiagramm, das einen Algorithmus zum Betrieb einer Befehlkonvertierungseinheit zeigt;
  • 28 ist ein Diagramm, das ein Datenformat der Manipulationsbefehldaten zeigt;
  • 29 ist ein Flussdiagramm, das einen Algorithmus zum Betrieb eines virtuellen Schalters zeigt;
  • 30 ist ein Blockdiagramm, das ein strukturelles Beispiel einer Einrichtung zur Eingabe eines Aktionsbefehls zeigt;
  • 31 ist ein Flussdiagramm, das einen Algorithmus zur Verarbeitung von Signalen des Kraftsensors zeigt;
  • 32 ist ein Flussdiagramm, das einen Algorithmus zur Steuerung eines Aktuators zur Steuerung eines Parallaxenwinkels zeigt;
  • 33 ist ein Flussdiagramm, das einen Algorithmus zur Steuerung einer Beleuchtung zeigt;
  • 34 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus zur Ausführung einer Interpretation zeigt;
  • 35 ist ein Flussdiagramm, das ein Beispiel eines Algorithmus einer Magnetkraft-Steuereinrichtung zeigt;
  • 36 ist ein schematisches Diagramm, das ein Beispiel zeigt, in dem ein Display einer Mehrzahl von chirurgischen Operateuren zugeteilt ist;
  • 37 ist ein schematisches Diagramm, das ein Beispiel zeigt, in dem ein Display einem chirurgischen Operateur zugeteilt ist;
  • 38 sind schematische Zeichnungen, die Beispiele eines Griffabschnitts der Aktionsbefehl-Eingabeeinrichtung zeigen;
  • 39 ist ein Flussdiagramm, das einen Betriebsalgorithmus eines Berechnungselements einer manipulierten Kraft durch andere zeigt;
  • 40 ist ein Blockdiagramm, das eine in-vivo-Daten-Messeinrichtung zeigt; und
  • 41 ist ein Blockdiagramm, das eine Messdaten-Verarbeitungseinrichtung zeigt.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
  • Die vorliegende Erfindung wird im Folgenden anhand bevorzugter Ausführungsbeispiele im Detail erläutert. 1 ist ein Blockdiagramm, das eine Ausführungsform eines Systems zur Unterstützung ferngesteuerter Chirurgie gemäß der vorliegenden Erfindung zeigt, das eine Realitätssteuerdaten-Erzeugungseinrichtung 101 zur Ausgabe virtueller Kraftreflexionsdaten 108, ein synthetisiertes verarbeitetes Bild 109 und ein virtuelles Klangfeld, eine Manipulationseinrichtung 102 für erkranktes Gewebe, deren Teil aus einem "Slave"-Manipulator zur Ausgabe von "Slave"-Manipulatorpositionsdaten 115, einer Manipulationsbefehl-Erzeugungseinrichtung 103 zur Ausgabe von Manipulations-Befehlsdaten 111 und zusammengesetzter Kraftreflexion 112, einer Arbeitsumgebungsdaten-Erfassungseinrichtung 104 zur Ausgabe von Kraftsensordaten 105, Näherungssensordaten 106, visuellen Sensordaten 107 und Vergrößerungsverhältnisdaten 116, eine in-vivo-Daten-Messeinrichtung 117 zur Ausgabe eines Eingabesignals zur Messung innerhalb des Organismus und Innenmessdaten des Inneren des Organismus 121 und zum Empfangen eines Ausgabesignals 120, das durch das Innere des Organismus hindurchging oder darin reflektiert wurde, eine Messdaten-Verarbeitungseinrichtung 118 zur Ausgabe visualisierter in-vivo-Daten 122, die in 3D-Format oder dergleichen rekonstruiert sind, und eine Akti onsbefehl-Eingabeeinrichtung 114 zur Ausgabe eines Aktionsbefehls 113 zusammengesetzt ist.
  • Die Arbeitsumgebungsdaten-Erfassungseinrichtung 104 weist Sensorteile an der Spitze und um den "Slave"-Manipulator herum auf, der eine Komponente der Manipulationseinrichtung 102 für erkranktes Gewebe darstellt und die erkrankten Bereiche und die diese umgebenden Bereiche als Erfassungsdaten 124 durch einen optischen Sensor erfasst, sowie einen Kraftsensor und einen Abstandssensor am Ende des erwähnten Manipulators.
  • Die Realitätssteuerdaten-Erzeugungseinrichtung 101 verarbeitet und synthetisiert die durch die Arbeitsumgebungsdaten-Erfassungseinrichtung 104 erfassten Daten, die in 3D rekonstruierten in vivo-Bilddaten, die von der Messdaten-Erfassungseinrichtung 118 ausgegeben werden, und die "Slave"-Manipulatorpositionsdaten 115 zur Erzeugung von Bild, Klang und virtueller Kraftreflexion. Hierdurch wird der Zustand des Patienten chirurgischen Operateuren gezeigt.
  • Die Daten des Kraftsensors und des Abstandsensors werden auch zu der Manipulationsbefehl-Erzeugungseinrichtung 103 übertragen. Die durch den Kraftsensor erfasste tatsächliche Kraftreflexion wird in eine Größenordnung umgewandelt, die durch jeden chirurgischen Operateur erfühlt werden kann. Die durch die Realitätssteuerdaten-Erzeugungseinrichtung 101 erzeugte virtuelle Kraftreflexion wird mit der bereichsumgewandelten tatsächlichen Kraftreflexion und der Manipulationskraft anderer chirurgischer Operateure synthetisiert (kombiniert) und an jeden chirurgischen Operateur über die Aktionsbefehl-Eingabeeinrichtung 114 übertragen.
  • Jeder chirurgische Operateur gibt auf der Basis der durch die Realitätssteuerdaten-Erzeugungseinrichtung 101 gezeigten Daten einen Aktionsbefehl über die Aktionsbefehl-Eingabeeinrichtung 114 an die Manipulationseinrichtung 102 für erkranktes Gewebe ein. Der Aktionsbefehl wird durch die Manipulationsbefehl-Erzeugungseinrichtung 103 in Manipulationsbefehldaten 111 umgesetzt.
  • Die Manipulationseinrichtung 102 für erkranktes Gewebe interpretiert und löst die Manipulationsbefehldaten 111 mit einem Parameter der Vergrößerungsverhältnisdaten 116 aus, um das erkrankte Gewebe zu manipulieren (123).
  • Zur gleichen Zeit gibt die in-vivo-Daten-Messeinrichtung 117 das Messimpulssignal 119 an das erkrankte Teil 125 periodisch ein und empfängt ein Outputsignal (120), das durch das erkrankte Teil hindurchgeht oder von diesem reflektiert wird. Das Signal wird digitalisiert und an die Messdaten-Verarbeitungseinrichtung 118 als Messdaten gesendet.
  • Die Messdaten-Verarbeitungseinrichtung 118 verarbeitet die erhaltenen gemessenen Daten periodisch und rekonstruiert das Ergebnis als 3D-Bilddaten.
  • Struktur und Betrieb jeder Einrichtung werden nun im Detail erläutert. 2 zeigt ein strukturelles Beispiel der Realitätssteuerdaten-Erzeugungseinrichtung 101. Sie umfasst einen Arbeitsumgebungs-Datenprozessor 201, einen Binokularsichtfeldregler 202, ein Display 203 zur Darstellung des verarbeiteten Bildes und eine virtuelle Klangfeld-Reproduktionseinrichtung 210 und gibt die synthetisierten Bilddaten 211, die mit den durch den Arbeitsumgebungs-Datenprozessor 201 erzeugten virtuellen Bilddaten synthetisiert wurden, und die visuellen Sensordaten 107, die ein tatsächliches Bild ergeben, sowie ein Steuersignal 213 des Binokularsichtfeldreglers 202 und das virtuelle Klangfeld 110 nach außen aus durch eine Anzahl chirurgischer Operateure.
  • Der Arbeitsumgebungs-Datenprozessor 201 ist mit einem Sekundärdaten-Speicherabschnitt 214 zur Aufnahme von Daten ausgestattet und ist in der Lage, Zeitseriendaten oder dergleichen von den Daten jedes Sensors der Gruppe optischer, Kraft- und Abstandssensoren aufzunehmen. Wie später beschrieben wird, werden diese Daten in einer Simulation und beim Training der Chirurgie verwendet.
  • 14 ist eine Zeichnung, die die Darstellung der 2 von oben betrachtet zeigt. Die Hände jenseits der Handgelenke eines jeden chirurgischen Operateurs erscheinen, als seien sie Spitzen 1401 des "Slave"-Manipulators.
  • Wenn eine Mehrzahl an chirurgischen Operateuren beschäftigt ist, ist es vorteilhaft, ein Display 203 derart anzuordnen, dass es, wie in 36 gezeigt, aus mehreren Richtungen genutzt werden kann oder eine Anordnung zu treffen, bei der jedes Display 203 jedem chirurgischen Operateur zugeordnet ist, wie in 37 gezeigt.
  • 36 zeigt eine Anordnung für eine relativ geringe Anzahl an chirurgischen Operateuren. In diesem Fall ist jeder eigene "Slave"-Manipulator jedem chirurgischen Operateur zugeordnet und jeder chirurgische Operateur kann das Gefühl haben, als ob sich seine beiden Hände bis in das Display erstreckten und fortsetzten.
  • Außerdem können die chirurgischen Operateure untereinander auf das gleiche Bild verweisen, als ob sie ein optisch vergrößertes Bild des erkrankten Teils sehen würden (als ob eine Linse vorhanden wäre) und können direkt miteinander sprechen.
  • Während bei der Anordnung der 37 jeder chirurgische Operateur das Gefühl hat, als ob sich seine eigenen Hände in das Display erstrecken und fortsetzen, wird der tatsächliche "Slave"-Manipulator durch die Manipulationskraft eines jeden chirurgischen Operateurs gesteuert, die gewichtet und kombiniert wird. Dies wird später beschrieben.
  • Bei der Anordnung der 37 ist es nicht notwendig, den Binokularsichtfeldregler 202 zu tragen, weil das Display jedem chirurgischen Operateur zugewiesen ist, und es ist wünschenswert, ein Verfahren zur Realisierung von Stereoskopie zu verwenden, indem verschiedene Bilder beiden Augen gezeigt werden, beispielsweise unter Verwendung von Lentikularlinsen.
  • Ein Beispiel des Betriebs des Arbeitsumgebungs-Datenprozessors 201 wird nachfolgend unter Bezugnahme auf die 15 bis 24 beschrieben. Ein Prozess zur Erzeugung der virtuellen Bilddaten wird zunächst anhand der 15 bis 18 erläutert.
  • In 15 wird zunächst in den Schritten 1501 und 1502 durch die Kraftsensordaten 105 und die Abstandssensordaten 106 erfasst und bestimmt, ob die Spitze des "Slave"-Manipulators in Kontakt befindlich ist oder nicht. Wenn sich der "Slave"-Manipulator nicht in Kontakt befindet, wird in Schritt 1505 ein Abstand von der Zielposition der Spitze des "Slave"-Manipulators auf Basis der optischen Sensordaten 107 und der Abstandssensordaten 106 berechnet und der Betrag der Distanz wird unter Verwendung einer oder mehrerer Darstellungen aus der Gruppe Art der Farbe (zum Beispiel weitere Entfernung in Rot hin zu näheren Bereichen in Violett), Helligkeit der Farbe (zum Beispiel weitere Entfernung mit höherer Helligkeit hin zu näheren Bereichen mit geringerer Helligkeit) und Sättigung der Farbe (zum Beispiel weitere Entfernung mit höherer Sättigung hin zu näheren Bereichen mit geringerer Sättigung) in Schritt 1506 dargestellt.
  • Dabei ist der Näherungssensor zur Ermittlung der Distanzdaten beispielsweise durch Messung einer Intensität einer reflektierten Ultraschall- oder Lichtwelle und einer entsprechenden Reflexionszeit ausgebildet.
  • Wenn der "Slave"-Manipulator sich in Kontakt befindet, wird in Schritt 1503 eine Spannungsverteilung an dem erkrankten Teil anhand der Daten 107 des visuellen Sensors und der Daten 106 des Näherungssensors abgeschätzt und der Betrag an Spannung in jedem Bild wird in Schritt 1504 durch die Art der Farbe (zum Beispiel höhere Spannung in Rot und geringere Spannung in Violett), und/oder die Helligkeit der Farbe (zum Beispiel höhere Spannung mit höherer Helligkeit und geringere Spannung mit geringerer Helligkeit) und Sättigung der Farbe (zum Beispiel höhere Spannung mit höherer Sättigung hin zu geringerer Spannung mit geringerer Sättigung) dargestellt.
  • Wenn der Prozess in Schritt 1504 oder Schritt 1506 endet, wird in Schritt 1507 ein aus der Farbe oder dergleichen zusammengesetztes virtuelles Bild, das repräsentativ ist in Bezug auf die Entfernung oder die Spannung, durch Überlagerung auf das Originalbild dargestellt. Das heißt, die Stelle, an der der Abstand zwischen dem erkrankten Teil und dem "Slave"-Manipulator kürzer ist oder an der mehr Spannung auftritt, wird lebhafter dargestellt oder mit einer besonderen Farbe koloriert.
  • Das oben erwähnte Bild kann durch Überlagerung auf den in 3D rekonstruierten in-vivo-Daten 122 oder ohne Überlagerung hierauf dargestellt werden. In diesem Fall ist es möglich, verschiedene Darstel lungen aufzubereiten oder diese Darstellungen durch Öffnen mehrerer Fenster auf dem gleichen Display darzustellen.
  • Nebenbei gesagt ist es notwendig anzuzeigen, ob der Darstellungstyp, die Helligkeit und Sättigung der Farbe repräsentativ für die Entfernung oder die Spannung sind, wenn sie in Überlagerung dargestellt werden. Was dies anbetrifft, wird vorzugsweise eine Anordnung verwendet, bei der diese beispielsweise durch eine dargestellte Farbe des Manipulators selbst unterschieden werden können.
  • 16 zeigt einen Fall, bei dem die Bewegung der Spitze des "Slave"-Manipulators entsprechend der Darstellungsart, Helligkeit und Sättigung der Farbe dargestellt wird. Zuerst wird in Schritt 1601 eine Positionsabweichung, eine Geschwindigkeit und eine Beschleunigung des "Slave"-Manipulators anhand der Daten 115 der Spitzenposition des "Slave"-Manipulators, die Bezugswerte und Responsewerte beinhalten, berechnet.
  • Als Nächstes werden in Schritt 1602 die Werte der Positionsabweichung, der Geschwindigkeit und der Beschleunigung durch die Farbart (zum Beispiel höhere Werte in Rot hin zu geringeren Werten in Violett), die Farbhelligkeit (zum Beispiel größere Werte mit höherer Helligkeit hin zu kleineren Werten mit geringerer Helligkeit) und die Sättigung der Farbe (zum Beispiel größere Werte mit höherer Sättigung und kleiner Werte mit geringerer Sättigung) dargestellt. Zu diesem Zeitpunkt ist die Zuordnung zwischen der Positionsabweichung, der Geschwindigkeit und der Beschleunigung und der Art, Helligkeit und Sättigung der Farbe willkürlich und es sind verschiedene Wege vorstellbar.
  • Zuletzt werden in Schritt 1603 die darstellenden Farben um die Spitze des Manipulators in dem Originalbild dargestellt, indem sie auf das Originalbild überlagert werden. Es kann durch Überlagerung auf die in 3D rekonstruierten in-vivo-Daten 122 oder ohne Überlagerung hierauf dargestellt werden.
  • 17 zeigt einen Fall, bei dem ein Bild dargestellt wird, das aus einem Infrarot-Wellenlängenbereich in einen Wellenlängenbereich des sichtbaren Lichts umgewandelt wurde. Zuerst wird eine Infrarotkomponente an jedem Punkt innerhalb des Originalbildes aus den Daten 107 des visuellen Sensors in Schritt 1701 gesammelt. Danach wird in Schritt 1702 nur die Wellenlänge der Infrarotkomponente eines jeden Punktes in den sichtbaren Bereich verschoben, während die Lichtintensität der Komponente belassen wird. Zuletzt wird in Schritt 1703 das Bild durch Überlagerung auf das Originalbild dargestellt. Auf diese Weise wird es durch das oben beschriebene Darstellungsverfahren ermöglicht, den erkrankten Bereich durch Visualisierung einer ursprünglich unsichtbaren Temperaturverteilung im Voraus zu spezifizieren, da die Temperatur erkrankter Bereiche des Gewebes sich oft grundsätzlich von der der umgebenden Bereiche unterscheidet.
  • Es ist auch möglich, die als Bild rekonstruierten in-vivo-Daten, wie sie zum Beispiel durch MRI, Röntgencomputertomographie (Röntgen-CT) und Ultraschallcomputertomographie gegeben sind, zu verwenden.
  • Vorzugsweise kann auch das Bild durch Überlagerung von Pfeilen und Effektlinien angezeigt werden, um die Bewegung des "Slave"-Manipulators innerhalb der Umgebung verständlich zu machen unter Erläuterung der Situation mit leuchtenden Buchstaben onomatopoetischer, d. h. lautnachahmender, Worte und mimetischer Worte.
  • 18 zeigt ein entsprechendes Beispiel. Zunächst wird in Schritt 1801 eine Zeitabweichung eines Positionsvektors der Spitze oder ein Abweichungsvektor zwischen den aufgenommenen Zeiten aus den Daten 115 der Spitzenposition des "Slave"-Manipulators berechnet. Dann werden in Schritt 1802 der Betrag und die Richtung des Vektors durch einen durchsichtigen Pfeil angezeigt und der Pfeil wird in Schritt 1803 ausgehend von der Spitze des Manipulators im Originalbild eingezeichnet.
  • Die durch die in den 15 bis 18 wie oben beschrieben erzeugten oder synthetisierten virtuellen Bilddaten werden dem Operateur (chirurgischen Operateur) als ein stereoskopisches Bild präsentiert, indem die Binokulargesichtsfeld-Steuereinrichtung 202 und das Display 203 zur Anzeige des synthetisierten Bildes synchron betrieben werden.
  • Wenn, wie in 36 gezeigt, ein Display 203 aus verschiedenen Richtungen betrachtet wird, könnten wir entweder eine Darstellungsart vorsehen, bei der die Sicht des linken und des rechten Auges abwechselnd versperrt werden und die Bilder der linken und der rechten Augensicht synchron angezeigt werden oder eine Darstellungsart vorsehen, bei der zwei Bilder mit leichter Parallaxe angezeigt werden durch Unterteilung eines Displays in zwei Displays, die durch spezielle Linsen betrachtet werden.
  • Wenn das Display, wie in 37 gezeigt, jedem chirurgischen Operateur zugewiesen ist, ist es möglich, ein stereoskopisches System zu realisieren, bei dem keine Einrichtung getragen werden muss, wie zum Beispiel das oben beschriebene Lentikularlinsensystem.
  • Die in 3D rekonstruierten in-vivo-Daten 122 können auch auf den oben beschriebenen Bildtyp überlagert werden. In diesem Fall kann das Bild durch Bereitstellung eines weiteren Displays oder durch Öffnen eines weiteren Fensters auf demselben Display angezeigt werden.
  • Wie oben beschrieben, gestatten die in den 15 bis 18 gezeigten Algorithmen, dass im tatsächlichen Bild mehr Realität hinzugefügt wird und auf diese Weise wird die Operationsfähigkeit eines jeden chirurgischen Operateurs erhöht.
  • Außerdem kann eine graduell höhere Entscheidung als in der Vergangenheit getroffen werden, indem zur gleichen Zeit auf das in-vivo-Datenbild und das tatsächliche Bild Bezug genommen wird.
  • Außerdem wird es ermöglicht, die Position des erkrankten Bereichs genau zu erfassen, so dass eine akkurate chirurgische Operation an einem kaum sichtbaren morbiden Gewebe durchgeführt werden kann.
  • Der Prozess zur Erzeugung des virtuellen Klangfeldes 110 durch den Arbeitsumgebungs-Datenprozessor 201 wird nachfolgend unter Bezugnahme auf die 19 bis 22 erläutert. In 19 wird zuerst in den Schritten 1901 und 1902 durch die Kraftsensordaten 105 und die Näherungssensordaten 106 erfasst und bestimmt, ob die Spitze des "Slave"-Manipulators in Kontakt befindlich ist oder nicht.
  • Wenn der "Slave"-Manipulator nicht in Kontakt ist, wird die Entfernung anhand der Daten 107 des visuellen Sensors und der Daten 106 des Näherungssensors in Schritt 1905 berechnet und der Betrag der Distanz wird in Schritt 1906 durch eine oder mehrere Darstellungsarten aus der Gruppe Lautstärke (zum Beispiel weitere Entfernung mit höherer Lautstärke hin zu näherem Bereich mit geringerer Lautstärke), Timbre (die Zeitänderung der Lautstärke) (zum Beispiel weitere Entfernung mit größerer Änderung hin zu näheren Bereichen mit geringerer Änderung), musikalisches Intervall (Klanghöhe) (zum Beispiel weitere Entfernung mit höherem musikalischem Intervall hin zu näheren Bereichen mit geringerem musikalischem Intervall) und Klangfarbe (die Verteilung von Komponenten fundamentaler Wellen und höherer Schwingungen) (zum Beispiel weitere Entfernung mit weniger Komponenten hin zu näheren Bereichen mit mehr Komponenten) dargestellt.
  • Wenn der "Slave"-Manipulator sich mit dem erkrankten Bereich in Kontakt befindet, wird eine Spannungsverteilung an dem erkrankten Bereich in Schritt 1903 auf Basis der Daten 107 des visuellen Sensors und der Daten 106 des Näherungssensors abgeschätzt und die Größe der Spannung an einen zur Spitze des Manipulators nächstgelegenen Punkt des Gewebes wird in Schritt 1904 unter Verwendung einer oder mehrerer Arten aus der Gruppe Lautstärke bzw. Klangvolumen (zum Beispiel höhere Spannung mit höherer Lautstärke hin zu geringerer Spannung mit kleinerer Lautstärke), Timbre (die Zeitänderung der Lautstärke) (zum Beispiel weitere Entfernung mit größerer Änderung hin zu näheren Bereichen mit geringerer Änderung), musikalisches Intervall (Klanghöhe) (zum Beispiel weitere Entfernung mit höherem musikalischem Intervall hin zu näheren Bereichen mit geringerem musikalischem Intervall) und Klangfarbe (die Verteilung von Komponenten erster harmonischer Grundschwingungen) (zum Beispiel weitere Entfernung mit weniger Komponenten hin zu näheren Bereichen mit mehr Komponenten) dargestellt.
  • Wenn der Prozess mit dem Schritt 1904 oder 1906 endet, werden in Schritt 1907 die oben beschriebenen Klangdaten durch die Einrichtung zur Reproduktion des virtuellen Klangfeldes 210 reproduziert. Das heißt, die Lautstärke wird größer, das musikalische Intervall wird höher, das Timbre wird heller oder die Klangart wird metallisch an der Stelle, an der der Abstand zwischen dem erkrankten Bereich und dem "Slave"-Manipulator geringer ist oder wo eine höhere Spannung auftritt. Da es nebenbei bemerkt notwendig ist, in der Lage zu sein, zu unterscheiden, ob das virtuelle Klangfeld die Spannungsverteilung oder die Entfernung repräsentiert, kann dies in einfacher Weise, zum Beispiel durch Änderung des musikalischen Intervalls oder durch Unterbrechung des Klangs, vorgenommen werden.
  • 20 zeigt einen Ablauf für den Fall, dass die Bewegung der Spitze des "Slave"-Manipulators in Übereinstimmung mit der Lautstärke, dem Timbre, dem musikalischen Intervall und der Klangfarbe dargestellt wird. Zunächst wird in Schritt 2001 eine Positionsabweichung, eine Geschwindigkeit und eine Beschleunigung des "Slave"-Manipulators aus den Daten 115 der Spitzenposition des "Slave"-Manipulators, die Referenzwerte und Responswerte enthalten, berechnet.
  • Als Nächstes werden in Schritt 2002 die Werte der Positionsabweichung, der Geschwindigkeit und der Beschleunigung durch die Lautstärke (zum Beispiel höhere Werte mit höherer Lautstärke hin zu geringeren Werten mit geringerer Lautstärke), das Timbre (Zeitänderung der Lautstärke) (zum Beispiel höhere Werte mit größerer Änderung hin zu kleineren Werten mit kleinerer Änderung), das musikalische Intervall (Geräuschhöhe) (zum Beispiel höhere Werte mit höherem musikalischen Intervall hin zu kleineren Werten mit geringerem musikalischen Intervall) und die Klangfarbe (Verteilung der Komponenten der ersten harmonischen Grundschwingung und höheren Schwingungen) (zum Beispiel höhere Werte mit weniger Komponenten hin zu kleineren Werten mit mehr Komponenten) dargestellt. Zu diesem Zeitpunkt ist die Zuordnung zwischen der Positionsabweichung, der Geschwindigkeit und der Beschleunigung und der Lautstärke, dem Timbre, dem musikalischen Intervall und der Klangfarbe willkürlich und es sind verschiedene Wege vorstellbar.
  • Zuletzt wird in Schritt 2003 der repräsentative Klang durch die Einrichtung 210 zur Reproduktion des virtuellen Klangfelds reproduziert.
  • 21 zeigt einen Ablauf, bei dem eine von einem Bild im Infrarotwellenlängenbereich erhaltene Temperaturverteilung in Übereinstimmung mit der Änderung des Klangs gebracht wird. Zuerst wird in Schritt 2101 aus den Daten 107 des visuellen Sensors eine Infrarotkomponente an jedem Punkt innerhalb des Originalbildes gesammelt. Als Nächstes wird in Schritt 2102 eine Lichtintensität an dem dem "Slave"-Manipulator am nächsten liegenden Punkt als eine Temperatur interpretiert und in Übereinstimmung mit irgendeiner Darstellung aus der Gruppe Lautstärke, Timbre, musikalisches Intervall oder Klangfarbe, gebracht. Zuletzt wird diese Lichtintensität in Schritt 2103 durch die Einrichtung 210 zur Reproduktion des virtuellen Klangfelds reproduziert.
  • Auf diese Weise wird es ermöglicht, den erkrankten Bereich von vornherein zu spezifizieren, indem die ursprünglich unsichtbare Temperaturverteilung hörbar gemacht wird, da eine Temperatur des erkrankten Bereichs des Gewebes sich häufig grundsätzlich von der der umgebenden Bereiche unterscheidet.
  • Für die Spezifizierung des erkrankten Bereichs wird es auch als effektiv angesehen, die Helligkeit des Spitzenbereichs des "Slave"-Manipulators aus den als Bild rekonstruierten in-vivo-Daten, wie zum Beispiel durch MRT, Röntgen-CT und Ultraschall-CT gegebene Bilddaten, zu sammeln und diese hörbar zu machen.
  • Vorzugsweise kann auch ein Klangeffekt erzeugt werden, um die Bewegung des "Slave"-Manipulators innerhalb der Umgebung verständlich zu machen und um onomatopoetische Wörter und nachahmende Wörter gleichzeitig zur Erläuterung der Situation zu erzeugen. 22 zeigt ein derartiges Beispiel.
  • In 22 wird in Schritt 2201 eine Zeitabweichung des Positionsvektors der Spitze oder ein Abweichungsvektor zwischen gesammelten Zeiten aus den Positionsdaten 115 der Spitze des "Slave"-Manipulators berechnet. Dann wird in Schritt 2202 die Größe und der Betrag des Vektors dargestellt durch die Lautstärke, das Timbre, das musikalische Intervall, die Klangfarbe und die Bildorientierung des Wellenschnitt-Klangs (wind-cutting sound) dargestellt und in Schritt 2203 durch die Einrichtung 2101 zur Reproduktion des virtuellen Klangfelds reproduziert.
  • Das wie oben beschrieben durch den Arbeitsumgebungs-Datenprozessor 201 erzeugte virtuelle Klangfeld wird dem Operateur durch die Einrichtung zur Wiedergabe des virtuellen Klangfelds 210 präsentiert. Auf diese Weise ermöglicht die Verwendung des Klangfelds, dass weitere Natürlichkeit hinzugefügt wird und jeder chirurgische Operateur leichter operieren kann.
  • Ein Ablauf zur Erzeugung der virtuellen Kraftreflexionsdaten 108 wird im Folgenden unter Bezugnahme auf die 23 und 24 erläutert. Die 23 zeigt ein entsprechendes Beispiel. Zuerst wird in den Schritten 2301 und 2302 von den Daten 105 und 106 des Kraftsensors erfasst und bestimmt, ob die Spitze des "Slave"-Manipulators sich in Kontakt befindet oder nicht. In Schritt 2303 wird keine Aktion durchgeführt, wenn der "Slave"-Manipulator sich nicht in Kontakt befindet. Wenn sich der "Slave"-Manipulator in Kontakt befindet, werden in Schritt 2304 die Distanz r zwischen dem erkrankten Bereich und der Spitzenposition und dessen Differentialwert m-ter Ordnung oder Differenzwert m-ter Ordnung (m = 1, 2, ...) berechnet:
    Figure 00290001
    wobei tn eine n (= 0, 1, 2, ...)-fache Abtastzeit und (·) tn einen Wert einer Variablen in der Zeit tn bezeichnen.
  • Als Nächstes wird in Schritt 2305 die virtuelle Kraftreflexion Fv (r, r(1), r(2) ...), die zwischen der Spitze des Manipulators und dem erkrankten Bereich wirksam ist, berechnet.
  • Dann werden in Schritt 2306 die Daten der virtuellen Kraftreflexion 108 an die Einrichtung zur Erzeugung eines Manipulationsbefehls 103 übertragen. Beispielsweise wird ein Potenzial festgelegt, das eine hohe virtuelle Rückstoßkraft erzeugt, wenn der Abstand zwischen dem erkrankten Bereich und dem "Slave"-Manipulator gering ist.
  • Auf diese Weise wird es ermöglicht, eine Diskontinuität der Kraftreflexion zwischen dem Kontaktzustand und dem Nicht-Kontaktzustand, die der Operateur anderenfalls spüren könnte, zu vermeiden, so dass der Operateur den Manipulator handhaben kann, ohne sich des Übergangs zwischen dem Kontaktzustand und dem Nicht-Kontaktzustand bewusst zu sein, und die Operationsfähigkeit wird erhöht.
  • Ein Ablauf zur Erzeugung einer virtuellen Kraftreflexion, die einer Temperaturverteilung entspricht, wird im Folgenden unter Bezugnahme auf die 24 erläutert.
  • Eine Intensitätsverteilung von Licht des Infrarotbereichs wird in Schritt 2401 von den Daten des visuellen Sensors 107 aufgenommen.
  • Als Nächstes wird in Schritt 2402 unter Berücksichtigung, dass die Intensitätsverteilung gleich der Temperaturverteilung ist, eine virtuelle Kraftreflexion Fv berechnet, die der Lichtintensität an jedem Punkt des Bildes entspricht und deren Tiefenrichtung entgegengesetzt ist. Sie wird dann an die Einrichtung zur Erzeugung eines Manipulationsbefehls 103 übertragen. Auf diese Weise wird eine kontaktlose Abtastung ermöglicht, bei der ein Grad an Temperatur durch eine Größe einer Kraftreflexion gefühlt wird.
  • Ein Verfahren zur Berechnung der virtuellen Kraftreflexion Fv entspricht dem zuvor beschriebenen Verfahren. Es ist jedoch unmöglich zu unterscheiden, welcher Wert angezeigt wird, wenn die erzeugte virtuelle Kraftreflexion und die durch den Ablauf in 23 erhaltene virtuelle Kraftreflexion zur gleichen Zeit erzeugt und ausgegeben werden. Dementsprechend wird vorzugsweise im Voraus festgelegt, beispielsweise durch Schalten der Modi, welcher Wert angezeigt wird.
  • Die Bereitstellung der virtuellen Kraftreflexion der Spitze des Manipulators oder der eine Temperatur des erkrankten Bereichs anzeigenden virtuellen Kraftreflexion für den chirurgischen Operateur ermöglicht es, weitere Realität hinzuzufügen und der chirurgische Operateur kann den Manipulator leichter handhaben.
  • Außerdem kann eine Operation, die als so genannte kontaktlose Abtastung bezeichnet werden kann, durchgeführt werden, indem in-vivo-Daten, die in Bildform rekonstruiert sind, zum Beispiel in Form der Helligkeit an der Spitze des Manipulators mittels der durch MRI, Röntgen-CT und Ultraschall-CT gegebenen Bilddaten, anstelle der Lichtintensität im Infrarot-Wellenlängenbereich und durch Umwandlung dieser Daten in Kraftreflexion durch das oben beschriebene Verfahren herausgenommen werden. Unter dem Aspekt der Spezifizie rung des erkrankten Bereichs und der Schnelligkeit der Operation ist dies sehr effektiv.
  • Wie oben beschrieben, überlagert und verarbeitet der Arbeitsumgebungs-Datenprozessor 201 die Kraftsensordaten 105, die Näherungssensordaten 106, die optischen Sensordaten 107, die Daten der Position der Spitze des "Slave"-Manipulators 115 und die visualisierten in 3D-Form rekonstruierten in-vivo-Daten 122. Auf der Basis dieser Daten wandelt der Arbeitsumgebungs-Datenprozessor 201 die Qualität dieser Daten um oder erzeugt neue Daten.
  • Das heißt, der Arbeitsumgebungs-Datenprozessor 201 wandelt die Qualität um durch Umwandlung einer physikalischen Größe, die ursprünglich nicht durch menschliche sensitive Organe erfasst werden kann, in etwas, was durch den Menschen erfasst werden kann, stellt einen Bereich durch Modifikation einer physikalischen Größe, die außerhalb des Bereichs liegt, der durch menschliche sensitive Organe erfasst werden kann, auf einen Wert innerhalb des Bereichs ein und ersetzt sozusagen die sensitiven Organe durch Umwandlung einer – obgleich durch menschliche sensitive Organe erfassbar – schwierig intuitiv erfassbaren Größe in eine Größe, die leichter erfasst wird, indem sie auf einem anderen Weg erfasst wird. Hierdurch kann die Natürlichkeit der Operation gesteuert werden und die Operationsfähigkeiten eines jeden chirurgischen Operateurs können vergrößert werden.
  • Als Nächstes wird nachfolgend die Einrichtung 103 zur Erzeugung eines Manipulationsbefehls erläutert. 3 ist ein Blockdiagramm, das eine Struktur der Einrichtung 103 zur Erzeugung eines Manipulationsbefehls zeigt, die einen virtuellen Schalter 307 zur Steuerung einer Übertragung eines Aktionsbefehls, eine Kraftsensordatensteuereinrichtung 308 zur Verstärkung der Kraftsensordaten 105, um sie in einen geeigneten Bereich umzuwandeln, und zur Durchführung einer rekursiven Berechnung, die dem Entfernen von Rauschen entspricht, um tatsächliche Kraftreflexionsdaten 309 auszugeben, einen Befehlswandler 310 zum Setzen eines Aktionsmodus/Steuermodus aus den Aktionsbefehldaten 113 und zur Aufnahme sämtlicher Gelenkdaten von der Einrichtung 114 zur Eingabe eines Aktionsbefehls, einen A/D-Wandler 318, einen D/A-Wandler 319, ein Berechnungselement 320 der Manipulationskraft anderer Chirurgen zur Bereitstellung eines Wertes, der durch Addieren und Umwandeln einer gewichteten Größe der Manipulation (zum Beispiel Manipulationskraft) jedes chirurgischen Operateurs außer sich selbst erhalten wurde, an diesen chirurgischen Operateur als Kraftreflexion und einen Kraft/Drehmoment-Wandler 322. Die Pfeile in der Figur zeigen den Fluss der Signale oder der Daten an.
  • Es ist eine Anzahl an Kanälen für die Signale der synthetisierten Kraftreflexion 112 und des Aktionsbefehls 113 vorgesehen, die gleich ist einer Anzahl der Aktionsbefehl-Eingabeeinrichtungen 114 und die Kraftsensordaten 105, 106 und die Daten 108 der virtuellen Kraftreflexion haben eine Anzahl an Kanälen, die gleich ist der Anzahl an "Slave"-Manipulatoren in der Einrichtung 102 zur Manipulation des erkrankten Gewebes und vervielfacht.
  • Der Betrieb der Kraftsensordaten-Betriebseinheit 308, des Berechnungselements 320 der Manipulationskraft der anderen und des Kraft/Drehmoment-Wandlers 322 wird im Folgenden unter Bezugnahme auf die 25 und 26 beschrieben.
  • Wie in 25 dargestellt, wandelt die Kraftsensordaten-Betriebseinheit 308 die Größe der Kraftsensordaten 105 in Schritt 2501 in ein angemessenes Level für menschliche Muskelkraft und führt in Schritt 2502 eine rekursive Berechnung durch, die einem Tiefpassfilter zur Entfernung des Rauschens entspricht.
  • Nachdem in Schritt 2503 jeder Freiheitsgrad gewichtet wurde, wird in Schritt 2504 zur Erzeugung der synthetisierten Kraftreflexionsdaten eine Ausgabe 321 des Berechnungselements 320 der Manipulationskraft der anderen und der Wert der virtuellen Kraftreflexionsdaten 108 hinzugefügt und die erzeugten synthetisierten Kraftreflexionsdaten werden in Schritt 2505 in den Kraft/Drehmoment-Wandler eingegeben.
  • Der Kraft/Drehmoment-Wandler 322 wandelt in Schritt 2601 die synthetisierten Kraftreflexionsdaten in jeden Gelenkdrehmomentwert einer Kraftreflexionserzeugungseinheit der Aktionsbefehl-Eingabeeinrichtung 114 um und gibt, wie in 26 gezeigt, diese durch den D/A-Wandler 319 als analoge Daten aus.
  • Die Ausgabedaten werden an die Aktionsbefehl-Eingabeeinrichtung 114 übertragen und werden zu einem Drehmomentbefehl des Antriebs eines jeden Gelenkaktuators in Schritt 2603.
  • Der oben beschriebene Prozess wird durch eine Anzahl an Aktionsbefehl-Eingabeeinrichtungen 114, d. h. eine Anzahl an Kanälen durchgeführt. Der Betrieb des Berechnungselements 320 der Manipulationskraft der anderen wird später im Detail erläutert.
  • Der Betrieb des Befehlwandlers 310 wird nachfolgend unter Bezugnahme auf die 27 erläutert.
  • In Schritt 2701 liest der Befehlskonverter 310 ein Modusauswahlsignal, das in dem Signal von der Aktionsbefehl-Eingabeeinrichtung 114 enthalten ist. Er setzt in Schritt 2702 einen Aktionsmodus und gibt in Schritt 2703 den Aktionsmodus an die Manipulationseinrichtung 102 für erkranktes Gewebe aus.
  • Dann legt er in Schritt 2704 anhand des Aktionsmodus einen Steuermodus fest und gibt den Steuermodus in Schritt 2705 an die Manipulationseinrichtung 102 für erkranktes Gewebe aus. In Abhängigkeit des Aktionsmodus werden einige Kontrollmodi nicht zugelassen, so dass der Steuermodus in Schritt 2704 durch automatische Auswahl aus anderen als den nicht zulässigen Kontrollmodi gemäß eines entsprechend festgelegten Algorithmus oder durch Eingabe von der Eingabeeinrichtung 114 für Aktionsbefehle festgelegt wird.
  • Nach dem Festlegen des Steuermodus und dessen Ausgabe an die Manipulationseinrichtung 102 für erkranktes Gewebe empfängt sie in Schritt 2706 sämtliche Gelenkwinkeldaten durch den A/D-Wandler 319 und übersetzt diese in Schritt 2707 in ein Arbeitskoordinatensystem.
  • Nach Ausgabe der Referenzwertdaten der Spitzenposition des Manipulators an die Manipulationseinrichtung 102 für erkranktes Gewebe in Schritt 2708 prüft sie den Aktionsmodus in Schritt 2709 und überführt ihn in einen Stopmodus, wenn der Aktionsmodus "Stop" ist, und wenn nicht, kehrt sie in den Schritten 2710 und 2711 zu dem Schritt 2706 zurück.
  • Ein an die Manipulationseinrichtung 102 für erkranktes Gewebe übertragener Datenzug umfasst einen Header 2801, einen Aktionsmodus 2802, ein Steuermodus 2803 und einen Datenzug von Positions- und Orientierungsdaten 2804 bis zu einer willkürlichen Zeit tn. Diese werden sequentiell an die Manipulationseinrichtung 102 für erkranktes Gewebe übertragen.
  • Als Nächstes wird der Betrieb eines virtuellen Schalters 307 unter Bezugnahme auf die 29 erläutert, die einen entsprechenden Arbeitsalgorithmus zeigt. Bezug nehmend auf die Figur wird in Schritt 2901 ein Abstand zwischen der Position der Spitze des Manipulators und dem erkrankten Bereich erfasst und in Schritt 2902 kontrolliert, ob er kleiner ist als ein bestimmter Wert. Wenn er nicht kleiner ist als ein bestimmter Wert, kehrt der Prozess zu Schritt 2901 zurück.
  • Wenn er kleiner ist als ein bestimmter Wert, werden die Position und die Geschwindigkeit der Spitze des Manipulators in der Nachbarschaft des erkrankten Bereichs durch den Näherungssensor in Schritt 2903 erfasst.
  • Als Nächstes wird der Betrag des Geschwindigkeitsvektors und der Betrag jeder seiner Komponenten, der Betrag der virtuellen Kraftreflexion und der Betrag jeder ihrer Komponenten und der Betrag eines Geschwindigkeitsbefehlvektors und der Betrag jeder seiner Komponenten, wenn der Steuermodus Geschwindigkeit-Servo ist, kontrolliert, und wenn sie alle geringer als ein bestimmter Wert sind, kehrt der Prozess zu Schritt 2901 zurück, und wenn eine der Bedingungen nicht erfüllt ist, wird der Steuermodus auf Positionskontrolle geschaltet und die gegenwärtige Position wird in den Schritten 2904 bis 2910 als ein Befehlswert gesetzt.
  • Der oben beschriebene Prozess wird für alle Kanäle durchgeführt. Auf diese Weise wird der Befehlswert nicht geändert, wenn eine Abnormalität auftritt. Daher wird die Sicherheit der Arbeiten erhöht.
  • Die Aktionsbefehl-Eingabeeinrichtung 114 wird nachfolgend unter Bezugnahme auf die 30 erläutert. Selbst wenn eine Mehrzahl an Aktionsbefehl-Eingabeeinrichtungen 114 verwendet wird, ist die Struktur dieser Einrichtungen die gleiche. Sie umfasst einen Magne ten 3001 zum Koppeln des Griffs und der Kraftreflexionserzeugungseinheit, ein Steuersignal 3002 eines Solenoids zur Einschränkung der Bewegungsfreiheit des Griffs und ein Steuersignal 3003 eines Stroms eines Elektromagneten zur Kopplung, ein den Griff einschränkendes Solenoid 3004, einen umschaltbaren Schalter 3006 für den Aktionsmodus, einen Griff 3007, einen kugelförmigen Koppler 3008, kugelförmige Gelenke 3009 und direkt wirkende zylindrische elektrostatische Aktuatoren 3010.
  • Die pro Aktuator zerlegte synthetisierte Kraftreflexion 112, die von der Manipulationsbefehl-Erzeugungseinrichtung 103 ausgegeben wird, wird jedem Aktuator als Steuereingabe 3011 zugeführt.
  • Jeder Aktuator 3010 wird hierdurch angetrieben und erzeugt eine erforderliche Kraftreflexion als Ganzes. Die Verschiebung jedes Aktuators 3010 wird durch einen nicht gezeigten Verschiebungssensor erfasst und wird als Output 3012 des Verschiebungssensors ausgegeben.
  • Jeder chirurgische Operateur hält den Griff 3007 und bewegt ihn, während er die Kraftreflexion spürt, zur Eingabe von Aktionsdaten. Der Modus wird durch Betätigen des Schalters 3006 zum Schalten des Aktionsmodus auf dem Griff zur Ausgabe eines Signals 3005 zur Festlegung eines Aktionsmodus geschaltet. Zu diesem Zeitpunkt wird die kugelförmige Kopplung 3008 zwischen dem Griff 3007 und der Kraftreflexionserzeugungseinheit durch magnetische Kraft des Elektromagneten gekoppelt.
  • Der Koppler 3008 ist derart aufgebaut, dass er durch das Steuersignal 3002 des Solenoids zur Begrenzung des Griffs und durch das Steuersignal 3003 für den Strom des Elektromagneten zur Kopplung von der Magnetkraft-Steuereinrichtung 3001 in Übereinstimmung mit dem Aktionsmodus und der Größe der Eingabe gesteuert werden kann und derart, dass er in der Lage ist, eine Einschränkung in Bezug auf den Freiheitsgrad zu ändern.
  • 35 ist ein Flussdiagramm, das den Betrieb der Magnetkraft-Steuereinrichtung 3001 zeigt. Bezug nehmend auf die Figur liest die Magnetkraft-Steuereinrichtung 3001 in Schritt 3501 den Aktionsmodus und, wenn ein Aktionsmodus vorliegt, der ein Modus ist, der in Schritt 3502 nur die Position vorgibt, löst sie in Schritt 3503 nur die magnetische Kraft des Elektromagneten aus.
  • Da der Koppler 3008, wie in 30 gezeigt, kugelförmig ausgebildet ist, ist er frei in Bezug auf seine Orientierung. Mit anderen Worten, nur drei Freiheitsgrade bezüglich der Position können durch Betätigung des Griffs 3007 eingegeben werden.
  • Andererseits kann eine Veränderung der Orientierung durch Klemmen des Unterteils des Griffes durch die Solenoide 3004 eingegeben werden, wenn alle sechs Freiheitsgrade der Position und Orientierung eingegeben werden sollen, wie in Schritt 3504 in 35 gezeigt.
  • Wenn eine überschüssige Kraft oder ein Moment in dem Zustand aufgebracht wird, in dem die aus dem Koppler 3008 und den Solenoiden 3004 bestehende Verbindung fixiert ist, lässt der Zwang nach. Hierdurch ist es möglich zu verhindern, dass eine Instruktion mit übermäßiger Kraft eingegeben wird, wodurch die Sicherheit der Betätigung erhöht wird. Der direkt wirkende zylindrische elektrostatische Aktuator 3010 wird später erläutert.
  • Auf diese Weise wird kein Befehlswert an die Betätigungseinrichtung zur Manipulation von erkranktem Gewebe übertragen, wenn eine Abnormität auftritt, wodurch die Sicherheit der Arbeiten erhöht wird.
  • Es wird darauf hingewiesen, dass der Griff 3007 so wie in 38 gezeigt ausgebildet sein kann neben dem in 37 gezeigten Griff des Stifttyps. 38a zeigt einen Griff des Pinzettentyps, 38b einen Griff des Ligatortyps und 38c einen Griff des Klemmtyps. Der Operateur kann einen beliebigen dieser Griffe betätigen, während er die durch den Aktuator 38001 zur Erzeugung einer Griffkraftreflexion erzeugten Kraftreflexion spürt.
  • In den 38b und 38c drehen sich eine Seite oder beide Seiten des Teils des Griffs zum Einhaken der Finger entlang einer Rotationsachse 3802. Der Operateur kann den Griff 3007 zu dieser Zeit durch Lösen der Klemmung und der durch die Solenoide 3004 erzeugten magnetischen Kraft austauschen. Das heißt, der Operateur kann den Griff entsprechend den Gebrauchsumständen zur Eingabe von Aktionsbefehlen anbringen oder entfernen.
  • Wenn eine Leitung in dem Gelenk erfasst wird, wenn der Operateur den Griff 3007 austauscht, wird ein der Griffform entsprechendes Anfangssignal an die Betätigungseinrichtung 102 zur Manipulation von erkranktem Gewebe über die Manipulationsbefehl-Erzeugungseinrichtung 103 übertragen und ein Manipulator, der ein entsprechendes Werkzeug trägt, wird als Effektor festgelegt. Dementsprechend ist es nur notwendig, verschiedene Typen von Werkzeugen für dieses Teil bereitzuhalten und es ist nicht notwendig, die Aktionsbefehl-Eingabeeinrichtung im Voraus mit einer Anzahl an Werkzeugen zu präparieren.
  • Hierdurch wird der Operateur nicht verwirrt in Bezug darauf, welches Werkzeug durch Verwendung welcher Eingabeeinrichtung verwendet werden kann. Darüber hinaus kann der der Hand zur Verfügung ste hende Raum weit offen sein, da eine Eingabeeinrichtung für eine Hand ausreicht.
  • Das Berechnungselement 320 für die Manipulationskraft der anderen wird nachfolgend unter Bezugnahme auf 39 erläutert. Es wird ein Fall angenommen, bei dem eine Mehrzahl von Aktionsbefehl-Eingabeeinrichtungen 114 einem "Slave"-Manipulator zugewiesen ist. Wenn diese Anzahl n beträgt, werden die Gewichtungen W1 bis Wn zuerst in Schritt 3901 an jeder Aktionsbefehl-Eingabeeinrichtung festgelegt: W1 + W2 +... Wn = 1; Wk > = 0 (k = 1 bis n).
  • Unter der Annahme eines Falles, bei dem die Kraftrückkopplung (Feedback) implementiert wird, wird außerdem der Gewichtungsanteil in Bezug auf die Kraftreflexion von einem Arbeitsobjekt festgelegt. Dies wird als Wr1 bis Wrn betrachtet und in ähnlicher Weise zu dem Obigen wie folgt festgelegt: Wr1 + Wr2 + ... Wrn = 1; Wrk > = (k = 1 bis n).
  • Die Größe von Wk zeigt an, welche Aktionsbefehl-Eingabeeinrichtung vorherrschend ist.
  • Als Nächstes werden in Schritt 3902 die von jeder Aktionsbefehl-Eingabeeinrichtung eingegebenen Aktionsbefehldaten 113 in Kraft umgewandelt. Während es nicht notwendig ist, diese umzuwandeln, wenn der Modus zu dieser Zeit ein Kraftbefehlmodus ist, wird ein Wert, der durch Eingabe eines Fehlers zwischen einem Befehl und einer Antwort auf eine adäquate Transferfunktion erhalten wird, als Spitzenantriebskraft-Befehlswert verwendet, wenn der Befehlswert Position, Geschwindigkeit oder dergleichen ist. Diese Werte sind Vek torengrößen, die einen Betrag und eine Richtung haben, und werden als f1 bis fn gesetzt. Zu diesem Zeitpunkt wird in Schritt 3909 innerhalb der an die k-te (k = 1 bis n) Aktionsbefehl-Eingabeeinrichtung gegebenen Kraftreflexion eine berechnet, die durch die Betätigungskraft der anderen erzeugt wird. Wenn diese als Frefk gesetzt wird, kann Frefk wie folgt beschrieben werden: Frefk = W1f1 + W2f2 + ... + Wk-1fk-1 + Wk+1fk+1 + ... + Wnfn
  • Wenn Kraftrückführung implementiert wird, wird in Schritt 3904 die an die k-te (k = 1 bis n) Aktionsbefehl-Eingabeeinrichtung gegebene Kraftreflexion Fextk = Wrk·Fext berechnet. Hierbei steht Fext für die Kraftsensordaten 105 und ist eine Vektorgröße.
  • Es ist normalerweise anzunehmen, dass es natürlich ist, bei dem oben beschriebenen Ablauf Wk = Wrk (k = 1 ... n) zu setzen. Das heißt, es handelt sich um ein Verfahren der Rückführung eines hohen Anteils an Kraftreflexion an stärker vorherrschende Eingabeeinrichtungen. Jedoch ist es nicht immer notwendig, dass grundsätzlich Wk = Wrk ist und eine Anisotropie kann in Bezug auf die Richtung gegeben sein. Das heißt, Wk und Wrk können durch eine Matrix beschrieben werden. In diesem Fall folgt: W1 + W2 + ... Wn = I; Wk tWk > = 0,wobei der hochgestellte Buchstabe t eine Umformung der Matrix und I eine Einheitsmatrix bezeichnen. Das gleiche gilt auch für Wrk. Zuletzt werden Frefk und Fextk hinzugefügt und in Schritt 3905 ausgegeben. Der Wert wird mit den virtuellen Kraftreflexionsdaten 108 synthetisiert, d. h. kombiniert.
  • Der oben beschriebene Algorithmus erlaubt den von verschiedenen Eingabeeinrichtungen Aktionsbefehle eingebenden Operateuren Arbeiten durchzuführen, während sie die von anderen erzeugte Kraft und die Kraftreflexion von dem Objekt spüren.
  • Auf diese Weise wird es ermöglicht zu lehren, wie beispielsweise eine Chirurgie "körperlich" gehandhabt wird, und darüber hinaus ist es möglich, chirurgische Techniken durch Kombination mit chirurgischen Simulationen zu übertragen.
  • Die Erfassungseinrichtung 104 für Arbeitsumgebungsdaten wird nachfolgend unter Bezugnahme auf 4 beschrieben.
  • Die Erfassungseinrichtung 104 für Arbeitsumgebungsdaten umfasst optische Sensoren 402, eine Montageeinheit 403 für optische Sensoren, eine passive Drehverbindung 404 zur Verbindung der beiden, einen linearen Aktuator 405 zur Einstellung des Parallaxenwinkels, eine Beleuchtung 410 zur Beleuchtung des erkrankten Bereichs, einen Kraftsensor und einen Vorverarbeitungsschaltkreis 412 für das Kraftsensorsignal, einen Näherungssensor und einen Vorverarbeitungsschaltkreis 413 für den Näherungssensor, der an dem Spitzenabschnitt des "Slave"-Manipulators angebracht ist. Sie umfasst außerdem eine Betriebssteuereinrichtung 401 zur Aufnahme eines Bildsignals für das rechte Auge 406 und eines Bildsignals für das linke Auge 407 zur Erzeugung und Ausgabe der Daten 107 des optischen Sensors, zur Erzeugung und Ausgabe von Steuersignalen 408 und 409 des linearen Aktuators 405 und der Beleuchtung 410, zur Aufnahme eines Kraftsensorsignals 414 und eines Näherungssensorsignals 416 zur Steuerung der Sensoren durch ein Steuersignal 415 des Vorverarbeitungsschaltkreises des Kraftsensorsignals und ein Steuersignal 417 des Vorverarbeitungsschaltkreises des Näherungssen sorsignals und zur Ausgabe der Kraftsensordaten 105 und der Näherungssensordaten 106.
  • Die optischen Sensoren 402 nehmen ein Bild des erkrankten Bereichs auf und geben die Bildsignale für das rechte und das linke Auge 406 und 407 aus. Die optischen Sensoren 402 sind mit der Montageeinheit 403 über die passive Drehverbindung 404 verbunden.
  • Die Bildsignale 406 und 407 werden digitalisiert und in der Betriebssteuereinrichtung 401 in die Daten 107 des optischen Sensors verwandelt. Das Kraftsensorsignal 414 und das Näherungssensorsignal 416 werden ebenfalls in digitale Werte umgewandelt, um sich zu den Kraftsensordaten 105 und den Näherungssensordaten 106 zu wandeln. Hierbei steuert die Betriebssteuereinrichtung 401 jedes Teil durch einen Algorithmus, wie unten gezeigt.
  • Wenn, wie in 32 gezeigt ist, die Arbeitsumgebungs-Erfassungseinrichtung 104 in Schritt 3201 zunächst eine Größe einer Bewegung eines Grobbewegungsteils 503 (siehe 5, die später beschrieben wird) der Betätigungseinrichtung 102 zur Manipulation von erkranktem Gewebe in der Tiefenrichtung des erkrankten Bereichs erfasst, sendet sie das Steuersignal 408 an den linearen Aktuator 405, so dass der Parallaxenwinkel des rechten und des linken optischen Sensors in Schritt 3202 gleich einem Wert an der Referenzposition wird. Dann wird der Parallaxenwinkel konstant gehalten, während der lineare Aktuator 405 aus- bzw. zusammengefahren wird, und der rechte und der linke optische Sensor 402 rotieren unter Zentrierung an der passiven Rotationsverbindung 404 fein und gleichmäßig.
  • Die Arbeitsumgebungs-Erfassungseinrichtung 104 steuert auch die Helligkeit der Beleuchtung 410 durch Erfassung eines Abstands zwi schen dem optischen Sensor und dem erkrankten Bereich in Schritt 3301 in 33, um in Schritt 3302 zu ermitteln: a = (Abstand zu dem erkrankten Bereich)/(Standardabstand).
  • Dann ermittelt sie in Schritt 3303: b = (gegenwärtige Vergrößerung)/(Standardvergrößerung).
  • Zuletzt stellt sie in Schritt 3304 die Lichtmenge auf einen Wert proportional zu a2 × b2 ein. Der in den 32 und 33 oben beschriebene Prozess gestattet es, den Parallaxenwinkel und die Helligkeit des erkrankten Bereichs adaptiv einzustellen, entsprechend dem Abstand zwischen dem erkrankten Bereich und dem optischen Sensor und der Vergrößerung, wenn sie sich verändern.
  • Der Kraftsensor und sein entsprechender Vorverarbeitungsschaltkreis 412 und der Näherungssensor und sein entsprechender Vorverarbeitungsschaltkreis 413 sind im Bereich der Spitze 411 des "Slave"-Manipulators montiert. Näherungssensoren und die Sensoren für die geringe Kraft und die entsprechenden Signalverarbeitungsschaltkreise können durch Mikro-Materialbearbeitungstechnologie hergestellt werden. Während der Kraftsensor das Kraftsensorsignal 414 und der Näherungssensor das Näherungssensorsignal 416 ausgeben, sendet die Betriebssteuereinrichtung 401 die Steuersignale 415 und 417 an jeden Verarbeitungsschaltkreis entsprechend einem Signallevel zur Änderung des Verstärkungsfaktors zu diesem Zeitpunkt. Ein digitales Signal von mehren Bits, das eine höhere Spannung im Vergleich zu einem Rauschlevel aufweist, von dem angenommen wird, dass es auftreten wird, wird für das Steuersignal verwendet, und es wird ein Steuerprozess durchgeführt, wie er in 31 gezeigt wird.
  • Ein Verstärkeroutput innerhalb des oben erwähnten Verarbeitungsschaltkreises wird abgetastet und in Schritt 3101 bei 0-ter Ordnung gehalten und in Schritt 3102 von analog nach digital umgewandelt. Dann wird in Schritt 3103 c = (Standardwert des Sensorsignals)/(Wert des Sensorsignals)ermittelt.
  • Als Nächstes weist die Betriebssteuereinrichtung 401 den Vorverarbeitungsschaltkreis in Schritt 3104 an, den Vergrößerungsfaktor mit c zu multiplizieren. Die Verarbeitungszeit zwischen den Schritten 3101 und 3103 ist sehr kurz, und es wird angenommen, dass der Wert des Signals sich während dieser Zeit nicht verändert.
  • Der oben erwähnte Verstärkeroutput wird in Schritt 3105 wieder abgetastet und bei 0-ter Ordnung gehalten und in Schritt 3106 von analog nach digital umgewandelt. Dann wird der digitalisierte Wert in Schritt 3107 durch eine reale Zahl ausgedrückt und durch c dividiert. Das heißt, wenn die Signalhöhe gering ist, wird der Verstärkungsfaktor des Vorverarbeitungsschaltkreises erhöht, um zu verhindern, dass das Signal durch das Rauschen überdeckt wird, welches eingemischt wird, bis es in die Betriebssteuereinrichtung 401 eingegeben wird, und wenn die Signalhöhe groß ist, wird der Verstärkungsfaktor zur Verhinderung der Sättigung des Signals verringert. Auf diese Weise wird es möglich, den Einfluss des Rauschens von der Umgebung und dem Aktuator zu verringern und den Effekt der Quantisierung aufgrund des digitalen Samplings zu verringern.
  • Die Betätigungseinrichtung 102 zur Manipulation von erkranktem Gewebe wird nun erläutert.
  • Wie in 5 gezeigt, umfasst sie eine Manipulationsbefehl-Interpretations- und Steuereinrichtung 502, das Teil 503 für grobe Bewegung, das Teil 504 für feine Bewegung und das Teil 508 für sehr feine Bewegung als Ganzes.
  • Jedes Teil wird unter ausschließlicher Verwendung eines Materials hergestellt, das im Vergleich zu sonstigem häufig verwendetem Aufbaumaterial keine Kräfte von dem magnetischen Feld empfängt, wie Polymermaterialien, zum Beispiel Kunststoff.
  • Hierdurch kann das erkrankte Gewebe manipuliert werden, ohne dabei von dem magnetischen Feld beeinflusst zu werden, selbst wenn MRI als eines der Strukturelemente der später beschriebenen in-vivo-Daten-Messeinrichtung 117 verwendet wird. Oder, umgekehrt, da die durch die MRI erzeugten in-vivo-Daten während der Operation, d. h., während das erkrankte Gewebe manipuliert wird, erzeugt werden, wird es möglich, jegliche Verformung in dem den erkrankten Bereich umgebenden Gewebe in Realzeit zu verfolgen und Operationen durchzuführen, während Funktionen zusätzlich zu der Form gemessen werden, beispielsweise insbesondere bei der Kraniotomie.
  • Das Teil 508 für die sehr feine Bewegung weist eine Mehrzahl von Manipulatoren auf und verschiedene Behandlungseffektoren können an seiner Spitze befestigt werden.
  • Es wird im Voraus durch das Signal von der Manipulationsbefehl-Erzeugungseinrichtung 103 festgelegt, welcher Manipulator bei gewissen Umständen aktiviert werden sollte. Der Manipulationsbefehl 111 umfasst einen Befehl, dessen Abstraktionsgrad hoch ist, wie zum Beispiel "greifen", einen Steuermodus und einen Zug von Zeitserien-Bewegungsbefehldaten der Spitze eines Manipulators.
  • Bei Empfang des Datenzugs interpretiert die Interpretations- und Steuereinrichtung 502 für Manipulationsbefehle diese und erzeugt Bewegungsbefehle eines jeden Gelenks des Teils 505 zur Feinbewegung und des Manipulators (eine Mehrzahl an Manipulatoren, falls notwendig) des Teils 508 für die Feinstbewegung und macht eine Servolevel-Primitivsteuerung zu gleicher Zeit aus dem Greifbefehl, dem Steuermodus und dem Bewegungsbefehlswert eines Manipulators.
  • Die Steuereingabe 506 für jedes Gelenk des Teils 505 für die Feinbewegung und die Steuereingabe 509 für jedes Gelenk des Teils 508 für die Feinstbewegung und der Endeffektor werden unter Verwendung des oben erwähnten Manipulationsbefehls, der Verschiebungssensordaten an jedem Teil 504, 507 und 510 und der Kraftsensordaten 105 bestimmt.
  • 34 zeigt einen Arbeitsablauf der Manipulationsbefehl-Interpretations- und Steuereinrichtung 502.
  • Zuerst liest sie den Steuermodus und den Aktionsmodus aus Daten, die von der Manipulationsbefehl-Erzeugungseinrichtung in den Schritten 3401 und 3402 in der in 28 gezeigten Sequenz übertragen werden, und interpretiert in Schritt 3403 den Zug von Position und Orientierungsdaten auf der Basis des Steuermodus.
  • Der Steuermodus spezifiziert ein Steuerschema, wie zum Beispiel Positionssteuerung/Geschwindigkeitssteuerung/Impedanzsteuerung, eine angewiesene Anzahl an Freiheitsgraden und die Existenz von Anisotropie in Bezug auf den Freiheitsgrad.
  • Unter der Annahme, dass die oben erwähnten Befehle und Spezifizierungen Spitzenpositions- und Orientierungsbefehlwerte eines einzelnen spezifischen Manipulators sind, wandelt sie diese in Befehlswerte für jeden Gelenkwinkel der Teile 505 und 508 um. Dabei wird eine Größe einer Verschiebung eines direkt wirkenden Gelenks auch als Winkel mit einbezogen.
  • Als Nächstes führt die Steuereinrichtung 502 in Schritt 3405 eine Gelenk-Servosteuerung des spezifischen Manipulators auf der Basis des Befehlswerts aus. Der Prozess verzweigt sich hier in Schritt 3402 gemäß dem Aktionsmodus, und wenn der Modus BEWEGE ist, ist der Prozess beendet.
  • Wenn der Aktionsmodus GREIFE ist, wird in Schritt 3407 ein virtuelles Anziehungskraftpotenzial, das zwischen den Spitzen des spezifischen Manipulators (der Manipulator, der durch den Zug von Positions- und Orientierungsdaten manipuliert wird) und dem anderen Manipulator wirkt, gesetzt und ein abgeglichener Punkt des Potenzials (ein Punkt, an dem die Anziehungskraft Null wird) wird in Schritt 3408 innerhalb eines von der Spitze eines jeden Manipulators erzeugten Raums gesetzt.
  • Der andere Manipulator zerlegt die virtuell auf die Spitze wirkende Kraft zu einem Drehmoment eines jeden Gelenks zur Steuerung der Drehkraft in Schritt 3409.
  • Wenn der Aktionsmodus FREIGABE ist, ist die Aktion nahezu die gleiche wie bei GREIFE, mit der Ausnahme, dass der abgeglichene Punkt des Potenzials in Schritt 3410 außerhalb des oben erwähnten Raums gesetzt wird.
  • Obgleich in den vorstehenden Ausführungen nur drei Aktionsmodi beispielhaft beschrieben wurden, ist es in der Realität notwendig, einige zusätzliche Typen von grundsätzlichen Aktionsmodi bereitzustellen. Dann wird ein Modus, bei dem ein "Master"-Manipulator und ein "Slave"-Manipulator sich in einem 1:1-Verhältnis in Bezug auf die Steuerung von Position/Kraft entsprechen, was herkömmlicherweise praktiziert wird, und ein Modus, bei dem eine Mehrzahl von "Master"-Manipulatoren einem "Slave"-Manipulator entsprechen, bereitgestellt und entsprechend der Umstände geschaltet.
  • Das Teil 503 zur Grobbewegung wird nun unter Bezugnahme auf die 6 erläutert. Das Teil 503 für die Grobbewegung umfasst einen Sockel 601, eine erste Verbindung 602, ein erstes Gelenk 603, eine zweite Verbindung 604, ein zweites Gelenk 605, eine dritte Verbindung 606 und ein drittes Gelenk 607 und ein Teil 608 zur Feinbewegung ist an dem dritten Gelenk 607 angeordnet.
  • Der Sockel 601 ist mit der ersten Verbindung 602 mit einer linearen Bewegungsschiene und einem Mechanismus der ersten Verbindung gekoppelt und kann dementsprechend horizontal entlang der Querrichtung des Sockels 601 bewegt werden. Ein Freiheitsgrad dieses Teils wird manuell gesetzt, und eine mechanische Verriegelung ist vorgesehen, so dass es in jeder Lage gesichert werden kann.
  • Durch Konstruktion des Mechanismus der ersten Verbindung und dementsprechend, dass es manuell bewegt werden kann, wird es möglich, schnell auf einen Notfall zu reagieren, wie zum Beispiel Leistungsausfall, so dass die Sicherheit erhöht wird.
  • Obgleich die Form des ersten Gelenks 602 halbkreisförmig ist, ist es nicht immer notwendig, dass sie halbkreisförmig ausgebildet ist, so lange es nicht zur Beeinträchtigung mit dem Mechanismus der zweiten Verbindung und nachfolgend kommt.
  • Die zweite Verbindung 604 ist mit der ersten Verbindung 602 über das erste Gelenk 603 gekoppelt und rotiert axial um die Mittellinie des ersten Gelenks 603 auf beiden Seiten. Das erste Gelenk ist ebenso aufgebaut, dass es manuell gedreht und verriegelt werden kann, aus dem gleichen Grund wie im Falle der manuellen Linearbewegungsschiene. Die Form des zweiten Gelenks 604 ist halbkreisförmig.
  • Das dritte Gelenk 606 ist mit dem zweiten Gelenk 604 über die zweite Verbindung 605 gekoppelt und rotiert axial um die Mittellinie des zweiten Gelenks 605. Das dritte Gelenk 606 ist auch so konstruiert, dass es zur Erhöhung der Sicherheit manuell gedreht und mechanisch verriegelt werden kann. Die Form des dritten Gelenks 606 ist auch halbkreisförmig.
  • Das Teil 608 zur Feinbewegung ist mit der dritten Verbindung 606 über das dritte Gelenk 607 gekoppelt. Das dritte Gelenk 607 bewegt sich direkt in der Normalenrichtung des dritten Gelenks 606.
  • Die Verschiebungssensordaten 504 eines jeden Gelenks werden an die Manipulationsbefehl-Interpretations- und Steuereinrichtung 502 gesendet, die unter Bezugnahme auf die 5 beschrieben worden ist.
  • Durch die oben beschriebene Konstruktion kann dieses Teilsystem zur Grobbewegung den Mechanismus und die Struktur des Freiheitsgrades von einem Freiheitsgrad der parallelen Bewegung und drei Freiheitsgraden des sphärischen Koordinatensystems haben, das an die Form eines Schädelknochens eines liegenden Patienten angepasst ist, und das eine Grobpositionierung des Patienten zu Beginn der Operation und ein schnelles und rasch vonstatten gehendes Entfernen, beispielsweise im Falle eines Notfalls, ermöglicht.
  • Der Aufbau des Teils 505 wird nun unter Bezugnahme auf die 7 erläutert.
  • Das Teil 505 zur Feinbewegung umfasst eine Sockelverbindung 704, ein erstes Gelenk 705, ein zweites Gelenk 706, eine zweite Verbindung 707, eine dritte Verbindung 708, ein drittes Gelenk 709 und eine Basis 712 des Teils zur Feinbewegung.
  • Das erste bis dritte Gelenk sind alle Drehgelenke und sind derart aufgebaut, dass nur eine Orientierung des ganzen Feinstbewegungsteils geändert wird.
  • Es wurde darauf hingewiesen, dass im Falle von Feinarbeiten die Veränderung der Orientierung abhängig von der Skalierung ist. Das heißt, solange ein in Bezug auf die Entfernung kleiner Wert zum Arbeitsobjekt wird, ist die Feinarbeit in Bezug auf die Änderung der Orientierung die gleiche wie mit der normalen Arbeit. Dementsprechend können der Freiheitsgrad der Position und der Orientierung getrennt werden und das gleiche Antriebsverfahren und der gleiche Messmechanismus wie im Falle der normalen Skalierung können in Bezug auf die Orientierung verwendet werden.
  • Die Änderung der Orientierung des Teils 508 zur Feinstbewegung ist mit dem optischen Sensor 402 verbunden. Auf diese Weise wird ein Fokuspunkt des optischen Sensors 402 immer ungefähr in der Nähe des Arbeitsraums des Manipulators des Teils 508 zur Feinstbewegung positioniert. Obgleich das Teil zur Feinbewegung 505 in 7 eine kardanische Form aufweist, kann ein Mechanismus wie zum Beispiel eine Stewart-Plattform verwendet werden.
  • Das Teil 508 zur Feinstbewegung wird nachfolgend unter Bezugnahme auf die 8 beschrieben.
  • Das Teil 508 zur Feinstbewegung umfasst Säulen 801, eine Ringschiene 802, ein erstes Gelenk 803, eine erste Verbindung 804, ein zweites Gelenk 805, eine zweite Verbindung (die Spitze eines "Slave"-Manipulators) 411 und ein Peltier-Effektelement 809.
  • Das erste Gelenk 803 bewegt sich in zwei Freiheitsgraden der Linearbewegung in Richtung der Mittellinie der Ringschiene 802 und durch Rotation um die Mittellinie. Das zweite Gelenk 805 ist zylindrisch und rotiert um seine Mittellinie.
  • Der oben beschriebene Aufbau gestattet es, den ganzen Manipulator kompakt zu gestalten. Während das Teil 508 zur Feinstbewegung derart aufgebaut ist, dass es drei Freiheitsgrade hat, ist es möglich, den Freiheitsgrad durch Austausch der Strukturen der ersten Verbindung 804 und der zweiten Verbindung 411 zu erhöhen, um auf diese Weise die gleiche Struktur wie mit dem ersten Gelenk 803 auszubilden. Bei diesem Ausführungsbeispiel werden durch Hinzufügen der Freiheitsgrade des Teils 508 zur Feinstbewegung zu den drei Freiheitsgraden der Rotation des Teils zur Feinbewegung mehr als sechs Freiheitsgrade realisiert.
  • Das Peltier-Effektelement 809, das an der Spitze des Manipulators angebracht ist, ist ein Element zur Realisierung einer thermoelektrischen Kühlung durch den Peltier-Effekt, das durch Mikro-Bearbeitungstechnologie realisiert werden kann.
  • Wenn der Manipulator selbst mit einer mechanischen Kraft bereitgestellt wird, die organische Gewebe wie zum Beispiel Hirngewebe, Ner ven und Blutgefäße zerstören kann, wird es sehr gefährlich, wenn sie einen Unfall verursacht, wie zum Beispiel einen Ausreißer. Dann ist es notwendig, das Schneiden und Ablösen von erkranktem Gewebe, das in der Vergangenheit mit mechanischer Kraft vorgenommen wurde, durch die Manipulation, die eine Degeneration des Gewebes durch Steuerung eines Energieflusses in der Feinchirurgie erzeugt, zu ersetzen.
  • Außerdem ergibt die Verringerung der erforderlichen mechanischen Kräfte Vorteile in Bezug auf das Design des Manipulators, und der den Manipulator antreibende Aktuator kann weiter miniaturisiert werden oder erforderliche Spezifikationen des Manipulators und des Aktuators können vereinfacht werden, und dies ist sehr vorteilhaft.
  • Bislang wurde ein Höchsttemperaturverfahren (durch Einrichtungen wie der einer Laserschneide oder anderer) als Gewebedegenerationsverfahren unter Anwendung von Energiesteuerung verwendet, das die umgebenden Bereiche erheblich durch seine Strahlung beeinflusst, was zu einigen Sorgen bezüglich der Anwendung bei der feinchirurgischen Operation führte. Im Gegensatz hierzu verursacht die Degeneration und die Zerstörung von Gewebe durch Gefriereinrichtungen lediglich, dass der manipulierte Bereich zuverlässig degeneriert, da nahezu keine Hitze übertragen wird, solange kein Kontakt vorliegt.
  • Außerdem ist es nicht notwendig, über das Problem der Strahlung nachzudenken (obgleich die Temperaturdifferenz in diesem Fall entgegengesetzt ist), da dieses Verfahren – verglichen mit dem Laser – keine große Temperaturdifferenz im Vergleich zur Umgebung aufweist.
  • Das Teil zur Feinstbewegung, das weniger invasiv ist und weniger Einfluss in der Umgebung verursacht, kann, wie oben beschrieben, realisiert werden.
  • Es wird darauf hingewiesen, dass, obgleich es in Bezug auf viele Punkte vorteilhaft ist, eine Degeneration und Spallation des Gewebes durch das Peltier-Effektelement zu verursachen, es nicht realistisch ist, alle chirurgischen Behandlungen durch Cryo-Spallation durchzuführen. Außerdem ist der Behandlungseffekt nicht beschränkt auf das Peltier-Effektelement, zudem können Werkzeuge, wie sie bislang bekannt sind, mit diesem in Kombination verwendet werden. Das heißt, der Manipulator kann mit einem Lasermesser, einem Ultraschallmesser oder einem elektrischen Messer ausgestattet sein oder eine kleine Klemme, ein Messer oder ein Clip können an ihm befestigt sein.
  • Außerdem ist eine Mehrzahl an Manipulatoren vorhanden, so dass es möglich ist, diese mit verschiedenen Behandlungseffektoren auszustatten.
  • 9 zeigt das aus 8 entnommene erste Gelenk 803. Das erste Gelenk 803 umfasst einen inneren Stator 901, d. h. ein kleines Teil der Ringschiene 802, eine Multi-Freiheitsgrad-Bewegungseinrichtung 902, einen äußeren Stator 903, an den das erste Gelenk 804 festgekoppelt ist, einen Antriebsschaltkreis 904 zur Steuerung einer Elektrodenspannung des äußeren Stators 903, Antriebsschaltkreise 905 und 907 zur Steuerung der Elektrodenspannungen der äußeren Oberfläche und der inneren Oberfläche der Multi-Freiheitsgrad-Bewegungseinrichtung 902, einen Antriebsschaltkreis 906 zur Steuerung einer Elektrodenspannung des inneren Stators 901 und ein Hauptsteuergerät 908. Die Materialien der Bewegungseinrichtung und des Stators sind Polyimid und Klebemittel. Eine leitfähige Polymerzu sammensetzung, die hauptsächlich aus Kohlenstoffmolekülen besteht, wird als Elektrode verwendet.
  • Die ringförmigen Elektroden sind auf der äußeren Fläche des inneren Stators 901 vertikal zu der Achse des Zylinders angeordnet. Die Elektroden sind auch auf der inneren Fläche der Multi-Freiheitsgrad-Bewegungseinrichtung 902 parallel zu dem inneren Stator 901 angeordnet und eine große Anzahl von linearen Elektroden ist vertikal zu dem inneren Stator 901 auf der äußeren Fläche angeordnet. Obgleich nicht gezeigt, sind Flansche an beiden Seiten der Multi-Freiheitsgrad-Bewegungseinrichtung 902 zur Begrenzung des Freiheitsgrads des äußeren Stators 903 ausschließlich auf eine Drehung um die Mittellinie des Zylinders angebracht. Eine große Anzahl linearer Elektroden ist auf der inneren Fläche des äußeren Stators 903 parallel mit den Elektroden auf der äußeren Fläche der Multi-Freiheitsgrad-Bewegungseinrichtung 902 angeordnet.
  • 10 ist eine Schnittansicht eines in 9 gezeigten ersten Gelenks, geschnitten entlang einer Ebene, die die Mittelachse und eine zu dieser orthogonalen Fläche umfasst. 11 ist eine vergrößerte Ansicht des Abschnitts im Bereich A der 10 und 12 ist eine vergrößerte Ansicht des Abschnitts im Bereich B.
  • In 11 ist der äußere Stator 903 mit einer inneren Abdeckung 1110 und einer äußeren Deckschicht 1113 auf beiden Seiten abgedeckt und ein Klebemittel bzw. Adhäsiv 1112 ist zwischen die beiden Schichten eingebracht. Elektroden 1111 aus einer kohlenstoffhaltigen Polymerzusammensetzung sind mit gleichem Zwischenabstand angeordnet, so dass es eine Schnittlinie des Zylinders und der die Mittelachse des Zylinders einschließenden Ebene ergibt. Dieser Abschnitt entspricht einer strichpunktierten Linie, wie in 12 gezeigt wird.
  • Der Aufbau des äußeren Bereichs der Multi-Freiheitsgrad-Bewegungseinrichtung 902 ist der gleiche wie der des äußeren Stators 903 und der Aufbau des inneren Bereichs des Stators 903 ist der gleiche wie der des inneren Stators 901. Isolierende Fluide 1108 und 1109 sind zwischen den inneren Stator 901 und die Multi-Freiheitsgrad-Bewegungseinrichtung 902 gefüllt sowie zwischen die Multi-Freiheitsgrad-Bewegungseinrichtung 902 und den äußeren Stator 903.
  • 12 ist eine vergrößerte Schnittansicht des Bereichs B in 10 und die gleichen Teile sind mit den gleichen Bezugszeichen bezeichnet. In dieser Schnittdarstellung ist die Richtung der Elektroden entgegengesetzt zu der in 11, da die Richtung des Abschnitts orthogonal zu der in 11 ist.
  • Als Nächstes wird das grundsätzliche Arbeitsprinzip des ersten Gelenks 803 unter Bezugnahme auf die 13 erläutert. Die 13 ist eine Schnittdarstellung, die eine Kombination des äußeren Stators 903 und des Umfangsbereichs der Multi-Freiheitsgrad-Bewegungseinrichtung 902 zeigt. Dreiphasen-Wechselspannungen werden der Elektrode 1111 des äußeren Stators 903 und einer Umfangselektrode 1303 der Multi-Freiheitsgrad-Bewegungseinrichtung 902, in einem Satz von drei Elektroden, über die Drähte 1301 und 1304 zugeführt. Wenn die den Elektroden 1111 und 1303 zugeführten Spannungen gegenphasig sind oder wenn ihre Frequenz unterschiedlich ist, wird eine Antriebskraft zwischen der Bewegungseinrichtung und dem Stator erzeugt, die die Bewegungseinrichtung 902 in Richtung der Achse des Zylinders verschiebt. Das Gleiche trifft auch auf den inneren Bereich der Multi-Freiheitsgrad-Bewegungseinrichtung 902 und den inneren Stator 901 zu.
  • Da außerdem der Satz an Elektroden an dem inneren Bereich orthogonal zu dem Satz der Elektroden des äußeren Bereichs ist, erzeugt der Satz der inneren Elektroden mikroskopisch eine Antriebskraft in der Tangentialrichtung eines Kreisschnittes senkrecht zur Achse des Zylinders. Die Integration dieser Antriebskraft in Umfangsrichtung verwandelt diese in eine Drehkraft um die Achse, und die Multi-Freiheitsgrad-Bewegungseinrichtung 902 rotiert.
  • Außerdem sind die oben beschriebenen Bewegungen in den beiden Richtungen orthogonal zueinander und eine Bewegung, die durch eine Kombination erzeugt wird, wird nicht das Positionsverhältnis zwischen den Elektroden einer anderen Kombination verändern. Dementsprechend kann sich das erste Gelenk 803 in axialer Richtung des Zylinders verschieben und zu gleicher Zeit um die Achse rotieren.
  • Auf eine Erläuterung des zweiten Gelenks 805 wird hier verzichtet, da sein Aufbau der gleiche ist in Kombination mit der Multi-Freiheitsgrad-Bewegungseinrichtung 902 und dem äußeren Stator 903 der 9.
  • Die Messeinrichtung 117 für in-vivo-Daten wird nachfolgend unter Bezugnahme auf die 40 erläutert. Die in-vivo-Daten-Messeinrichtung 117 umfasst eine Messsignalübertragungseinheit 4001 und eine Messsignalempfangseinheit 4002.
  • Die Messsignalempfangseinheit 4001 ist mit einer Röntgenröhre, einem Supraleitermagneten und magnetischen Spulen, einem Ultraschallwandler und dergleichen ausgestattet, um in der Lage zu sein, Messsignale in verschiedenen Modalitäten, wie zum Beispiel Röntgen, magnetisches Feld und Ultraschall, zu übertragen.
  • Die Messsignalempfangseinheit 4002 ist mit Empfangszubehör ausgestattet, das jeder Modalität entspricht, zum Empfang eines Eingabesignals 119, das durch den Körper des Patienten hindurchgeht oder von diesem reflektiert wird und als Outputsignal 120 austritt.
  • Von der Röntgenröhre ausgestrahlte Röntgenstrahlung, die durch den Körper hindurchgegangen ist, wird durch Röntgensensoren mit zweidimensionaler Array-Anordnung empfangen. Signale, die ein dreidimensionales CT-Bild erzeugen, können in sehr kurzer Zeit durch Drehung dieser Sende- und Empfangseinheiten um den Patienten erhalten werden. Dieses System wird als Kegel-Strahl-CT bezeichnet.
  • Ein durch die magnetische Spule erzeugtes wechselndes Magnetfeld wird durch einen Hochfrequenzmessfühler empfangen. Er verwendet das gleiche Prinzip wie ein als MRI bezeichnetes Messinstrument. Eine Sendeeinheit und eine Empfangseinheit eines Ultraschallwandlers ist in Form eines zweidimensionalen Arrays angeordnet.
  • Hierdurch werden durch Röntgen-CT Signale erzeugt, die die Daten der Form der Umgebung des Patienten einschließlich der Knochen erzeugen, und die MRI erzeugt Signale, die Daten der Form, visualisierte Daten des Unterschiedes zwischen Gewebe, die für das bloße Auge nicht unterscheidbar sind, und visualisierte Daten der Gehirnfunktion erzeugen. Der Ultraschall erzeugt Signale, die Daten der Form und Daten erzeugen, die lokale abnormale Blutströme und Dyskinesie anzeigen.
  • Die Messung durch Einrichtung der oben beschriebenen Multiplexmodalitäten wird in einem sehr kurzen Zeitraum durchgeführt, unabhängig davon, ob vor oder während der Operation, und die erhaltenen Signaldaten werden digitalisiert und in der Signalempfangsein heit 4002 vorverarbeitet. Die digitalisierten Messdaten 121 werden an die Messdaten-Verarbeitungseinrichtung 118 gesendet.
  • Als Nächstes wird die Messdaten-Verarbeitungseinrichtung 118 unter Bezugnahme auf die 41 beschrieben. Die Messdaten-Verarbeitungseinrichtung 118 umfasst eine Bildverarbeitungsarbeitseinheit 4101, einen Hauptspeicher 4102, einen sekundären Datenspeicher 4103 und einen Adressen- und einen Datenbus 1104.
  • Vorzugsweise wird die Bildverarbeitungs- und Betriebseinheit 4101 wie ein massiver Parallelcomputer aufgebaut. Der Hauptspeicher 4102 ist ein normaler Speicher und der sekundäre Datenspeicher 4103 ist ein Massenspeicher, wie zum Beispiel ein optisches, magnetisches, scheibenförmiges Speichermedium. Diese Geräte 4101 bis 4103 sind durch den Adressen- und Datenbus 4101 eng verbunden, um eine Superhochgeschwindigkeitsbildverarbeitung und -betrieb zu ermöglichen.
  • Die Messdaten 121 sind in dem Hauptspeicher 4102 gespeichert und laufen durch die Bildverarbeitungs- und Betriebseinheit 4101. Sie werden verarbeitet und als dreidimensionale Bilddaten durch die Bildverarbeitungs- und Betriebseinheit 4101 rekonstruiert. Die rekonstruierten Daten 122 werden an die Realitätssteuerdaten-Erzeugungseinrichtung 101 gesendet, um mit den anderen Bildern synthetisiert, d. h. kombiniert zu werden.
  • Durch den oben beschriebenen Aufbau werden die in-vivo-Daten in dreidimensionaler Form rekonstruiert und visualisiert, unabhängig davon, ob vor oder während der Operation, und werden dem chirurgischen Operateur präsentiert und in kurzen Zeitabständen wird ein Update durchgeführt. Die rekonstruierten dreidimensionalen Bilddaten werden zu diesem Zeitpunkt in dem sekundären Datenspeicher 4103 gespeichert. Diese Daten werden neben der Verwendung während der chirurgischen Operation zur Durchführung von Simulationen und Training verwendet.
  • Die oben beschriebene Erläuterung ist nicht nur auf die Erläuterung des detaillierten Aufbaus des Ausführungsbeispiels der 1 und auf die Unterstützung der chirurgischen Operation anwendbar, sondern auch auf das Training durch Simulation der Chirurgie und der Erläuterung der chirurgischen Operation für den Patienten (informiertes Einverständnis).
  • Die Trainingsfunktion durch Simulation wird nachfolgend erläutert.
  • Zunächst wird ein virtueller erkrankter Bereich durch die Realitätssteuerdaten-Erzeugungseinrichtung 101 erzeugt. Bilddaten von tatsächlichen erkrankten Bereichen, die durch Rekonstruktion in 3D aus den gemessenen Daten erzeugt wurden und in dem sekundären Datenspeicher 214 der 2 oder dem zweiten Speicher 4103 der 41 gespeichert sind, werden dabei verwendet, oder virtuelle Bilddaten eines erkrankten Bereichs werden durch ein Modell erzeugt. Diese werden dann dargestellt und virtuelle Kraftreflexionsdaten 108 werden erzeugt und an die Manipulationsbefehl-Erzeugungseinrichtung 103 gesendet. Da zu diesem Zeitpunkt keine Kraftreflexion aus der tatsächlichen Welt vorliegt, ist die virtuelle Kraftreflexion gleich der synthetisierten Kraftreflexion.
  • Die virtuelle Kraftreflexion wird anhand eines in dem sekundären Datenspeicher 214 in dem Arbeitsumgebungs-Datenprozessor 201 gespeicherten dynamischen Modells berechnet. Das Ergebnis der Berechnung wird an die Aktionsbefehl-Eingabeeinrichtung eines jeden chirurgischen Operateurs gesendet zum Übertragen der virtuellen Kraftreflexion.
  • Die chirurgischen Operateure betätigen die "Slave"-Manipulatoren in der realen Welt innerhalb der virtuellen Umgebung. Der Manipulator bewegt sich der Intension des chirurgischen Operateurs folgend und erfasst sämtliche Sensordaten. Aus der Gruppe dieser wird nur der optische Sensor an die Realitätssteuerdaten-Erzeugungseinrichtung 101 zur Kombination mit den Bilddaten des virtuellen erkrankten Bereichs gesendet.
  • Zu diesem Zeitpunkt kann die Simulation durch eine Person durchgeführt werden, oder das "körperliche" Training kann unter Verwendung der oben beschriebenen "Multi-to-one Master/Slave"-Funktion durchgeführt werden. Der sekundäre Datenspeicher 214 innerhalb des Arbeitsumgebungs-Datenprozessors 201 nimmt auch alle Zeitdatenserien dieser Simulation der Chirurgie auf. Dementsprechend kann das aufgenommene Ergebnis bei einer anderen Gelegenheit zu Evaluierung von Aktionen und Entscheidungen wiedergegeben werden.
  • Als Nächstes wird der Fall beschrieben, bei dem die chirurgische Operation dem Patienten erläutert wird. Da die oben beschriebenen Simulationsergebnisse aufgenommen wurden, können die entsprechenden Inhalte der Operation durch Wiedergabe der Ergebnisse erläutert werden. Auf diese Weise kann der Patient sein Verständnis der Operation vertiefen und sein Vertrauen zu dem chirurgischen Operateur und der Operation selbst erhöhen.
  • Der Fall, bei dem die Erläuterung unter Verwendung tatsächlicher, nicht virtueller Aufnahmedaten der Operation durchgeführt wird, wird wie folgt vorgenommen. Die Daten in dem sekundären Datenspeicher innerhalb des Arbeitsumgebungs-Datenprozessors und die Daten in dem sekundären Datenspeicher 4103 der Messdaten-Verar beitungseinrichtung 118 enthalten Daten zur Synchronisation. Diese Daten sind kombiniert und auf dem Display 203 der Realitätssteuerdaten-Erzeugungseinrichtung 101 anhand dieser Daten wiedergegeben. Es ist möglich, nur das tatsächliche Bild wiederzugeben oder lediglich die als 3D-Bild rekonstruierten Messdaten wiederzugeben. Der chirurgische Operateur kann dem ähnliche Symptome aufweisenden Patienten durch Wiedergabe des Bildes die Operation erläutern.
  • Auf diese Weise kann der Patient sein Verständnis der Operation vertiefen und sein Vertrauen in den chirurgischen Operateur und die chirurgische Operation selbst ähnlich wie in dem oben beschriebenen Fall erhöhen.

Claims (3)

  1. Vorrichtung zur chirurgischen Operation, umfassend: – eine Einrichtung zur Manipulation von erkranktem Gewebe (102), die so ausgelegt ist, dass sie von einer Vielzahl von Operateuren fernsteuerbar ist, und die ein chirurgisches Instrument bzw. ein Instrument zur Behandlung aufweist; – eine Erfassungseinrichtung zum Messen und Erfassen des erkrankten Gewebes (125) und der Einrichtung (102) zur Manipulation während einer Operation zum Erhalten von Daten (105, 106, 107, 120) betreffend das erkrankte Gewebe (125) und die Manipulationseinrichtung (102), wobei die Erfassungseinrichtung eine in-vivo-Daten-Messeinrichtung (117) zum Messen von in-vivo-Daten durch periodisches Aufbringen von einem schwankenden Magnetfeld oder mehreren schwankenden Magnetfeldern und/oder elektromagnetischer Wellen und/oder Ultraschallwellen auf einen erkrankten Bereich und den diesen umgebenden Körperbereich vor und während der Operation und durch Messen des eingedrungenen Signals oder des Resonanzsignals, sowie eine Einrichtung (104) zum Erfassen von Daten in der Arbeitsumgebung aufweist, die Abbildungsdaten des erkrankten Körperteils aufnimmt und einen Annäherungszustand sowie eine Berührungskraft der Einrichtung (102) zur Manipulation von erkranktem Gewebe gegenüber dem erkrankten Körperteil (125) erfasst, – eine Datenzufuhreinrichtung (118, 101), die die von der Erfassungseinrichtung erfassten Daten den Operateuren zuleitet, wobei die Datenzufuhreinrichtung eine Messdaten-Verarbeitungseinrichtung (118) zur Erzeugung eines Messdatenbildes in 3D-Darstellung aus den mittels der in- vivo-Daten-Messeinrichtung (117) gemessenen in-vivo-Daten (121) sowie eine Einrichtung zur Erzeugung von Realitätssteuerdaten (101) zum Verknüpfen und/oder Verarbeiten der Outputsignale der Einrichtung (104) zum Erfassen von Daten in der Arbeitsumgebung und der Outputsignale aus der Messdaten-Verarbeitungseinrichtung (118) aufweist, um sie dann jedem operierenden Chirurgen als Realitätssteuerdaten zu präsentieren, – eine Vielzahl von Eingabeeinrichtungen zur Eingabe von Aktionsbefehlen (114) zum Eingeben von Aktionen, die von jedem operierenden Chirurgen auf der Grundlage der von der Einrichtung zur Erzeugung von Realitätssteuerdaten (101) jedem operierenden Chirurgen präsentierten Realitätssteuerdaten vorgenommen werden, und – eine Einrichtung zum Erzeugen von Manipulationsbefehlen (103) zum Umsetzen des aus jeder der Eingabeeinrichtungen zur Eingabe von Aktionsbefehlen (114) ausgegebenen Aktionsbefehls (113) in Manipulationsbefehlsdaten (111) zur Übertragung dieser Daten an die Einrichtung zur Manipulation von erkranktem Gewebe (102) und zur Übertragung einer von der Einrichtung zur Erfassung der Arbeitsumgebungsdaten (104) erfassten Berührungskraft an die Einrichtung zur Manipulation von erkranktem Gewebe (102).
  2. Vorrichtung für chirurgische Operationen nach Anspruch 1, dadurch gekennzeichnet, dass jede der Eingabeeinrichtungen zur Eingabe von Aktionsbefehlen (114) Signale (113) aussendet, die mit einer Vielzahl von Befehlseingaben von der Vielzahl von Operateuren erzeugt werden.
  3. Vorrichtung für chirurgische Operationen nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass jede der Eingabeeinrichtungen zur Eingabe von Aktionsbefehlen (114) die Signale (113) aussendet, die mit der Vielzahl von Befehlseingaben unter Gewichtung und Addition auf vorbestimmter Weise erzeugt werden.
DE69636176T 1995-02-16 1996-02-16 System zur Unterstützung der ferngesteuerten Chirurgie Expired - Fee Related DE69636176T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP02839195A JP3539645B2 (ja) 1995-02-16 1995-02-16 遠隔手術支援装置
JP2839195 1995-02-16

Publications (2)

Publication Number Publication Date
DE69636176D1 DE69636176D1 (de) 2006-06-29
DE69636176T2 true DE69636176T2 (de) 2007-07-12

Family

ID=12247364

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69636176T Expired - Fee Related DE69636176T2 (de) 1995-02-16 1996-02-16 System zur Unterstützung der ferngesteuerten Chirurgie
DE69623674T Expired - Fee Related DE69623674T2 (de) 1995-02-16 1996-02-16 System zur Unterstützung der ferngesteuerten Chirurgie

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69623674T Expired - Fee Related DE69623674T2 (de) 1995-02-16 1996-02-16 System zur Unterstützung der ferngesteuerten Chirurgie

Country Status (4)

Country Link
US (1) US5855553A (de)
EP (2) EP1125557B1 (de)
JP (1) JP3539645B2 (de)
DE (2) DE69636176T2 (de)

Families Citing this family (238)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
US5762458A (en) 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US6487914B1 (en) * 1995-09-14 2002-12-03 Structural Integrity Monitoring Systems, Inc. Structural monitoring sensor system
US20090148822A1 (en) * 2007-12-07 2009-06-11 Gaumard Scientific Company, Inc. Interactive Education System for Teaching Patient Care
US8696362B2 (en) * 1996-05-08 2014-04-15 Gaumard Scientific Company, Inc. Interactive education system for teaching patient care
US8016598B2 (en) 1996-05-08 2011-09-13 Gaumard Scientific Company, Inc. Interactive education system for teaching patient care
US7811090B2 (en) 1996-05-08 2010-10-12 Gaumard Scientific Company, Inc. Interactive education system for teaching patient care
US7976312B2 (en) * 1996-05-08 2011-07-12 Gaumard Scientific Company, Inc. Interactive education system for teaching patient care
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6364888B1 (en) * 1996-09-09 2002-04-02 Intuitive Surgical, Inc. Alignment of master and slave in a minimally invasive surgical apparatus
US6132441A (en) 1996-11-22 2000-10-17 Computer Motion, Inc. Rigidly-linked articulating wrist with decoupled motion transmission
US6331181B1 (en) 1998-12-08 2001-12-18 Intuitive Surgical, Inc. Surgical robotic tools, data architecture, and use
US8529582B2 (en) 1996-12-12 2013-09-10 Intuitive Surgical Operations, Inc. Instrument interface of a robotic surgical system
US6132368A (en) 1996-12-12 2000-10-17 Intuitive Surgical, Inc. Multi-component telepresence system and method
US7727244B2 (en) 1997-11-21 2010-06-01 Intuitive Surgical Operation, Inc. Sterile surgical drape
US8206406B2 (en) 1996-12-12 2012-06-26 Intuitive Surgical Operations, Inc. Disposable sterile surgical adaptor
US8182469B2 (en) 1997-11-21 2012-05-22 Intuitive Surgical Operations, Inc. Surgical accessory clamp and method
JPH11155881A (ja) * 1997-09-26 1999-06-15 Olympus Optical Co Ltd 手術経路検索装置
DE19749903A1 (de) * 1997-11-12 1999-05-20 Siemens Ag Aktives elektrisches Gerät mit einer elektrischen Zuleitung zum Betrieb im Untersuchungsvolumen eines Kernspintomographiegerätes
DE69817622T2 (de) * 1998-01-30 2004-06-17 Tecnimed S.R.L., Vedano Olona Infrarot thermometer
US8414598B2 (en) 1998-02-24 2013-04-09 Hansen Medical, Inc. Flexible instrument
US20080177285A1 (en) * 1998-02-24 2008-07-24 Hansen Medical, Inc. Surgical instrument
US7789875B2 (en) * 1998-02-24 2010-09-07 Hansen Medical, Inc. Surgical instruments
US7713190B2 (en) * 1998-02-24 2010-05-11 Hansen Medical, Inc. Flexible instrument
US7214230B2 (en) 1998-02-24 2007-05-08 Hansen Medical, Inc. Flexible instrument
US7169141B2 (en) * 1998-02-24 2007-01-30 Hansen Medical, Inc. Surgical instrument
US7901399B2 (en) * 1998-02-24 2011-03-08 Hansen Medical, Inc. Interchangeable surgical instrument
US7297142B2 (en) * 1998-02-24 2007-11-20 Hansen Medical, Inc. Interchangeable surgical instrument
US8303576B2 (en) * 1998-02-24 2012-11-06 Hansen Medical, Inc. Interchangeable surgical instrument
US7775972B2 (en) * 1998-02-24 2010-08-17 Hansen Medical, Inc. Flexible instrument
US6860878B2 (en) 1998-02-24 2005-03-01 Endovia Medical Inc. Interchangeable instrument
US7758569B2 (en) 1998-02-24 2010-07-20 Hansen Medical, Inc. Interchangeable surgical instrument
JP3582348B2 (ja) 1998-03-19 2004-10-27 株式会社日立製作所 手術装置
US6074213A (en) * 1998-08-17 2000-06-13 Hon; David C. Fractional process simulator with remote apparatus for multi-locational training of medical teams
US6398726B1 (en) 1998-11-20 2002-06-04 Intuitive Surgical, Inc. Stabilizer for robotic beating-heart surgery
US8527094B2 (en) * 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6951535B2 (en) * 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6468265B1 (en) 1998-11-20 2002-10-22 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
US8600551B2 (en) * 1998-11-20 2013-12-03 Intuitive Surgical Operations, Inc. Medical robotic system with operatively couplable simulator unit for surgeon training
US6852107B2 (en) * 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US6522906B1 (en) * 1998-12-08 2003-02-18 Intuitive Surgical, Inc. Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure
US6556695B1 (en) * 1999-02-05 2003-04-29 Mayo Foundation For Medical Education And Research Method for producing high resolution real-time images, of structure and function during medical procedures
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US10820949B2 (en) 1999-04-07 2020-11-03 Intuitive Surgical Operations, Inc. Medical robotic system with dynamically adjustable slave manipulator characteristics
US6594552B1 (en) * 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
EP1224918A3 (de) 1999-05-10 2002-12-18 endoVia Medical Inc. Chirurgisches Instrument
DE10040498A1 (de) * 1999-09-07 2001-03-15 Zeiss Carl Fa Vorrichtung zur bildgestützten Bearbeitung eines Arbeitsobjekts
US20020064302A1 (en) * 2000-04-10 2002-05-30 Massengill R. Kemp Virtual cosmetic autosurgery via telemedicine
JP4621338B2 (ja) * 2000-07-11 2011-01-26 株式会社東芝 超音波遠隔診断システム
US7976313B2 (en) * 2000-08-17 2011-07-12 Gaumard Scientific Company, Inc. Interactive education system for teaching patient care
JP4014792B2 (ja) 2000-09-29 2007-11-28 株式会社東芝 マニピュレータ
US7665995B2 (en) 2000-10-23 2010-02-23 Toly Christopher C Medical training simulator including contact-less sensors
US7857626B2 (en) * 2000-10-23 2010-12-28 Toly Christopher C Medical physiological simulator including a conductive elastomer layer
US8556635B2 (en) 2000-10-23 2013-10-15 Christopher C. Toly Physiological simulator for use as a brachial plexus nerve block trainer
DE60143909D1 (de) 2000-11-28 2011-03-03 Intuitive Surgical Operations Z und gefässokklusionsverschluss
JP4655175B2 (ja) * 2000-12-19 2011-03-23 ソニー株式会社 マニピュレータシステム、マスタマニピュレータ、スレーブマニピュレータ及びそれらの制御方法、並びに記録媒体
GB0102245D0 (en) * 2001-01-29 2001-03-14 Acrobot Company The Ltd Systems/Methods
US7766894B2 (en) * 2001-02-15 2010-08-03 Hansen Medical, Inc. Coaxial catheter system
US7699835B2 (en) 2001-02-15 2010-04-20 Hansen Medical, Inc. Robotically controlled surgical instruments
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
US20090182226A1 (en) * 2001-02-15 2009-07-16 Barry Weitzner Catheter tracking system
US20030135204A1 (en) 2001-02-15 2003-07-17 Endo Via Medical, Inc. Robotically controlled medical instrument with a flexible section
JP3660887B2 (ja) * 2001-03-19 2005-06-15 株式会社日立製作所 手術支援装置
US20030033168A1 (en) * 2001-04-13 2003-02-13 Andrea Califano Methods and systems for managing informed consent processes
US6817974B2 (en) 2001-06-29 2004-11-16 Intuitive Surgical, Inc. Surgical tool having positively positionable tendon-actuated multi-disk wrist joint
US20060178556A1 (en) 2001-06-29 2006-08-10 Intuitive Surgical, Inc. Articulate and swapable endoscope for a surgical robot
NL1018874C2 (nl) * 2001-09-03 2003-03-05 Michel Petronella Hub Vleugels Chirurgisch instrument.
US6728599B2 (en) * 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US6587750B2 (en) 2001-09-25 2003-07-01 Intuitive Surgical, Inc. Removable infinite roll master grip handle and touch sensor for robotic surgery
JP4032410B2 (ja) * 2001-11-09 2008-01-16 ソニー株式会社 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
WO2003077101A2 (en) 2002-03-06 2003-09-18 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
US11202676B2 (en) 2002-03-06 2021-12-21 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7163655B2 (en) * 2002-03-28 2007-01-16 Scimed Life Systems, Inc. Method and apparatus for extruding polymers employing microwave energy
US6979420B2 (en) * 2002-03-28 2005-12-27 Scimed Life Systems, Inc. Method of molding balloon catheters employing microwave energy
AU2003223376A1 (en) 2002-03-28 2003-10-13 Scimed Life Systems, Inc. Polymer welding using ferromagnetic particles
JP2006519629A (ja) * 2002-08-06 2006-08-31 ステリオタクシス インコーポレイテツド 仮想的装置のインタフェースを使用した医療装置の遠隔制御
US20040176751A1 (en) * 2002-08-14 2004-09-09 Endovia Medical, Inc. Robotic medical instrument system
TW558689B (en) * 2002-08-30 2003-10-21 Univ Taipei Medical Three-dimensional surgery simulation system and method
US7331967B2 (en) * 2002-09-09 2008-02-19 Hansen Medical, Inc. Surgical instrument coupling mechanism
CN100389730C (zh) 2002-12-06 2008-05-28 直观外科手术公司 用于手术工具的柔性肘节
US7386365B2 (en) * 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US8862203B2 (en) * 2003-03-27 2014-10-14 Boston Scientific Scimed Inc. Medical device with temperature modulator for use in magnetic resonance imaging
US8007511B2 (en) * 2003-06-06 2011-08-30 Hansen Medical, Inc. Surgical instrument design
JP2005018529A (ja) * 2003-06-27 2005-01-20 Ricoh Co Ltd 画像処理装置
US7672741B2 (en) 2003-07-24 2010-03-02 Keio University Position/force control device
WO2005020148A1 (en) * 2003-08-21 2005-03-03 Philips Intellectual Property & Standards Gmbh Device and method for combined display of angiograms and current x-ray images
US20050166239A1 (en) * 2003-10-09 2005-07-28 Olympus Corporation Surgery support system
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
WO2005081175A1 (en) * 2004-02-17 2005-09-01 Verefi Technologies Adaptive simulation environment particularly suited to laparoscopic surgical procedures
US20050181340A1 (en) * 2004-02-17 2005-08-18 Haluck Randy S. Adaptive simulation environment particularly suited to laparoscopic surgical procedures
US7289106B2 (en) * 2004-04-01 2007-10-30 Immersion Medical, Inc. Methods and apparatus for palpation simulation
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners
US7763015B2 (en) 2005-01-24 2010-07-27 Intuitive Surgical Operations, Inc. Modular manipulator support for robotic surgery
US7837674B2 (en) 2005-01-24 2010-11-23 Intuitive Surgical Operations, Inc. Compact counter balance for robotic surgical systems
US7623250B2 (en) * 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
EP2289454B1 (de) * 2005-06-06 2020-03-25 Intuitive Surgical Operations, Inc. Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke
US8535217B2 (en) * 2005-07-26 2013-09-17 Ams Research Corporation Methods and systems for treatment of prolapse
US8784336B2 (en) 2005-08-24 2014-07-22 C. R. Bard, Inc. Stylet apparatuses and methods of manufacture
US8079950B2 (en) * 2005-09-29 2011-12-20 Intuitive Surgical Operations, Inc. Autofocus and/or autoscaling in telesurgery
DE102005054575B3 (de) * 2005-11-16 2007-04-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Regelung eines Roboterarms sowie Roboter zur Durchführung des Verfahrens
JP4876246B2 (ja) * 2006-03-03 2012-02-15 国立大学法人長岡技術科学大学 触覚制御方法および触覚制御装置
US8395626B2 (en) * 2006-04-08 2013-03-12 Alan Millman Method and system for interactive simulation of materials
US8786613B2 (en) 2006-04-08 2014-07-22 Alan Millman Method and system for interactive simulation of materials and models
WO2007136769A2 (en) 2006-05-19 2007-11-29 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US20080064931A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical illumination
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
EP2035090A1 (de) * 2006-07-04 2009-03-18 Bracco Imaging S.p.A Vorrichtung zur lokalen wärmeablation von biologischem gewebe, insbesondere tumor- und ähnlichem gewebe
JP5415950B2 (ja) * 2006-07-25 2014-02-12 アルコン,インコーポレイティド マルチメディアコンテンツを再生するべく動作可能な手術コンソール
US20080085499A1 (en) * 2006-10-05 2008-04-10 Christopher Horvath Surgical console operable to simulate surgical procedures
US8388546B2 (en) 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US7794407B2 (en) 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9883818B2 (en) 2007-06-19 2018-02-06 Accuray Incorporated Fiducial localization
US20090003528A1 (en) 2007-06-19 2009-01-01 Sankaralingam Ramraj Target location by tracking of imaging device
US10524691B2 (en) 2007-11-26 2020-01-07 C. R. Bard, Inc. Needle assembly including an aligned magnetic element
US10449330B2 (en) 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
US10751509B2 (en) 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US9649048B2 (en) 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US8781555B2 (en) 2007-11-26 2014-07-15 C. R. Bard, Inc. System for placement of a catheter including a signal-generating stylet
US8388541B2 (en) 2007-11-26 2013-03-05 C. R. Bard, Inc. Integrated system for intravascular placement of a catheter
US8849382B2 (en) 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
US8473031B2 (en) * 2007-12-26 2013-06-25 Intuitive Surgical Operations, Inc. Medical robotic system with functionality to determine and display a distance indicated by movement of a tool robotically manipulated by an operator
US9881520B2 (en) * 2008-01-08 2018-01-30 Immersion Medical, Inc. Virtual tool manipulation system
US8478382B2 (en) 2008-02-11 2013-07-02 C. R. Bard, Inc. Systems and methods for positioning a catheter
US20090209888A1 (en) * 2008-02-18 2009-08-20 Seyed Hessam Khatami Spine Wheel
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8916134B2 (en) * 2008-07-11 2014-12-23 Industry-Academic Cooperation Foundation, Yonsei University Metal nanocomposite, preparation method and use thereof
US9901714B2 (en) 2008-08-22 2018-02-27 C. R. Bard, Inc. Catheter assembly including ECG sensor and magnetic assemblies
US8437833B2 (en) 2008-10-07 2013-05-07 Bard Access Systems, Inc. Percutaneous magnetic gastrostomy
WO2010048160A2 (en) * 2008-10-20 2010-04-29 The Johns Hopkins University Environment property estimation and graphical display
US8063621B2 (en) * 2008-11-05 2011-11-22 Semiconductor Components Industries Llc Current balancing circuit and method
EP2440130A4 (de) 2009-06-08 2015-06-03 Mri Interventions Inc Mrt-gesteuerte chirurgische systeme mit näherungsalarmen
EP3542713A1 (de) 2009-06-12 2019-09-25 Bard Access Systems, Inc. Adapter für eine katheterspitzenpositionierungsvorrichtung
US9532724B2 (en) 2009-06-12 2017-01-03 Bard Access Systems, Inc. Apparatus and method for catheter navigation using endovascular energy mapping
US8396532B2 (en) 2009-06-16 2013-03-12 MRI Interventions, Inc. MRI-guided devices and MRI-guided interventional systems that can track and generate dynamic visualizations of the devices in near real time
WO2011019760A2 (en) 2009-08-10 2011-02-17 Romedex International Srl Devices and methods for endovascular electrography
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8207651B2 (en) 2009-09-16 2012-06-26 Tyco Healthcare Group Lp Low energy or minimum disturbance method for measuring frequency response functions of ultrasonic surgical devices in determining optimum operating point
EP2517622A3 (de) 2009-09-29 2013-04-24 C. R. Bard, Inc. Stillete zur Verwendung mit Vorrichtungen zur intravaskulären Positionierung eines Katheters
US11103213B2 (en) 2009-10-08 2021-08-31 C. R. Bard, Inc. Spacers for use with an ultrasound probe
CN102821679B (zh) 2010-02-02 2016-04-27 C·R·巴德股份有限公司 用于导管导航和末端定位的装置和方法
WO2011150376A1 (en) 2010-05-28 2011-12-01 C.R. Bard, Inc. Apparatus for use with needle insertion guidance system
JP5980201B2 (ja) 2010-05-28 2016-08-31 シー・アール・バード・インコーポレーテッドC R Bard Incorporated 針および医療用コンポーネントのための挿入誘導システム
JP2013535301A (ja) 2010-08-09 2013-09-12 シー・アール・バード・インコーポレーテッド 超音波プローブヘッド用支持・カバー構造
BR112013002431B1 (pt) 2010-08-20 2021-06-29 C.R. Bard, Inc Sistema para a reconfirmação da posição de um cateter no interior de um paciente
US9037217B1 (en) 2010-10-13 2015-05-19 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US8452372B2 (en) * 2010-10-13 2013-05-28 Gholam Peyman System for laser coagulation of the retina from a remote location
US9931171B1 (en) 2010-10-13 2018-04-03 Gholam A. Peyman Laser treatment of an eye structure or a body surface from a remote location
US9510974B1 (en) 2010-10-13 2016-12-06 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US11309081B2 (en) 2010-10-13 2022-04-19 Gholam A. Peyman Telemedicine system with dynamic imaging
US10456209B2 (en) 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
US8903468B2 (en) * 2010-10-13 2014-12-02 Gholam Peyman Laser coagulation of an eye structure from a remote location
EP2632360A4 (de) 2010-10-29 2014-05-21 Bard Inc C R Bioimpedanz-gestützte platzierung einer medizinischen vorrichtung
US9921712B2 (en) 2010-12-29 2018-03-20 Mako Surgical Corp. System and method for providing substantially stable control of a surgical tool
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
CN103370015B (zh) * 2011-02-15 2016-12-21 直观外科手术操作公司 用于指示夹紧预测的系统
KR20140051284A (ko) 2011-07-06 2014-04-30 씨. 알. 바드, 인크. 삽입 유도 시스템을 위한 바늘 길이 결정 및 교정
USD699359S1 (en) 2011-08-09 2014-02-11 C. R. Bard, Inc. Ultrasound probe head
USD724745S1 (en) 2011-08-09 2015-03-17 C. R. Bard, Inc. Cap for an ultrasound probe
WO2013070775A1 (en) 2011-11-07 2013-05-16 C.R. Bard, Inc Ruggedized ultrasound hydrogel insert
KR101828452B1 (ko) * 2012-01-05 2018-02-12 삼성전자주식회사 서보 제어 장치 및 그 제어 방법
US9936896B2 (en) * 2012-01-12 2018-04-10 Siemens Medical Solutions Usa, Inc. Active system and method for imaging with an intra-patient probe
EP3964159A1 (de) 2012-06-01 2022-03-09 Intuitive Surgical Operations, Inc. Redundante achse und freiheitsgrad für hardware-beschränkten remotecenter-robotermanipulator
KR102160691B1 (ko) 2012-06-01 2020-09-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술 기구 매니퓰레이터 양태들
WO2013188833A2 (en) 2012-06-15 2013-12-19 C.R. Bard, Inc. Apparatus and methods for detection of a removable cap on an ultrasound probe
US9226796B2 (en) 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
KR102235965B1 (ko) 2012-08-03 2021-04-06 스트리커 코포레이션 로봇 수술을 위한 시스템 및 방법
KR20140039418A (ko) * 2012-09-21 2014-04-02 삼성전자주식회사 의료용 로봇 시스템
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
WO2014156229A1 (ja) * 2013-03-27 2014-10-02 オリンパス株式会社 操作入力装置およびマスタスレーブシステム
CN105101905B (zh) 2013-03-29 2017-08-04 奥林巴斯株式会社 主从系统
CN105658166B (zh) * 2013-08-23 2018-12-11 皇家飞利浦有限公司 具有用于控制处置系统的多个显示器的医学仪器
JP6410023B2 (ja) * 2013-09-06 2018-10-24 パナソニックIpマネジメント株式会社 マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路
JP6410022B2 (ja) * 2013-09-06 2018-10-24 パナソニックIpマネジメント株式会社 マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路
US10037715B2 (en) 2013-10-16 2018-07-31 Simulab Corporation Detecting insertion of needle into simulated vessel using a conductive fluid
CN105979868B (zh) 2014-02-06 2020-03-10 C·R·巴德股份有限公司 用于血管内装置的导向和放置的系统和方法
JP6644699B2 (ja) * 2014-03-19 2020-02-12 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視線追跡を使用する医療装置、システム、及び方法
CN106659541B (zh) 2014-03-19 2019-08-16 直观外科手术操作公司 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
JP6576042B2 (ja) * 2015-01-14 2019-09-18 キヤノン株式会社 表示制御装置及びその方法、プログラム
US10973584B2 (en) 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
US9974619B2 (en) * 2015-02-11 2018-05-22 Engineering Services Inc. Surgical robot
WO2016179355A1 (en) 2015-05-07 2016-11-10 Tyb Llc Remote ophthalmic system and related methods
DE102015109371A1 (de) * 2015-06-12 2016-12-15 avateramedical GmBH Vorrichtung und Verfahren zur robotergestützten Chirurgie
JP2017006634A (ja) * 2015-06-25 2017-01-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 遠隔作業装置及び制御方法
US10349890B2 (en) 2015-06-26 2019-07-16 C. R. Bard, Inc. Connector interface for ECG-based catheter positioning system
KR101709494B1 (ko) * 2015-07-08 2017-02-23 주식회사 삼육오엠씨네트웍스 시술 추적장치
US11000207B2 (en) 2016-01-29 2021-05-11 C. R. Bard, Inc. Multiple coil system for tracking a medical device
CN105997252A (zh) * 2016-06-20 2016-10-12 深圳市罗伯医疗科技有限公司 机器人在手术中反馈触摸力的方法和机器人
CN109069215B (zh) 2016-07-14 2022-07-15 直观外科手术操作公司 用于控制外科器械的系统和方法
JP6918844B2 (ja) 2016-07-14 2021-08-11 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 遠隔操作医療システムにおけるオンスクリーンメニューのためのシステム及び方法
KR102482803B1 (ko) 2016-07-14 2022-12-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 컴퓨터 보조 원격조작 시스템에서의 2차 기구 제어
EP3554414A1 (de) 2016-12-16 2019-10-23 MAKO Surgical Corp. Techniken zur modifizierung der werkzeugbedienung in einem chirurgischen robotischen system auf basis des vergleichs von gegenwärtigen und befohlenen zuständen des werkzeugs in bezug auf eine operationsstelle
JP6902370B2 (ja) * 2017-03-15 2021-07-14 株式会社オカムラ 管理システム、管理方法及びプログラム
US10368955B2 (en) * 2017-03-31 2019-08-06 Johnson & Johnson Innovation-Jjdc, Inc. Multi-functional foot pedal assembly for controlling a robotic surgical system
JP6708581B2 (ja) * 2017-04-07 2020-06-10 ライフロボティクス株式会社 教示装置、表示装置、教示プログラム及び表示プログラム
US11385759B2 (en) 2017-12-19 2022-07-12 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
US10835276B2 (en) * 2018-01-11 2020-11-17 Misonix, Incorporated Ultrasonic surgical system for osseous transection
WO2019188022A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 制御装置、制御方法、及びマスタスレーブシステム
JP7000253B2 (ja) * 2018-05-31 2022-01-19 国立大学法人東海国立大学機構 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
WO2020003728A1 (ja) * 2018-06-28 2020-01-02 ソニー株式会社 符号化装置、符号化方法、復号装置、復号方法、プログラム
JP7351299B2 (ja) 2018-07-03 2023-09-27 ソニーグループ株式会社 符号化装置、符号化方法、復号装置、復号方法、プログラム
US10888383B2 (en) 2018-07-17 2021-01-12 Verb Surgical Inc. Robotic surgical pedal with integrated foot sensor
US10503199B1 (en) 2018-07-17 2019-12-10 Verb Surgical Inc. Pedal with sliding and locking mechanisms for surgical robots
US20210298853A1 (en) * 2018-07-26 2021-09-30 Sony Corporation Information processing apparatus, information processing method, and computer program
WO2020059007A1 (ja) * 2018-09-18 2020-03-26 オリンパス株式会社 内視鏡用トレーニングシステム、コントローラ及び記録媒体
US10992079B2 (en) 2018-10-16 2021-04-27 Bard Access Systems, Inc. Safety-equipped connection systems and methods thereof for establishing electrical connections
US11497566B2 (en) * 2018-10-26 2022-11-15 Biosense Webster (Israel) Ltd. Loose mode for robot
US11490981B2 (en) 2019-03-15 2022-11-08 Cilag Gmbh International Robotic surgical controls having feedback capabilities
US11666401B2 (en) 2019-03-15 2023-06-06 Cilag Gmbh International Input controls for robotic surgery
US11583350B2 (en) 2019-03-15 2023-02-21 Cilag Gmbh International Jaw coordination of robotic surgical controls
US11690690B2 (en) 2019-03-15 2023-07-04 Cilag Gmbh International Segmented control inputs for surgical robotic systems
US11701190B2 (en) * 2019-03-15 2023-07-18 Cilag Gmbh International Selectable variable response of shaft motion of surgical robotic systems
JP7287045B2 (ja) * 2019-03-26 2023-06-06 コベルコ建機株式会社 遠隔操作システム
US11813746B2 (en) 2020-12-30 2023-11-14 Cilag Gmbh International Dual driving pinion crosscheck
CN112826458B (zh) * 2021-01-08 2022-11-01 广州中医药大学(广州中医药研究院) 脉诊系统和脉诊方法
FR3120777B1 (fr) * 2021-03-17 2023-04-21 Quantum Surgical Robot médical collaboratif pour sécuriser le guidage d’instruments
WO2022210800A1 (ja) * 2021-03-30 2022-10-06 学校法人慶應義塾 制御システム、制御装置、制御方法及びプログラム
WO2023037966A1 (ja) * 2021-09-09 2023-03-16 国立大学法人名古屋工業大学 複数人によるロボットアバター制御システム、及び制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5638359A (en) * 1979-09-05 1981-04-13 Nippon Zeon Co Ltd Room temperature curing covering composition
JPS57114380A (en) * 1980-12-30 1982-07-16 Chiyuushiyou Kigiyou Shinkou J Discriminator for force of remote control type manipulator
JPS5846929A (ja) * 1981-09-17 1983-03-18 富士写真光機株式会社 内視鏡装置
US4545713A (en) * 1983-11-10 1985-10-08 At&T Bell Laboratories Waveguide robot system for laser beam
US5078140A (en) * 1986-05-08 1992-01-07 Kwoh Yik S Imaging device - aided robotic stereotaxis system
JPH0685784B2 (ja) * 1987-03-30 1994-11-02 株式会社東芝 手術用3次元ピユ−ア−システム
JPH0286698A (ja) * 1988-09-24 1990-03-27 Mitsubishi Petrochem Co Ltd 液体洗浄剤組成物
JPH03121064A (ja) * 1989-10-04 1991-05-23 Raifu Technol Kenkyusho 手術用ロボット
JP2907963B2 (ja) * 1990-06-21 1999-06-21 株式会社東芝 磁気共鳴モニタリング治療装置
JP3295890B2 (ja) * 1990-09-18 2002-06-24 三菱プレシジョン株式会社 自機操縦訓練方式
JPH04146097A (ja) * 1990-10-05 1992-05-20 Olympus Optical Co Ltd 手術用ロボット
US5217453A (en) * 1991-03-18 1993-06-08 Wilk Peter J Automated surgical system and apparatus
JP3583777B2 (ja) * 1992-01-21 2004-11-04 エス・アール・アイ・インターナシヨナル テレオペレータシステムとテレプレゼンス法
US5275165A (en) * 1992-11-06 1994-01-04 General Electric Company Magnetic resonance guided ultrasound therapy system with inclined track to move transducers in a small vertical space
US5389849A (en) * 1993-01-20 1995-02-14 Olympus Optical Co., Ltd. Tactility providing apparatus and manipulating device using the same
WO1995001757A1 (en) * 1993-07-07 1995-01-19 Cornelius Borst Robotic system for close inspection and remote treatment of moving parts

Also Published As

Publication number Publication date
US5855553A (en) 1999-01-05
DE69636176D1 (de) 2006-06-29
EP0732082A3 (de) 1996-11-20
DE69623674T2 (de) 2003-05-22
JP3539645B2 (ja) 2004-07-07
DE69623674D1 (de) 2002-10-24
JPH08215211A (ja) 1996-08-27
EP1125557B1 (de) 2006-05-24
EP0732082B1 (de) 2002-09-18
EP0732082A2 (de) 1996-09-18
EP1125557A2 (de) 2001-08-22
EP1125557A3 (de) 2004-01-02

Similar Documents

Publication Publication Date Title
DE69636176T2 (de) System zur Unterstützung der ferngesteuerten Chirurgie
EP0685088B1 (de) Verfahren und vorrichtung zur planung und kontrolle eines chirurgischen eingriffs
DE69826611T2 (de) Rahmenlose stereotaktische chirurgische Vorrichtung
EP3409230B1 (de) Bewegen eines roboterarms
DE69919157T2 (de) Interaktives und rechnerunterstüztes chirurgisches system
EP2449997B1 (de) Medizinischer Arbeitsplatz
US6283763B1 (en) Medical operation simulation system capable of presenting approach data
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
DE69738073T2 (de) System für das training von personen zum durchführen von minimal invasiven chirurgischen prozeduren
EP3412242A1 (de) Ausgabe von positionsinformationen eines medizintechnischen instruments
DE102015226669A1 (de) Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
DE112006003722B4 (de) Simulationssystem für chirurgische Eingriffe in der Human- und Veterinärmedizin
DE102009006148B4 (de) Verfahren, Monitor-Steuermodul, System und Computerprogramm zum Darstellen medizinischer Bilder
DE102006059380A1 (de) Medizinisches Robotersystem, das eine Dreidimensionale Telestration bereitstellt
EP1897061B1 (de) Verfahren und vorrichtung zur 3d-navigation auf schichtbildern
DE102011078405B4 (de) Verfahren zur Endoskopie mit magnetgeführter Endoskopkapsel sowie Einrichtung dazu
WO2022171537A1 (de) Chirurgisches assistenzsystem und darstellungsverfahren
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102017204175A1 (de) Verfahren zu einem Auffinden von Auffälligkeiten in medizinischen Bilddaten eines Bereichs des Patienten, der außerhalb eines zu untersuchenden Bereichs des Patienten angeordnet ist, sowie eine medizinische Bildgebungsvorrichtung hierzu
DE19542605A1 (de) Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren
DE102020215559A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE10356010A1 (de) Verfahren und Vorrichtung zur Verarbeitung, zum Ansehen und Installieren von Befehlsinformationen, die von einer Einrichtung zur Manipulation von Bildern gesendet worden ist
EP3307159A1 (de) Verfahren sowie vorrichtung zur bestimmung einer gewollten bewegung einer gliedmasse
WO2023062231A1 (de) Operationssystem mit haptik
DE102021132665A1 (de) Operationssystem mit haptik

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication of lapse of patent is to be deleted
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee