DE10126587B4 - Elektronisches Endoskop - Google Patents

Elektronisches Endoskop Download PDF

Info

Publication number
DE10126587B4
DE10126587B4 DE10126587A DE10126587A DE10126587B4 DE 10126587 B4 DE10126587 B4 DE 10126587B4 DE 10126587 A DE10126587 A DE 10126587A DE 10126587 A DE10126587 A DE 10126587A DE 10126587 B4 DE10126587 B4 DE 10126587B4
Authority
DE
Germany
Prior art keywords
pixel
image
display
object image
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10126587A
Other languages
English (en)
Other versions
DE10126587A1 (de
Inventor
Hiroyuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Priority to DE10164935A priority Critical patent/DE10164935B4/de
Publication of DE10126587A1 publication Critical patent/DE10126587A1/de
Application granted granted Critical
Publication of DE10126587B4 publication Critical patent/DE10126587B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Abstract

Elektronisches Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind, sowie mit
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstellung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bildsensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige ausgibt,
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszustandes von normaler Darstellung auf vergrößerte Darstellung und umgekehrt, und
einem Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist,
wobei der Bilderzeugungsprozessor, wenn die Pixelzahl größer als die effektive Pixelzahl ist, während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der...

Description

  • Die Erfindung betrifft ein elektronisches Endoskop, das einen Videobeobachtungsteil mit einem Bildsensor und einem Videoprozessor hat. Im engeren Sinne betrifft die Erfindung eine vergrößerte Darstellung, die einen Teil eines auf einem Monitor dargestellten Bildes vergrößert.
  • Kürzlich wurde ein vergrößerndes elektronisches Endoskop entwickelt, das einen bestimmten Teil eines beobachteten Bildes, das auf einem Monitor dargestellt wird, vergrößern und das vergrößerte Bild darstellen kann. Das vergrößernde elektronische Endoskop hat eine optische oder eine elektrische Vergrößerungsfunktion.
  • Das optische Endoskop hat ein längs der optischen Achse bewegbares Varioobjektiv. Der bestimmte Teil des dargestellten Bildes wird durch Ansteuern des Varioobjektivs vergrößert, so dass das vergrößerte Teilbild auf dem Monitor dargestellt wird. In dem optischen Vergrößerungsverfahren nimmt die Bildqualität nicht ab. Bei einer optischen Vergrößerung des Bildes wird jedoch das Sehfeld schmal, und die Schärfentiefe nimmt ab, d.h. der Scharfstellbereich wird eng. Es bereitet deshalb Schwierigkeiten, den bestimmten Bildteil fortgesetzt im Sehfeld einzufangen, da das Handzittern, das der den Beobachtungsteil haltende Benutzer verursacht, oder die Bewegung bzw. das Zittern des Organs selbst das Bild beeinflussen.
  • Dagegen wird im elektrischen Vergrößerungsverfahren der bestimmte Teil zuverlässig eingefangen, da sich die Schärfentiefe nicht ändert. Da jedoch an dem ursprünglich dargestellten Bild ein Prozess vorgenommen wird, der Pixel interpoliert, nimmt die Bildqualität ab, so dass der vergrößerte Teil keiner genauen Diagnose unterzogen werden kann.
  • Aus der Druckschrift JP 1280438 A ist ein elektronisches Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor bekannt, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind. Das Endoskop umfasst ferner einen Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstellung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bildsensor erzeugt wird und aus im wesentlichen allen Pixeln des Bildsensors besteht, einen Signalprozessor, der Videosignale auf Grundlage dem Darstellungsobjekt entsprechender Bildpixelsignale erzeugt und an eine Anzeige ausgibt, sowie einen Darstellungsänderungsprozessor zum Wechseln des Darstellungszustandes von normaler Darstellung auf vergrößerte Darstellung und umgekehrt.
  • Aus der Druckschrift US 4 800 379 ist ein Abbildungssystem bekannt, bei dem die einem Bild entsprechenden digitalen Daten zum einen mit hoher Auflösung und zum anderen mit niedriger Auflösung gespeichert werden. Die hohe Auflösung entspricht dabei der Auflösung, mit der das ursprüngliche Bild zum Erzeugen der Daten abgetastet worden ist. Bei diesem Abbildungssystem kann ein Bildteil ausgewählt werden, worauf die diesem Bildteil entsprechenden digitalen Daten mit niedriger Auflösung auf einer Anzeige zur Darstellung gebracht werden. Innerhalb dieses Bildteils kann ein Bereich angegeben werden, der dann vergrößert und mit hoher Auflösung dargestellt wird.
  • Zum Stand der Technik wird ferner auf die Druckschrift JP 7322114 A verwiesen. Diese Druckschrift offenbart ein Anpassungsverfahren, mit dem Bilder eines hoch auflösenden Bildsensors auf einer üblichen, niedriger auflösenden Anzeige dargestellt werden. Hierzu wird eine Ausdünnung der Daten vorgenommen, oder es wird nur ein Teil des Bildbereichs ausgelesen.
  • Aufgabe der Erfindung ist es, ein elektronisches Endoskop anzugeben, das einen bestimmten Teil eines ursprünglichen Bildes ohne Verschlechterung der Bildqualität elektrisch vergrößert.
  • Die Erfindung löst diese Aufgabe durch das elektronische Endoskop mit den Merkmalen des Anspruchs 1 sowie durch eine Einrichtung mit den Merkmalen des Anspruchs 15. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Das erfindungsgemäße elektronische Endoskop enthält einen Videobeobachtungsteil mit Bildsensor, einen Videoprozessor und eine Anzeige. Der Videobeobachtungsteil, mit dem das Bild eines betrachteten Objektes eingefangen wird, ist lösbar an den Videoprozessor angeschlossen. Auch die Anzeige ist an den Videoprozessor angeschlossen. Das elektronische Endoskop hat einen Bilderzeugungsprozessor, einen Signalprozessor und einen Darstellungsänderungsprozessor. Auf Grundlage eines Allpixel-Objektbildes, das auf dem Bildsensor erzeugt wird und aus im Wesentlichen allen in dem Bildsensor vorgesehenen Pixeln besteht, erzeugt der Bilderzeugungsprozessor ein Darstellungsobjektbild, das auf einem Monitor dargestellt wird. Das Darstellungsobjektbild wird entsprechend einem Videostandard (Videoabtaststandard) erzeugt, von dem die Auflösung der Anzeige abhängt. Beispielsweise werden ein Farbfernsehstandard wie das NTSC- oder das PAL-Verfahren oder ein Computer-Videostandard wie der VGA- oder der SVGA-Standard angewendet. Der Signalprozessor erzeugt Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale und gibt sie an die Anzeige aus, so dass ein betrachtetes Bild, das dem von dem Bilderzeugungsprozessor erzeugten Bild entspricht, dargestellt wird.
  • Das erfindungsgemäße elektronische Endoskop hat eine Funktion zum Vergrößern eines bestimmten Teils des dargestellten betrachteten Bildes. Der Darstellungsänderungsprozessor wechselt den Darstellungszustand von normaler Darstellung auf vergrößerte Darstellung und umgekehrt. In der normalen Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild normaler Darstellung als Darstellungsobjektbild, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht. Bildauflösung oder Bildgröße des Objektbildes normaler Darstellung unterscheiden sich von denen des Allpixel-Objektbildes. In der vergrößerten Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild vergrößerter Darstellung als Darstellungsobjektbild, das aus Pixeln besteht, die innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordnet sind, so dass ein vergrößertes Bild dargestellt wird. Wird der elektronische Vergrößerungsprozess durchgeführt, so erhält man das vergrößerte Bild, ohne einen Interpolationsprozess durchführen zu müssen, der zu einer Verschlechterung der Bildqualität führt. Auf diese Weise kann ein erkrankter Körperteil einer genauen Diagnose unterzogen werden. Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild normaler Darstellung, indem er eine Abwärtsabtastung an dem Allpixel-Objektbild vornimmt.
  • Um ein Objektbild normaler Darstellung und ein Objektbild vergrößerter Darstellung mit hoher Bildqualität zu erhalten, ist vorzugsweise die Pixelzahl des Bildsensors größer als eine effektive Pixelzahl, die auf den angewendeten Videostandard bezogen ist. Die effektive Pixelzahl ergibt die Auflösung der Anzeige. Die effektive Pixelzahl stellt nämlich die Zahl der Pixel dar, die für ein Bild verwendet werden können. In dem NTSC-Verfahren beträgt die effektive Pixelzahl etwa 410000, und es kann ein Bildsensor mit mehr als einer Million Pixel vorteilhaft eingesetzt werden. Das Objektbild normaler Darstellung besteht aus einer ersten Anzahl von Pixeln und das Objektbild vergrößerter Darstellung aus einer zweiten Anzahl an Pixeln, wobei sowohl die erste als auch die zweite Anzahl kleiner als die effektive Pixelzahl ist. Der Bilderzeugungsprozessor kann Objektbilder normaler und ver größerter Darstellung mit einer Pixelzahl zusammensetzen, die nahe an die jeweiligen effektiven Pixelzahlen heranreicht, so dass sowohl in der normalen als auch in der vergrößerten Darstellung Bilder mit hoher Bildqualität erhalten werden.
  • Die Pixelzahl des in dem elektronischen Endoskop eingesetzten Bildsensors variiert mit dem Sensortyp oder der Fertigungszeit des Videobeobachtungsteils. Deshalb hat das elektronische Endoskop einen Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer als die effektive Pixelzahl ist. Ist dies der Fall, so erzeugt der Bildprozessor das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung. Ist dagegen die Pixelzahl des Bildsensors nicht größer als die effektive Pixelzahl, so erzeugt der Bilderzeugungsprozessor während der Normaldarstellung das Allpixel-Objektbild als Objektbild normaler Darstellung, und er erzeugt während der vergrößerten Darstellung das Objektbild vergrößerter Darstellung, indem er an dem Allpixel-Objektbild eine Interpolation vornimmt. Da in der normalen Darstellung eine Abwärtsabtastung nicht erfolgt, wenn die Pixelzahl klein ist, verschlechtert sich in der normalen Darstellung die Auflösung des betrachteten Bildes nicht.
  • Vorzugsweise hat das elektronische Endoskop eine Eingabevorrichtung, mit der der Benutzer einen zu vergrößernden Teil des betrachteten Bildes auswählt, das in der normalen Darstellung dargestellt wird. Die Eingabevorrichtung wird betätigt, um eine vorbestimmte Position in dem dem Objektbild normaler Darstellung entsprechenden Normalbild anzuzeigen. Bei Verwendung der Eingabevorrichtung hat das elektronische Endoskop einen Anzeigepixelprozessor. Der Anzeigepixelprozessor erfasst eine über die Eingabevorrichtung eingestellte Anzeigeposition und bestimmt ein der Anzeigeposition entsprechendes Anzeigepixel aus den Pixeln des Allpixel-Objektbildes. Der Bilderzeugungsprozessor erzeugt das Objektbild vergrößerter Darstellung, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den aus der zweiten Anzahl an Pixeln bestehenden Teilbereich festlegt.
  • Die Eingabevorrichtung ist beispielsweise eine Tastatur, die als Eingabegerät für das elektronische Endoskop dient. In diesem Fall hat das elektronische Endoskop einen Markierungsprozessor, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung an der vorbestimmten Position angezeigt wird. Die Tastatur ist an den Videoprozessor angeschlossen und hat Schiebetasten, um die Position der Anzeigemarkierung der Anzeige zu verschieben. Der Markierungsprozessor stellt die Position der Anzeigemarkierung in Abhängigkeit der Betätigung der Schiebetasten ein. Der Anzeigepixelprozessor erfasst dann die Position der Anzeigemarkierung als Anzeigeposition und bestimmt das Anzeigepixel aus der Position der Anzeigemarkierung.
  • Andererseits kann als Eingabevorrichtung auch ein Berührungsfeld verwendet werden. Dieses ist an den Videoprozessor angeschlossen und auf der Anzeige angeordnet. Das Berührungsfeld identifiziert eine Stelle, die von dem Benutzer berührt wird, und informiert den Videoprozessor entsprechend. Der Anzeigepixelprozessor erfasst die Berührungsstelle als Anzeigeposition und bestimmt das Anzeigepixel entsprechend.
  • Vorzugsweise ermittelt der Anzeigepixelprozessor, ob der aus der zweiten Anzahl an Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedingung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes wird. Kann der Teilbereich in dieser Weise nicht festgelegt werden, so ändert der Anzeigepixelprozessor die Anzeigepixelposition derart, dass ein Objektbild vergrößerter Darstellung, das aus der zweiten Anzahl an Pixeln besteht, erzeugt wird. Das Objektbild vergrößerter Darstellung besteht üblicherweise aus der zweiten Anzahl an Pixeln.
  • Vorzugsweise erzeugt der Bilderzeugungsprozessor das Darstellungsobjektbild in dem Videobeobachtungsteil. In diesem Fall erhält man einen Videoprozessor durch minimale Abwandlung des Aufbaus eines herkömmlichen Videoprozessors. Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild normaler Darstellung, indem er eine Abwärtsabtastung vornimmt. Die Abwärtsabtastung liest aus dem Bildsensor nur Bildpixelsignale aus, die in Pixeln erzeugt werden, durch die das Objektbild normaler Darstellung erzeugt wird. Ferner erzeugt der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung, indem er aus dem Bildsensor nur Bildpixelsignale ausliest, die in Pixeln erzeugt werden, die innerhalb des Teilbereichs angeordnet sind. Der zum Erzeugen des Darstellungsobjektbildes in dem Videobeobachtungsteil erforderliche Aufbau wird dadurch vereinfacht.
  • Vorzugsweise ist an einem Bedienteil des Videobeobachtungsteils ein Bedienelement angebracht, um die Position der Anzeigemarkierung zu verschieben. Der Markierungsprozessor stellt die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung des Bedienelementes ein. Der Anzeigepixelprozessor erfasst die Position der Anzeigemarkierung als Anzeigeposition und bestimmt das Anzeigepixel aus der Position der Anzeigemarkierung. Der Benutzer kann die Anzeigemarkierung durch Betätigen des Videobeobachtungsteils verschieben. Um dieses Betätigen besonders einfach zu gestalten, hat das Bedienelement vorzugsweise mehrere Drucktasten zum Verschieben der Anzeigemarkierung, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit der Betätigung der Drucktasten einstellt: Beispielsweise besteht das Bedienelement aus einer ersten, einer zweiten und einer dritten Drucktaste, die an einem verjüngt zulaufenden Endabschnitt des Bedienteils angeordnet sind. Die erste Drucktaste ist dabei an einer Fläche des zusammenlaufenden Endabschnittes angeordnet, während die zweite und die dritte auf einer anderen Fläche des Endabschnittes angeordnet sind. Die drei Drucktasten sind so angeordnet, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Daumen, Zeigefinger, Mittelfinger gleichzeitig betätigt werden können.
  • Gemäß einem weiteren Aspekt der Erfindung ist eine Einrichtung nach Anspruch 15 zum Darstellen eines normalen und eines vergrößerten Bildes vorgesehen, die enthalten ist in einem elektronischen Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einem Videoprozessor und einer Anzeige.
  • Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
  • 1 ein Blockdiagramm eines ersten Ausführungsbeispiels des elektronischen Endoskops,
  • 2 eine Darstellung eines auf einem Monitor normal und vergrößert dargestellten Bildes,
  • 3 eine schematische Darstellung zur Erläuterung einer Abwärtsabtastung,
  • 4 eine Darstellung eines Vergrößerungsprozesses,
  • 5 eine Darstellung zur Erläuterung, wie die Position eines Anzeigepixels eingegrenzt wird,
  • 6 ein Flussdiagramm einer Hauptroutine für den Betrieb des elektronischen Endoskops insgesamt,
  • 7 ein Flussdiagramm einer Unterroutine eines auf einen angeschlossenen Videobeobachtungsteil bezogenen Darstellungsprozesses,
  • 8 ein Flussdiagramm einer Unterbrechungsroutine eines Darstellungsänderungsprozesses,
  • 9 eine Darstellung eines in neun Bereiche unterteilten Bilderzeugungsbereichs,
  • 10 ein Flussdiagramm einer Unterroutine des Darstellungsprozesses,
  • 11 ein Blockdiagramm eines zweiten Ausführungsbeispiels des elektronischen Endoskops,
  • 12 ein Blockdiagramm eines dritten Ausführungsbeispiels des elektronischen Endoskops,
  • 13 einen Bedienteil eines Videobeobachtungsteils, und
  • 14 ein Flussdiagramm mit einem Prozess zum Verschieben eines Zeigers.
  • Im Folgenden werden bevorzugte Ausführungsbeispiele unter Bezugnahme auf die Figuren beschrieben.
  • 1 zeigt ein Blockdiagramm eines elektronischen Endoskops, das ein erstes Ausführungsbeispiel darstellt. 2 zeigt ein auf einem Monitor dargestelltes Bild.
  • In dem elektronischen Endoskop sind ein Videobeobachtungsteil 10, ein Videoprozessor 20 und ein Fernseh- oder TV-Monitor 50 vorgesehen. Der Monitor 50 ist an den Videoprozessor 20 angeschlossen. Der Videobeobachtungsteil 10 ist lösbar und austauschbar mit dem Videoprozessor 20 verbunden. Das elektroni sche Endoskop wird in einer Operation, einer Untersuchung oder einer Behandlung eines Organs, z.B. des Magens, in der Weise benutzt, dass der Videobeobachtungsteil 10 in den Körper eingeführt wird. Eine CPU 36, die in einer in dem Videoprozessor 20 enthaltenen Systemsteuerschaltung 34 vorgesehen ist, steuert das gesamte elektronische Endoskop.
  • Eine in dem Videoprozessor 20 vorgesehene Lichtquelle 29 strahlt Licht ab, das über eine Blende 30 und eine Sammel- oder Kondensorlinse 31 auf eine Eintrittsfläche 13a eines Lichtleiters 13 gerichtet ist. Die Lichtquelle 29 ist eine Halogenlampe. Der in dem Videobeobachtungsteil 10 vorgesehene Lichtleiter 13 ist ein optisches Lichtleitfaserbündel, das das Licht aus der Lichtquelle 29 auf das distale Ende des Videobeobachtungsteils 10 führt. Das in die Eintrittsfläche 13a eintretende Licht durchläuft den Lichtleiter 13 und wird aus dessen distalem Ende 13b über eine Zerstreuungslinse 14 auf ein Objekt S gestrahlt, so dass dieses beleuchtet wird.
  • Das an dem Objekt S reflektierte Licht erreicht über eine Objektivlinse 11 eine ladungsgekoppelte Vorrichtung 12, kurz CCD, die einen Bildsensor darstellt. Dabei wird auf der CCD 12 das Objektbild erzeugt. Auf einer auf der CCD 12 vorgesehenen Lichtempfangsfläche sind mehrere, nicht dargestellte Fotosensoren oder Fotodioden regelmäßig angeordnet. Jede Fotodiode entspricht dabei einem Pixel der CCD 12. Da in dem vorgestellten Ausführungsbeispiel ein Einchip-Filterverfahren als Farbaufnahmeverfahren angewendet wird, befindet sich vor den regelmäßig angeordneten Fotodioden ein nicht dargestelltes Einchip-Komplementärfarbfilter. Wird das Objektbild auf der Lichtempfangsfläche der CCD 12 erzeugt, so werden durch den Fotoeffekt analoge Bildpixelsignale entsprechend dem durch das Farbfilter tretenden Licht erzeugt. Die Pixelzahl der CCD 12 beträgt dabei etwa 1200000.
  • In diesem Ausführungsbeispiel kann als Darstellungszustand entweder eine normale Darstellung oder eine vergrößerte Darstellung gewählt werden. Als Videostandard (Videoabtaststandard) wird das NTSC-Verfahren angewendet. Der Monitor 50 ist auf das NTSC-Verfahren ausgelegt. Die Auflösung des Monitors 50, also die maximale Anzahl an Pixeln, die der Monitor 50 nutzen kann, entspricht deshalb dem NTSC-Verfahren und beträgt etwa 410000.
  • In der normalen Darstellung werden Bildpixelsignale, die in 300000 in der CCD 12 vorgesehenen Pixeln erzeugt werden, aus der CCD 12 ausgelesen. Eine Bildwandlerschaltung 70, die einen CCD-Treiber 16 enthält, erzeugt entsprechend einem auf der CCD 12 erzeugten optischen Objektbild ein auf dem Monitor 50 darzustellendes Bild. Die CCD 12 wird durch den CCD-Treiber 16 angesteuert, indem Treibersignale nicht dargestellten Ladungsübertragungsregistern zugeführt werden, die in der CCD 12 vorgesehen sind. In der normalen Darstellung werden Bildpixelsignale (erste Bildpixelsignale), die in etwa 300000 von 1200000 Pixeln erzeugt werden, aus der CCD 12 ausgelesen. Die Treibersignale für die Ladungstransferregister sind so eingestellt, dass lediglich Ladungen, die an den 300000 Pixeln erzeugt werden, an die Ladungsübertragungsregister übertragen werden. So wird ein (1) Rahmen (Rahmen/Feld-Wert) Bildpixelsignale entsprechend einem aus etwa 300000 Pixeln bestehenden Objektbild der Bildwandlerschaltung 17 als Farbbildsignale zugeführt. Die Bildwandlerschaltung 17 steuert die Treibersignale, die der CCD 12 von dem CCD-Treiber 16 zugeführt werden, in Abhängigkeit eines Steuersignals, das die Systemsteuerschaltung 34 liefert. Der eine Rahmen (Rahmenwert) Bildpixelsignale wird einer CCD-Verarbeitungsschaltung, kurz CCD-Schaltung, 21 über die Bildwandlerschaltung 17 zugeführt. Da das NTSC-Verfahren angewendet wird, wird der eine Rahmen (Rahmenwert) der Bildpixelsignale in 1/30(1/60)-Sekundenintervallen aus der CCD 12 ausgelesen.
  • In der CCD-Schaltung 21 werden die zugeführten Bildpixelsignale einigen Prozessen unterzogen, z.B. einer Rauschverringerung. Der eine (1) Rahmen Bildpixelsignale wird in Primärfarbbildsignale gewandelt, die aus Rot-Signalkomponenten ((R), Grün-Signalkomponenten (G) und Blau-Signalkomponenten (B) bestehen. Die Primärfarbbildsignale sind jeweils in die R-, G-, B-Signalkomponenten unterteilt. Die analogen Primärfarbbildsignale werden in einem A/D-Wandler 22 in digitale Farbsignale gewandelt. Die digitalen Farbsignale werden in einem Bildspeicher 23 temporär gespeichert. Die gespeicherten digitalen Farbbildsignale werden aus dem Bildspeicher 23 einem D/A-Wandler 25 zugeführt, in dem die digitalen Bildsignale in analoge Bildsignale gewandelt werden. Die analogen Bildsignale werden einer Videoverarbeitungsschaltung, kurz Videoschaltung, 26 zugeführt, in der sie in Videosignale wie zusammengesetzte NTSC-Signale umgesetzt werden.
  • In einer Datensichtgerät- oder CRT-Steuerung 24, die im Folgenden kurz als CRTC bezeichnet wird und einen nicht dargestellten Zeichengenerator-ROM enthält, um Zeicheninformationen und eine Anzeigemarkierung wie einen Zeiger auf dem Monitor darzustellen, werden Zeichensignale erzeugt und ausgegeben. Die von der CRTC 24 ausgegebenen Zeichensignale werden den von dem Bildspeicher 23 ausgegebenen Videosignalen überlagert. In der Systemsteuerschaltung 34 werden Zeichensteuersignale zum Erzeugen der Zeichensignale an die CRTC 24 ausgegeben. Die zeitliche Festlegung, d.h. das Timing der Ausgabe der Zeichensignale wird über die Systemsteuerschaltung 34 so eingestellt, dass die Zeicheninformation und/oder die Anzeigemarkierung an vorgegebenen Positionen dargestellt werden.
  • Die Videosignale werden dem Monitor 50 der Reihe nach entsprechend dem NTSC-Verfahren zugeführt. Auf diese Weise wird ein beobachtetes Bild im normalen Darstellungsmodus innerhalb eines auf dem Monitor 50 vorgesehenen Bildbereichs dargestellt (vgl. 2). Im Folgenden wird dieses im normalen Darstellungsmodus dargestellte Bild als "Normalbild" bezeichnet. Die Pixelzahl in dem Bildbereich NA beträgt etwa 300000, was der Zahl der Pixel entspricht, aus denen die Bildpixelsignale ausgelesen werden.
  • In einem elektrisch löschbaren programmierbaren Festwertspeicher 15, kurz EEPROM, der in dem Videobeobachtungsteil 10 vorgesehen ist, werden im voraus auf den Typ des Videobeobachtungsteils 10 bezogene Daten wie die Pixelzahl und die Pixelanordnung gespeichert. Ist der Videobeobachtungsteil 10 an den Videoprozessor 20 angeschlossen, so werden die Daten aus dem EEPROM 15 ausgelesen und der Systemsteuerschaltung 34 zugeführt. In der Systemsteuerschaltung 34 sind ein Positionierspeicher 35, eine CPU 36, ein ROM 37 und ein RAM 38 vorgesehen. Die aus dem EEPROM 15 ausgelesenen Daten werden temporär in dem RAM 38 gespeichert. Die Größe des Bildbereichs NA ist entsprechend der Pixelzahl der CCD 12 und dem Videostandard vorbestimmt. Die auf den Bildbereich NA und die Pixelanordnungsdaten der CCD 12 bezogenen Daten werden temporär in dem Positionierspeicher 35 gespeichert.
  • In der normalen Darstellung wird ein Zeiger P dargestellt, der einen bestimmten Teil in dem Normalbild anzeigt. Die Anzeigeposition des Zeigers P wird über eine Tastatur 51 verschoben.
  • Wird ein auf der Tastatur 51 vorgesehenes Schiebetastenfeld 51E betätigt, das aus einer Aufwärts-Taste 51U, einer Abwärts-Taste 51D, einer Rechts-Taste 51R und einer Links-Taste 51L besteht, so wird der Systemsteuerschaltung 34 ein der betätigten Taste zugeordnetes Betätigungssignal zugeführt. Basierend auf diesem Betätigungssignal, in dem die Positionsdaten des zu verschiebenden Zeigers P enthalten sind, wird das Zeichensteuersignal der CRTC 24 von der Systemsteuerschaltung 34 zugeführt, so dass der Zeiger P in eine der betätigten Schiebetaste entsprechende Richtung verschoben wird. Der Zeiger P wird also nach oben, nach unten, nach links oder nach rechts verschoben. Eine Funktionstaste 51F dient der Änderung des Darstellungszustandes, nämlich dem Wechsel zwischen der normalen Darstellung und der vergrößerten Darstellung. Wird die Funktionstaste 51F betätigt, wenn das Normalbild und der Zeiger P auf dem Monitor 50 dargestellt werden, so wird ein vergrößertes Bild, das ein vergrößertes Bild des bestimmten Bildteils ist, so dargestellt, dass die durch den Zeiger P angezeigte Position zum Mittelpunkt des vergrößerten Bildes wird, wie 2 zeigt. Das Bild des bestimmten Bildteils wird im Folgenden als "vergrößertes Bild" bezeichnet. In diesem Fall werden Bildpixelsignale, die an dem vergrößerten Bild entsprechenden Pixeln erzeugt werden, aus der CCD 12 entsprechend den Treibersignalen ausgelesen, die aus dem in der Bildwandlerschaltung 17 vorgesehenen CCD-Treiber 16 stammen. Wird die Funktionstaste 51F nochmals betätigt, so wechselt die Darstellung aus der vergrößerten Darstellung zurück in die normale Darstellung.
  • Ähnlich wie bei einem herkömmlichen elektronischen Endoskop wird die Position des Zeigers P von der Systemsteuerschaltung 34 so gesteuert, dass sich der Zeiger P nicht aus dem Bildbereich NA herausbewegt. Die Systemsteuerschaltung 34 führt der CRTC 24 das Steuersignal auf Grundlage der in dem Positionierspeicher 35 gespeicherten, auf den Bildbereich NA bezogenen Daten und des Betätigungssignals zu.
  • Ein Taktgenerator 28 gibt einen Taktimpuls an jede Schaltung, nämlich die CCD-Schaltung 21, den Bildspeicher 23, die CRTC 24, die Videoschaltung 26 etc. aus, wodurch in jeder Schaltung die zeitliche Festlegung, d.h. das Timing der Signaleingabe und -ausgabe gesteuert wird. In der CCD-Schaltung 21 werden aus den Bildpixelsignalen die Luminanzsignale erzeugt und über den A/D-Wandler 22 der Systemsteuerschaltung 34 zugeführt. Auf Grundlage der Luminanzsignale gibt die Systemsteuerschaltung 34 ein Steuersignal für die Blende 30 an die Blendensteuerung 33 aus. Die Blendensteuerung 33 führt einem Motor 32 ein Treibersignal zu, um ihn so anzusteuern, dass er die Blende 30 öffnet oder schließt und so die Lichtmenge gesteuert wird, mit der das Objekt S beleuchtet wird.
  • 3 zeigt eine Pixelanordnung (Fotosensoranordnung) in der CCD 12.
  • Das auf der CCD 12 vorgesehene Komplementärfarbfilter CC ist ein Mosaikfarbfilter, bei dem die Farben Cyan (Cy), Magenta (Mg), Gelb (Ye) und Grün (G) schachbrettartig angeordnet sind. Das Farbfilter CC ist in mehrere Blöcke B unterteilt, die jeweils aus vier Farbelementen (Cy, Mg, Ye, G) bestehen. Die auf dem Farbfilter CC vorgesehene Anordnung entspricht der Pixelanordnung der CCD 12. In diesem Ausführungsbeispiel wird als Ladungsübertragungsverfahren das Zwischenleitungsübertragungsverfahren (Interline-Übertragungsverfahren) angewendet. So sind vertikale Register längs Spalten in der Pixelanordnung zwischen zwei einander benachbarten vertikalen Pixelanordnungen (nicht gezeigt) vorgesehen. Außerdem sind horizontale Register unterhalb der Pixelanordnung regelmäßig angeordnet (nicht gezeigt). In 3 sind zur Vereinfachung der Erläuterung nur die Pixelanordnung und die Filteranordnung gezeigt, wobei die einzelnen Pixel mit Pij bezeichnet sind. Die linke Ecke der Pixelanordnung ist als Ursprung festgelegt. Der Index j gibt die Pixelposition in vertikaler Richtung und der Index i die Pixelposition in horizontaler Richtung an. In 3 sind auch die Positionen der Farbfilterelemente durch entsprechende Indizes angegeben. In der Pixelanordnung sind in horizontaler Richtung M Pixel und in vertikaler Richtung N Pixel angeordnet.
  • In der normalen Darstellung wird eine "Abwärtsabtastung", d.h. eine Pixelzahltransformation oder Bildgrößentransformation vorgenommen. Wie oben erläutert, werden im Zustand der normalen Darstellung etwa 300000 Pixel abgetastet, um das Objektbild zu erzeugen. Um 300000 Pixel von 1200000 auf der CCD 12 vorgesehenen Pixeln abzutasten, wird eines von vier Pixeln entsprechend den benachbarten vier Elementen gleicher Farbe abgetastet, und es werden nur die in den abgetasteten Pixeln erzeugten Ladungen an die vertikalen Register übertragen. Die in den übrigen drei Pixeln erzeugten Ladungen werden nicht an die vertikalen Register übertragen. Dieser Prozess wird an den benachbarten vier Pixeln entsprechend den benachbarten vier Elementen gleicher Farbe und weiter an allen Farbelementen (Cy, Mg, Ye, G) vorgenommen.
  • In 3 ist eine Pixelanordnung gezeigt, die aus den abgetasteten Pixeln besteht (300000 Pixeln). Bezeichnet man das abgetastete Pixel mit P'ji, so erhält man P'ji nach einer der folgenden vier Formeln. Entsprechend der Pixelanordnung in der CCD 12 gibt der Index j die Position der abgetasteten Pixel in vertikaler Richtung und der Index i die Position der abgetasteten Pixel in horizontaler Richtung an. P'ji; = Pji (j<2, i<2) (1) P'ji = Pj+2,i (j≥2, i<2) (2) P'ji = Pj,i+2 (j<2, i≥2) (3) P'ji = Pj+2,i+2 (j≥2, i≥2) (4)
  • Beispielsweise wird unter den Pixeln P00, P02, P20, P22, die den benachbarten Cyan-Farbelementen Cy11, Cy12, Cy21, Cy22 entsprechen, das dem Cyan-Farbelement Cy11 entsprechende Pixel P00 als Pixel P'00 gemäß Formel (1) abgetastet. Entsprechend wird unter den Pixeln P54, P56, P74, P76, die den einander benachbarten Gelb-Farbelementen Ye33, Ye34, Ye43, Ye44 entsprechen, das dem Gelb-Farbelement Ye33 entsprechende Pixel P54 gemäß Formel (4) als Pixel P'32 abgetastet. Die Formeln (1) bis (4) sind entsprechend der Anordnung des Farbfilters CC definiert. Wird ein anderer Typ von Farbelement (z.B. R, G, B) oder ein anderes Anordnungsverfahren des Farbfilters angewendet, so ändern sich die Formeln (1) bis (4) entsprechend.
  • Die Abwärtsabtastung wird an den 1200000 Pixeln vorgenommen, so dass das Objektbild auf der CCD 12 in ein Bild transformiert wird, das aus etwa 300000 Pixeln besteht. In der Pixelanordnung des transformierten Objektbildes sind in horizontaler Richtung m Pixel und in vertikaler Richtung n Pixel angeordnet. Da der Ähnlichkeitsfaktor ¼ beträgt, ist m gleich M/2 und n gleich N/2. Das auf der CCD 12 erzeugte Objektbild, das aus allen in der CCD 12 vorgesehenen Pixeln besteht, wird im Folgenden als "Allpixel-Objektbild" bezeichnet, während das aus den etwa 300000 abgetasteten Pixeln bestehende Objektbild im Folgenden als "Objektbild normaler Darstellung" bezeichnet wird.
  • 4 zeigt einen Vergrößerungsprozess. Hierbei wird die Position des Zeigers P auf dem Monitor 50 durch Monitorkoordinaten (X, Y) dargestellt. X bezeichnet die Position in horizontaler Richtung und Y die Position in vertikaler Richtung. Die Pfeilspitze des Zeigers P stellt die Anzeigepixelposition dar. Im Folgenden wird ein Bereich auf der CCD 12, innerhalb dessen das Allpixel-Objektbild erzeugt wird, als Bilderzeugungsbereich TI bezeichnet.
  • Wie oben erläutert, wird im Zustand der normalen Darstellung das auf der CCD 12 erzeugte Allpixel-Objektbild durch die Abwärtsabtastung in das Objektbild normaler Darstellung transformiert. Das Objektbild normaler Darstellung wird dann auf dem Monitor 50 dargestellt. Auf dem Monitor 50 wird der Zeiger P durch Betätigen des ersten Feldes 51E an vorgegebenen Koordinaten (X0, Y0) positioniert. In der Systemsteuerschaltung 34 wird die Position des Zeigers P über das von dem Tastenfeld 51E gelieferte Betätigungssignal erfasst, das eine Information über die verschobene Position des Zeigers P enthält.
  • Drückt der Benutzer die Funktionstaste 51F, so wird der nachfolgend beschriebene Vergrößerungsprozess durchgeführt.
  • Zunächst wird in der Pixelanordnung des Objektbildes normaler Darstellung ein Pixel P'c, das der Position des Zeigers P entspricht, über die Koordinaten (X0, Y0) und die in dem Positionierspeicher 35 gespeicherten Bildbereichsdaten erfasst. Wie in 3 gezeigt, erhält man das Pixel P'ji in dem Objektbild normaler Darstellung über eine der Formeln (1) bis (4). Über die Formeln (1) bis (4) erhält man deshalb ein Pixel in dem Allpixel-Objektbild entsprechend dem Pixel P'c, d.h. den Koordinaten (X0, Y0) des Zeigers P. Das vorstehend genannte Pixel in dem Allpixel-Objektbild wird durch ein Anzeigepixel Pc und die Position dieses Anzeigepixels Pc in dem Bilderzeugungsbereich TI durch Koordinaten (K, H) dargestellt. Pc ist nämlich PK,H.
  • Dann wird ein Teilbereich PI, der einen Teil des Bilderzeugungsbereichs TI bildet, festgelegt. Das Anzeigepixel Pc wird zum Mittelpunkt des Teilbereichs PI. In diesem Ausführungsbeispiel ist der dem Teilbereich PI entsprechende Teil des Allpixel-Objektbildes als ein Bild festgelegt, das im Betriebszustand vergrößerter Darstellung erzeugt wird. Das Teilbild, das aus in dem Teilbereich PI angeordneten Pixeln besteht, wird als "Objektbild vergrößerter Darstellung" bezeichnet. In diesem Ausführungsbeispiel ist die Größe des Normalbereichs NA auf dem Monitor 50 im Wesentlichen gleich der Größe des Vergrößerungsbereichs MA. So ist nämlich die Pixelzahl des Objektbildes vergrößerter Darstellung gleich der des Objektbildes normaler Darstellung. Um das Objektbild vergrößerter Darstellung zu erzeugen, wird der Teilbereich PI, in dem 300000 Pixel angeordnet sind, so festgelegt, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs PI wird. Die Pixelzahl ist in horizontaler Richtung gleich m (=M/2) und in vertikaler Richtung gleich n (=N/2). Die Systemsteuerschaltung 34 führt der Bildwandlerschaltung 17 ein Steuersignal entsprechend den in dem Positionierspeicher 35 gespeicherten Pixelanordnungsdaten zu, so dass Treibersignale, die den Pixeln für das Objektbild vergrößerter Darstellung entsprechen, an die CCD 12 ausgegeben werden. So werden nur die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs P erzeugt werden, aus der CCD 12 ausgelesen, und das vergrößerte Bild wird innerhalb des Bildbereichs MA dargestellt.
  • Es können auch andere Ähnlichkeitsfaktoren verwendet werden. Ist die Pixelzahl der CCD 12 gleich D und die des Objektbildes normaler Darstellung gleich U, so ist der Ähnlichkeitsfaktor gleich D/U. Der Wert U ist ≤ etwa 410000. In diesem Fall sind die Formeln (1) bis (4) entsprechend dem Ähnlichkeitsfaktor zu ändern. Der Kehrwert des Ähnlichkeitsfaktors kann gleich einer anderen Ganzzahl sein, z.B. 1/4, ähnlich dem vorliegenden Ausführungsbeispiel, oder aber er kann eine rationale Zahl sein, z.B. 2/7. Ist dies der Fall, werden die den anderen Ganzzahlen oder den rationalen Zahlen entsprechenden Abwärtsabtastungen vorgenommen, die aus dem Stand der Technik bekannt sind. Um ein hochaufgelöstes Normalbild in der normalen Darstellung zu erhalten, kann der Bilderzeugungsprozessor das Objektbild normaler Darstellung erzeugen, indem das aus dem Stand der Technik bekannte Mittelungsverfahren durchgeführt wird, bei dem ein Mittel benachbarter Pixel, die den einander benachbarten Elementen gleicher Farbe entsprechen, berechnet wird.
  • 5 zeigt, wie die Position des Anzeigepixels Pc eingegrenzt wird.
  • Wie oben erläutert, hat der Teilbereich PI m × n (=300000) Pixel, so dass das Anzeigepixel Pc zum Mittelpunkt des Teilbereichs P wird. Für die horizontale Richtung sind von der Position des Anzeigepixels Pc aus m/2 Pixel in positiver Richtung und m/2 Pixel in negativer Richtung angeordnet. Entsprechend sind für die vertikale Richtung von der Position des Anzeigepixels Pc aus n/2 Pixel in positiver Richtung und n/2 Pixel in negativer Richtung angeordnet. Befindet sich das Anzeigepixel Pc, das entsprechend der Position des Zeigers P festgelegt ist, nahe dem Umriss des Bilderzeugungsbereichs TI, so kann der Teilbereich PI nicht festgelegt und damit das Objektbild vergrößerter Darstellung nicht erzeugt werden. Befindet sich, wie beispielhaft in 5 gezeigt, die Koordinate (K, H) des Anzeigepixels Pc näher dem Ursprung (0,0) als die Koordinate (m/2, n/2), so befindet sich ein Teil des Teilbereichs PI außerhalb des Bilderzeugungsbereichs TI, wie durch die Schraffur angedeutet ist.
  • In diesem Ausführungsbeispiel wird der Bilderzeugungsbereich TI, wie später erläutert wird, in neun Bereiche unterteilt, und dann der Teilbereich PI entsprechend den neun Bereichen und der Position des Anzeigepixels Pc festgelegt.
  • 6 ist ein Flussdiagramm einer Hauptroutine, die auf den Betrieb des elektronischen Endoskops insgesamt bezogen ist und von der in der Systemsteuerschaltung 34 vorgesehenen COU 36 ausgeführt wird. Wird die elektrische Energieversorgung eingeschaltet, so beginnt der Prozess.
  • In Schritt 101 werden die Lichtquelle 29, die Blende 30 etc. initialisiert. In Schritt 102 wird ein auf den Videobeobachtungsteil 10 bezogener Darstellungsprozess ausgeführt. In Schritt 103 werden weitere Prozesse ausgeführt, z.B. ein Prozess zur Datumsanzeige. Die vorstehend genannten Prozesse werden so lange ausgeführt, bis die elektrische Energieversorgung ausgeschaltet wird.
  • 7 zeigt die Unterroutine des Schrittes 102 nach 6. Die in dem Videobeobachtungsteil 10 vorgesehene, in den 1 bis 5 gezeigte CCD 12 hat etwa 1200000 Pixel. Es können jedoch auch andere Typen von Videobeobachtungsteilen an den Videoprozessor 20 angeschlossen werden, die eine andere Anzahl von Pixeln haben. Ist in diesem Ausführungsbeispiel die Pixelzahl der in dem Videobeobachtungsteil 10 vorgesehenen und an den Videoprozessor 20 angeschlossenen CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird die Abwärtsabtastung in dem Betriebszustand normaler Darstellung nicht durchgeführt, und in dem Betriebszustand vergrößerter Darstellung wird eine Interpolation vorgenommen.
  • In Schritt 201 wird ermittelt, ob der Videobeobachtungsteil 10 an den Videoprozessor 20 angeschlossen ist. Ist dies nicht der Fall, d.h. ist der Videobeobachtungsteil abgenommen, um einen Videobeobachtungsteil anderen Typs anzu schließen, endet diese Unterroutine. Wird dagegen ermittelt, dass der Videobeobachtungsteil 10 an den Videoprozessor 20 angeschlossen ist, so fährt der Steuerablauf mit Schritt 202 fort. In Schritt 202 wird auf Grundlage der auf die Pixelzahl bezogenen Daten, die aus dem EEPROM 15, der in dem an dem Videoprozessor 20 angeschlossenen Videobeobachtungsteil 10 vorgesehen ist, ausgelesen werden, ermittelt, ob die Pixelzahl der CCD 12 größer als die effektive Pixelzahl ist, die auf das NTSC-Verfahren ausgelegt ist (410000 Pixel).
  • Wird in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 203 fort, in dem die Abwärtsabtastung oder die Pixelzahltransformation erfolgt. So werden die Bildpixelsignale, die in Pixeln entsprechend dem Objektbild normaler Darstellung erzeugt werden, aus der CCD 12 ausgelesen. In Schritt 204 werden aus den ausgelesenen Bildpixelsignalen die Videosignale erzeugt und von der Videoschaltung 26 an den Monitor 50 übertragen, wobei auf dem Monitor 50 das Normalbild dargestellt wird, das dem Objektbild normaler Darstellung entspricht. Nach Ausführen des Schrittes 204 endet die Unterroutine.
  • Wird dagegen in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 nicht größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 205 fort. In Schritt 205 werden die in allen Pixeln der CCD 12 erzeugten Bildpixelsignale ausgelesen, deren Zahl kleiner als die effektive Pixelzahl ist. In diesem Fall wird das Allpixel-Objektbild das Objektbild normaler Darstellung. In Schritt 206 werden die dem Allpixel-Objektbild entsprechenden Videosignale erzeugt und dem Monitor 50 zugeführt, so dass auf letzterem das Normalbild dargestellt wird.
  • 8 ist ein Flussdiagramm einer Unterbrechungsroutine eines Prozesses zum Ändern der Darstellung zwischen vergrößerter und normaler Darstellung. 9 zeigt den Bilderzeugungsbereich TI.
  • In Schritt 301 wird ermittelt, ob die Funktionstaste 51F im Betriebszustand der normalen Darstellung gedrückt wird. Es wird also ermittelt, ob die Funktionstaste 51F gedrückt wird, um von der normalen Darstellung auf die vergrößerte Darstellung zu wechseln.
  • Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F im Betriebszustand der normalen Darstellung gedrückt wird, so fährt der Prozess mit Schritt 302 fort. In Schritt 302 wird ermittelt, ob die Pixelzahl der in dem Videobeobachtungsteil 10 vorgesehenen CCD 12 die effektive Pixelzahl von etwa 410000 überschreitet.
  • Wird in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 die effektive Pixelzahl überschreitet, so fährt der Prozess mit Schritt 303 fort, worin die die Position des Zeigers P darstellenden Monitorkoordinaten (X0, Y0) erfasst werden. Auf Grundlage der Monitorkoordinaten (X0, Y0) wird das Anzeigepixel Pc in dem Bilderzeugungsbereich TI spezifiziert, und man erhält in oben erläuterter Weise die Koordinate (K, H) des Anzeigepixels Pc in dem Bilderzeugungsbereich TI. Nach Ausführen des Schrittes 303 fährt der Prozess mit Schritt 304 fort.
  • Wie in 9 gezeigt, ist der Bilderzeugungsbereich TI in neun Bereiche UA1, UA2, UA3, UA4, UA5, UA6, UA7, UA8 und CA unterteilt. Befindet sich das Anzeigepixel Pc in dem Bereich CA, so kann der Teilbereich PI mit seinen m × n Pixeln so festgelegt werden, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs PI wird. Befindet sich dagegen das Anzeigepixel Pc in einem der anderen Bereiche UA1 bis UA8, so wird das Anzeigepixel Pc, das den Mittelpunkt des Teilbereichs PI bilden soll, in ein modifiziertes Pixel P'c geändert, das auf dem Umriss des Bereichs CA angeordnet ist. Dann wird der Teilbereich PI festgelegt, dessen Mittelpunkt das modifizierte Anzeigepixel P''c ist.
  • In Schritt 304 wird ermittelt, ob die Koordinate K in horizontaler Richtung die folgende Formel erfüllt: 0 ≤ K < m/2 (5)
  • Es wird also ermittelt, ob das Anzeigepixel Pc in einem der Bereiche UA1, UA2 und UA3 angeordnet ist.
  • Wird festgestellt, dass die Formel (5) erfüllt ist, so fährt der Prozess mit Schritt 305 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt: 0 ≤ H < n/2 (6)
  • Es wird also ermittelt, ob das Anzeigepixel Pc in dem Bereich UA1 liegt.
  • Wird in Schritt 305 festgestellt, dass die Formel (6) erfüllt ist, d.h. das Anzeigepixel Pc in dem Bereich UA1 angeordnet ist, so fährt der Steuerablauf mit Schritt 307 fort. In Schritt 307 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (m/2, n/2) angeordnetes Pixel geändert, das als modifiziertes Anzeigepixel P''c festgelegt wird. Nach Ausführen des Schrittes 307 fährt der Prozess mit Schritt 321 fort.
  • Wird dagegen in Schritt 305 festgestellt, dass die Bedingung (6) nicht erfüllt ist, so fährt der Prozess mit Schritt 306 fort. In Schritt 306 wird ermittelt, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt: 0/2 ≤ H ≤ N – n/2 (7)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA2 befindet.
  • Wird in Schritt 306 festgestellt, dass die Formel (7) erfüllt ist, d.h. sich das Anzeigepixel Pc in dem Bereich UA2 befindet, so fährt der Prozess mit Schritt 308 fort. In Schritt 308 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein auf der linken Umrissseite des Bereichs CA, d.h. in den Koordinaten (m/2, H) liegenden Pixel geändert, das als modifiziertes Anzeigepixel P''c definiert wird. Nach Ausführen des Schrittes 308 fährt der Prozess mit Schritt 321 fort.
  • Wird dagegen in Schritt 306 festgestellt, dass die Formel (7) nicht erfüllt ist, d.h. das Anzeigepixel Pc in dem Bereich UA3 liegt, so fährt der Prozess mit Schritt 309 fort. In Schritt 309 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (m/2, N-n/2) angeordnetes Pixel geändert, das als modifiziertes Anzeigepixel P''c definiert wird. Nach Ausführen des Schrittes 309 fährt der Prozess mit Schritt 321 fort.
  • Wird in Schritt 304 festgestellt, dass die Formel (6) nicht erfüllt ist, d.h. sich das Anzeigepixel Pc nicht in einem Bereiche UA1, UA2 und UA3 befindet, so fährt der Prozess mit Schritt 310 fort. In Schritt 310 wird ermittelt, ob die Koordinate K längs der horizontalen Richtung die folgende Formel erfüllt: M/2 ≤ K ≤ M – m/2 (8)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc in einem der Bereiche UA4, UA5 und CA befindet.
  • Wird in Schritt 310 festgestellt, dass die Formel (8) erfüllt ist, so fährt der Prozess mit Schritt 311 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt: 0 ≤ H < n/2 (9)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA4 befindet.
  • Wird in Schritt 311 festgestellt, dass die Formel (9) erfüllt ist, d.h. sich das Anzeigepixel Pc in dem Bereich UA4 befindet, so fährt der Prozess mit Schritt 313 fort. In Schritt 313 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc auf ein auf der oberen Umrisslinie des Bereichs CA, d.h. in den Koordinaten (K, n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P''c festgelegt wird. Nach Ausführen des Schrittes 313 fährt der Prozess mit Schritt 321 fort.
  • Wird dagegen in Schritt 311 festgestellt, dass die Formel (9) nicht erfüllt ist, so fährt der Prozess mit Schritt 312 fort. In Schritt 312 wird ermittelt, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt: n/2 ≤ H ≤ N – n/2 (10)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich CA befindet.
  • Wird in Schritt 312 festgestellt, dass die Formel (10) erfüllt ist, so fährt der Prozess mit Schritt 314 fort, worin das Anzeigepixel Pc in den Koordinaten (K, H) nicht geändert und direkt als Mittelpunkt des Teilbereichs PI festgelegt wird. Nach Ausführen des Schrittes 314 fährt der Prozess mit Schritt 321 fort. Wird dagegen in Schritt 312 festgestellt, dass die Formel (10) nicht erfüllt ist, d.h. sich das Anzeigepixel Pc in dem Bereich UA5 befindet, so fährt der Prozess mit Schritt 315 fort. In Schritt 315 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc auf ein auf der unteren Umrisslinie des Bereichs CA, d.h. in den Koordinaten (K, N-n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P''c definiert wird. Nach Ausführen des Schrittes 315 fährt der Prozess mit Schritt 321 fort.
  • Wird in Schritt 310 festgestellt, dass die Formel (8) nicht erfüllt ist, d.h. sich das Anzeigepixel Pc in keinem der Bereiche UA4, UA5 und CA, sondern in einem der Bereiche UA6, UA7, UA8 befindet, so fährt der Prozess mit Schritt 316 fort. In Schritt 316 wird ermittelt, ob die Koordinate H längs der horizontalen Richtung die folgende Formel erfüllt: 0 ≤ H < n/2 (11)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc im Bereich UA6 befindet.
  • Wird in Schritt 316 festgestellt, dass die Formel (11) erfüllt ist, d.h. das Anzeigepixel Pc in dem Bereich UA6 liegt, so fährt der Prozess mit Schritt 318 fort. In Schritt 318 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (M-m/2, n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P'c definiert wird. Nach Ausführen des Schrittes 318 fährt der Prozess mit Schritt 321 fort.
  • Wird dagegen in Schritt 316 festgestellt, dass die Formel (11) nicht erfüllt ist, so fährt der Prozess mit Schritt 317 fort. In Schritt 317 wird ermittelt, ob die Koordinate H längs der horizontalen Richtung die folgende Formel erfüllt: n/2 ≤ H ≤ N – n/2 (12)
  • Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA7 befindet.
  • Wird in Schritt 317 festgestellt, dass die Formel (12) erfüllt ist, d.h. das Anzeigepixel Pc in dem Bereich UA7 liegt, so fährt der Prozess mit Schritt 319 fort. In Schritt 319 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein auf der rechten Umrisslinie des Bereichs CA, d.h. in den Koordinaten (M-m/2, H) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P''c festgelegt wird. Nach Ausführen des Schrittes 319 fährt der Prozess mit Schritt 321 fort.
  • Wird dagegen in Schritt 317 festgestellt, dass die Formel (12) nicht erfüllt ist, d.h. sich das Anzeigepixel Pc in dem Bereich UA8 befindet, so fährt der Prozess mit Schritt 320 fort. In Schritt 320 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (M-m/2, N-n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P''c festgelegt wird. Nach Ausführen des Schrittes 320 fährt der Prozess mit Schritt 321 fort.
  • In Schritt 321 werden auf Grundlage des Anzeigepixels Pc oder des modifizierten Anzeigepixels P''c die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs PI erzeugt werden, aus der CCD 12 ausgelesen, und es wird das Bild vergrößerter Darstellung entsprechend den ausgelesenen Bildpixelsignalen auf dem Monitor 50 dargestellt. Nach Ausführen des Schrittes 321 endet diese Routine.
  • Wird dagegen in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 nicht größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 322 fort. In Schritt 322 werden Bildpixelsignale, die in allen in der CCD 12 vorgesehenen Pixeln erzeugt werden, aus der CCD 12 ausgelesen, und es wird ein Interpolationsprozess in dem Bildspeicher 23 durchgeführt. Das durch den Interpolationsprozess erzeugte vergrößerte Bild wird auf dem Monitor 50 dargestellt.
  • Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F nicht gedrückt wird, womit ermittelt wird, ob durch Drücken der Funktionstaste 51F von der vergrößerten Darstellung auf die normale Darstellung gewechselt wird, so fährt der Prozess mit Schritt 323 fort. In Schritt 323 wird das Normalbild entsprechend dem Objektbild normaler Darstellung auf dem Monitor 50 dargestellt. Nach Ausführen des Schrittes 323 endet diese Routine.
  • 10 zeigt ein Flussdiagramm einer Unterroutine des in 8 gezeigten Schrittes 323.
  • Die Schritte 351 bis 355 entsprechen den Schritten 202 bis 206 nach 7. Es wird also die Abwärtsabtastung vorgenommen, wenn die Pixelzahl größer als die effektive Pixelzahl ist, während alle in der CCD 12 erzeugten Bildpixelsignale aus der CCD 12 ausgelesen werden, wenn die Pixelzahl nicht größer als die effektive Pixelzahl ist.
  • Auf diese Weise wird in dem ersten Ausführungsbeispiel das Normalbild entsprechend dem Objektbild normaler Darstellung auf dem Monitor 50 dargestellt, wenn der Betriebszustand auf die normale Darstellung eingestellt ist. Das Objektbild mit normaler Darstellung, das sich aus einer gegebenen Zahl von Pixeln (z.B. 300000 Pixeln), die kleiner oder gleich 410000 Pixeln ist, zusammensetzt, wird erzeugt, indem die Abwärtsabtastung an dem Allpixel-Objektbild vorgenommen wird, das sich aus allen in der CCD 12 vorgesehenen Pixeln (vorliegend 1200000 Pixel) zusammensetzt. Die dem Objektbild normaler Darstellung entsprechenden Bildpixelsignale werden aus der CCD 12 ausgelesen. Wird auf den Darstellungsmodus der vergrößerten Darstellung gewechselt, so wird auf dem Monitor 50 ein vergrö ßertes Bild entsprechend dem Objektbild vergrößerter Darstellung dargestellt. Das Objektbild vergrößerter Darstellung, das aus etwa 300000 Pixeln besteht, wird erzeugt, indem der Teilbereich PI in dem Bilderzeugungsbereich TI festgelegt wird. Aus der CCD 12 werden die Bildpixelsignale ausgelesen, die den in dem Teilbereich PI angeordneten Pixeln entsprechen. Ist dagegen die Pixelzahl der CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird das Objektbild normaler Darstellung aus allen in der CCD 12 vorgesehenen Pixeln erzeugt, d.h. die Abwärtsabtastung wird nicht durchgeführt.
  • Die Größe des Bildbereichs NA kann sich von der des Bildbereichs MA unterscheiden. So kann sich die Pixelzahl des Objektbildes in der Normaldarstellung von der des Objektbildes in der vergrößerten Darstellung unterscheiden.
  • Für die Ladungsübertragung kann an Stelle des Zwischenleitungsübertragungsverfahrens ein anderes Verfahren, z.B. ein Rahmenübertragungsverfahren angewendet werden. An Stelle der CCD kann ein C-MOS-Bildsensor eingesetzt werden.
  • In diesem Ausführungsbeispiel werden das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung erzeugt, indem jeweils Bildpixelsignale, die in zugehörigen Pixeln erzeugt werden, ausgelesen werden. Es können jedoch auch Bildpixelsignale, die in allen Pixeln erzeugt werden, aus der CCD 12 ausgelesen werden, um sie an die Bilderzeugungsschaltung 17 zu übertragen, wobei das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung erzeugt werden, indem dann lediglich zugehörige Bildpixelsignale ausgelesen werden.
  • In diesem Ausführungsbeispiel wird das NTSC-Verfahren als Videostandard eingesetzt. Es können jedoch auch andere Verfahren wie das PAL-Verfahren sowie Videostandards wie der VGA- und der SVGA-Standard angewendet werden. In diesem Falle werden die Videosignale gemäß dem Videostandard erzeugt, und die Auflösung des Monitors hängt von dem Videostandard ab.
  • In diesem Ausführungsbeispiel werden die Videosignale in dem Videoprozessor erzeugt. Die Videosignale können jedoch auch in dem Videobeobachtungsteil erzeugt werden. In diesem Fall sind die Schaltungen zum Verarbeiten der Bildsignale in dem Videobeobachtungsteil vorgesehen.
  • 11 zeigt ein elektronisches Endoskop als zweites Ausführungsbeispiel. Das zweite Ausführungsbeispiel unterscheidet sich von dem ersten Ausführungsbeispiel dadurch, dass an Stelle des Schiebetastenfeldes 51E und der Funktionstaste 51F der Tastatur 51 ein Berührungsfeld (Prüfungsschirm) verwendet wird. Da die übrigen Teile denen des ersten Ausführungsbeispiels entsprechen, bleibt deren Bezeichnung mit Bezugszeichen die gleiche, und auf eine Beschreibung dieser Teile wird an dieser Stelle verzichtet.
  • Auf dem Bildschirm 50 ist ein durchsichtiges und farbloses Berührungsfeld TP vorgesehen, in dem eine Elektrode in einer Matrix angeordnet ist. Das auf dem Monitor 50 dargestellte Bild wird über das Berührungsfeld TP betrachtet. Das Berührungsfeld TP ist ein Eingabegerät, mit dem eine bestimmte Stelle auf dem Schirm des Monitors 50 ausgewählt werden kann, indem der Benutzer mit seinem Finger darauf zeigt. Ein dieser Stelle entsprechendes Signal wird dem Videoprozessor 20 zugeführt. In diesem Ausführungsbeispiel wird das Anzeigepixel Pc auf Grundlage der Koordinaten (X, Y) auf dem Monitor 50 spezifiziert, die der berührten Stelle entsprechen. Berührt der Benutzer das den Schirm des Monitors 50 bedeckende Berührungsfeld TP, so wird ein auf die Koordinaten des Monitors 50 bezogenes, der Berührungsposition auf dem Berührungsfeld TP entsprechendes Betätigungssignal über eine nicht dargestellt Schnittstelle der Systemsteuerschaltung 34 zugeführt. In der Systemsteuerschaltung 34 wird die Berührungs- oder Anzeigeposition identifiziert. Zum Erfassen der Berührungsposition wird ein mit Infrarotstrahlung arbeitendes Verfahren angewendet.
  • Entsprechend dem ersten Ausführungsbeispiel werden in dem Positionierspeicher 35 Anzeigebereichdaten (Bildbereich NA) entsprechend der Pixelzahl der in dem Videoprozessor 10 vorgesehenen CCD 12 gespeichert. Dann wird über die Systemsteuerschaltung 34 festgestellt, ob die Berührungsposition in dem Bildbereich NA liegt (vgl. 2). Ist dies der Fall, so wird der Vergrößerungsprozess entsprechend dem ersten Ausführungsbeispiel durchgeführt. Dazu wird ein der Berührungsposition entsprechendes Pixel als Mittelpunkt des Objektbildes vergrößerter Darstellung definiert. Liegt dagegen die Berührungsposition außerhalb des Bildbereichs NA, so wird der Vergrößerungsprozess nicht durchgeführt. Wird auf dem Berührungsfeld TP bei Darstellung des vergrösserten Bildes eine vorgegebene Stelle, z.B. eine Ecke berührt, so wird von der vergrößerten Darstellung auf die normale Darstellung gewechselt.
  • Die 12 bis 14 zeigen ein elektronisches Endoskop als drittes Ausführungsbeispiel. Das dritte Ausführungsbeispiel unterscheidet sich von dem ersten Ausführungsbeispiel dadurch, dass an dem Videobeobachtungsteil eine Vorrichtung zum Verschieben der Position des Zeigers P vorgesehen ist. Da die übrigen Teil denen des ersten Ausführungsbeispiels entsprechen, bleiben die Bezugszeichen insoweit unverändert, und auf eine Beschreibung dieser Teile wird an dieser Stelle verzichtet.
  • 12 ist ein Blockdiagramm des elektronischen Endoskops gemäß drittem Ausführungsbeispiel.
  • Eine Tastenanordnung 18 besteht aus einer ersten Zeigerschiebetaste 18A, einer zweiten Zeigerschiebetaste 18B und einer dritten Zeigerschiebetaste 18C. Die Zeigerschiebetasten 18A, 18B und 18C sind Drucktasten und an dem Videobeobachtungsteil 10 vorgesehen. Mit den Zeigerschiebetasten 18A, 18B und 18C lässt sich der Zeiger P nach oben, nach unten, nach rechts oder nach links verschieben und der Darstellungsmodus ändern. Werden die Zeigerschiebetasten 18A, 18B, 18C betätigt, so wird der in dem Videoprozessor 20 vorgesehenen Systemsteuerschaltung 34 ein Betätigungssignal zugeführt, das auf die Position des zu verschiebenden Zeigers P bezogen ist.
  • In der Systemsteuerschaltung 34 wird zur Positionsänderung des Zeigers P der CRTC 24 ein Steuersignal in Abhängigkeit des in der Tastenanordnung 18 gelieferten Betätigungssignals zugeführt. In der CRTC 24 wird die zeitliche Festlegung, d.h. das Timing des dem Zeiger P entsprechenden Zeichensignals in Abhängigkeit des von der Systemsteuerschaltung 34 gelieferten Steuersignals eingestellt.
  • 13 zeigt einen Teil des Videobeobachtungsteils 10.
  • Der Videobeobachtungsteil 10 hat einen Bedienteil 10M, an dem verschiedene Tasten einschließlich der Tastenanordnung 18 vorgesehen sind. Der Benutzer betätigt das distale Ende des Videobeobachtungsteils 10 über den Bedienteil 10M. Beispielsweise betätigt er mit seiner rechten Hand einen Drehhebel LE, um das distale Ende des Videobeobachtungsteils 10 zu betätigen. Ein Endabschnitt 10K an dem Bedienteil 10M läuft in einer Richtung verjüngt zu. Hält der Benutzer den Bedienteil 10M des Videobeobachtungsteils 10, so ist eine erste Fläche 10R1 in 13 vertikal nach oben und eine zweite Fläche 10R2 vertikal nach unten gewandt.
  • Die erste Zeigerschiebetaste 18A ist an der zweiten Fläche 10R2 so angeordnet, dass der Benutzer sie mit dem Daumen seiner linken Hand betätigen kann. Dagegen sind die zweite und die dritte Zeigerschiebetaste 18B, 18C derart an der ersten Fläche 10R1 angeordnet, dass der Benutzer die Taste 18B mit dem Zeigefinger und die Taste 18C mit dem Mittelfinger seiner linken Hand bedienen kann. Die erste Zeigerschiebetaste 18A und die beiden Zeigeschiebetasten 18B, 18C sind entgegengesetzt zueinander angeordnet. Die Zeigerschiebetasten 18A, 18B, 18C und der Endabschnitt 10K sind so angeordnet, dass der Benutzer die Tasten 18A, 18B und 18C gleichzeitig betätigen kann.
  • In diesem Ausführungsbeispiel werden die erste und die zweite Zeigerschiebetaste 18A, 18B gleichzeitig gedrückt, um den Zeiger P nach rechts zu schieben, während die erste und die dritte Zeigerschiebetaste 18A, 18C gleichzeitig gedrückt werden, um den Zeiger P nach links zu verschieben. Um den Zeiger P nach unten zu verschieben, wird die zweite Zeigerschiebetaste 18B gedrückt. Um ihn nach oben zu verschieben, wird die dritte Zeigerschiebetaste 18C gedrückt. Werden die zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt, so wird der Darstellungsmodus geändert.
  • 14 zeigt eine Unterbrechungsroutine des Zeigerverschiebungsprozesses. Die erste Zeigerschiebetaste 18A hat eine weitere Funktion, mit der der Zeiger P dargestellt und ausgeblendet werden kann. Wird die erste Zeigerschiebetaste 18A gedrückt, so startet die Unterbrechungsroutine.
  • In Schritt 401 führt die Systemsteuerschaltung 34 das Steuersignal der CRTC 24 zu, so dass der Zeiger P an einer vorgegebenen Position dargestellt wird. In Schritt 402 wird ermittelt, ob die erste und die zweite Zeigerschiebetaste 18A, 18B gleichzeitig gedrückt werden, um die Position des Zeigers P um einen Koordinatenwert nach rechts zu verschieben.
  • Wird in Schritt 402 festgestellt, dass die erste und die zweite Zeigerschiebetaste 18A, 18B gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 403 fort, worin ermittelt wird, ob die Position des Zeigers P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 404 fort, worin der Zeiger P um einen Koordinatenwert nach rechts verschoben wird. Nach Ausführen des Schrittes 404 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen rechter Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück, so dass der Zeiger P innerhalb des Bildbereichs NA bleibt.
  • Wird dagegen in Schritt 402 festgestellt, dass die erste und die zweite Zeigerschiebetaste 18A, 18B nicht gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 405 fort. In Schritt 405 wird ermittelt, ob die erste und die dritte Zeigerschiebetaste 18A, 18C gleichzeitig gedrückt sind. Ist dies der Fall, so fährt der Prozess mit Schritt 406 fort, worin ermittelt wird, ob der Zeiger P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 407 fort, worin der Zeiger P um einen Koordinatenwert nach links verschoben wird. Nach Ausführen des Schrittes 407 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen in Schritt 406 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen linker Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
  • Wird in Schritt 405 festgestellt, dass die erste und die dritte Zeigerschiebetaste 18A, 18C nicht gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 408 fort. In Schritt 408 wird festgestellt, ob die zweite Taste 18B gedrückt ist. Ist dies der Fall, so fährt der Prozess mit Schritt 409 fort, worin ermittelt wird, ob der Zeiger innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 410 fort, worin der Zeiger P um einen Koordinatenwert nach unten verschoben wird. Nach Ausführen des Schrittes 410 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen in Schritt 409 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen unterer Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
  • Wird in Schritt 408 festgestellt, dass die zweite Zeigerschiebetaste 18B nicht gedrückt ist, so fährt der Prozess mit Schritt 411 fort. In Schritt 411 wird ermittelt, ob die dritte Taste 18C gedrückt ist. Ist dies der Fall, so fährt der Prozess mit Schritt 412 fort, worin ermittelt wird, ob der Zeiger P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 413 fort, worin der Zeiger P um einen Koordinatenwert nach oben verschoben wird. Nach Ausführen des Schrittes 413 fährt der Prozess mit Schritt 402 fort. Wird dagegen in Schritt 412 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen oberer Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
  • Wird in Schritt 411 festgestellt, dass die Zeigerschiebetaste Taste 18C nicht gedrückt ist, so fährt der Prozess mit Schritt 414 fort. In Schritt 414 wird ermittelt, ob die zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt sind. Ist dies der Fall, so fährt der Prozess mit Schritt 415 fort, worin die Position des Zeigers P und des Anzeigepixels Pc entsprechend dem ersten Ausführungsbeispiel spezifiziert wird. In Schritt 416 wird der Zeiger P auf dem Monitor 50 gelöscht, um den Vergrößerungsprozess durchzuführen. Nach Ausführen des Schrittes 416 wird die Unterbrechungsroutine beendet. Wird dagegen in Schritt 414 festgestellt, dass die zweite und die dritte Zeigerschiebetaste 18B, 18C nicht gleichzeitig gedrückt sind, also keine Taste gedrückt ist, so kehrt der Prozess zu Schritt 402 zurück. Bis der Darstellungsmodus auf die vergrößerte Darstellung umgeschaltet wird, werden die Schritte 404 bis 414 wiederholt.
  • Hinsichtlich Anordnung und Zahl der Drucktasten sind Abwandlungen möglich.
  • In dem ersten bis dritten Ausführungsbeispiel werden als Eingabegeräte die Tastatur, das Berührungsfeld bzw. die Zeigerschiebetasten eingesetzt. Es können jedoch auch andere Eingabegeräte wie eine als Maus bezeichnete Zeigervorrichtung oder ein als Joystick bezeichneter Schwenkhebel verwendet und an dem Bedienteil des Videobeobachtungsteils vorgesehen werden.

Claims (15)

  1. Elektronisches Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind, sowie mit einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstellung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bildsensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht, einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige ausgibt, einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszustandes von normaler Darstellung auf vergrößerte Darstellung und umgekehrt, und einem Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist, wobei der Bilderzeugungsprozessor, wenn die Pixelzahl größer als die effektive Pixelzahl ist, während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Darstellungsobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pixeln besteht.
  2. Endoskop nach Anspruch 1, dadurch gekennzeichnet, dass, wenn die Gesamtpixelzahl des Bildsensors größer als die effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist, das Objektbild normaler Darstellung aus einer ersten Anzahl von Pixeln und das Objektbild vergrößerter Darstellung aus einer zweiten Anzahl von Pixeln besteht, die jeweils kleiner oder gleich der effektiven Pixelzahl sind.
  3. Endoskop nach Anspruch 1, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor während der normalen Darstellung das Allpixel-Objektbild als Objektbild normaler Darstellung und während der vergrößerten Darstellung das Objektbild vergrößerter Darstellung mittels eines auf das Allpixel-Objektbild angewendeten Interpolationsprozesses erzeugt, wenn die Pixelzahl des Bildsensors nicht größer als die effektive Pixelzahl ist.
  4. Endoskop nach Anspruch 2, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Objektbild normaler Darstellung mittels einer auf das Allpixel-Objektbild angewendeten Abwärtsabtastung erzeugt.
  5. Endoskop nach einem der Ansprüche 2 bis 4, gekennzeichnet durch eine Eingabevorrichtung zum Anzeigen einer vorbestimmten Position in einem Normalbild, das im Zustand normaler Darstellung an der Anzeige dargestellt wird und dem Objektbild normaler Darstellung entspricht, und einen Anzeigepixelprozessor, der eine von der Eingabevorrichtung ausgewählte Anzeigeposition erfasst und aus den Pixeln des Allpixel-Objektbildes ein Anzeigepixel bestimmt, das der Anzeigeposition entspricht, wobei der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den Teilbereich entsprechend der zweiten Pixelzahl festlegt.
  6. Endoskop nach Anspruch 5, dadurch gekennzeichnet, dass der Anzeigepixelprozessor ermittelt, ob der aus der zweiten Anzahl von Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedingung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes vergrößerter Darstellung wird, und der Anzeigepixelprozessor das Anzeigepixel so ändert, dass das aus der zweiten Anzahl von Pixeln bestehende Objektbild vergrößerter Darstellung erzeugt wird, wenn der Teilbereich nicht festgelegt werden kann.
  7. Endoskop nach Anspruch 5, dadurch gekennzeichnet, dass ein Markierungsprozessor vorgesehen ist, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung die vorbestimmte Position anzeigt, die Eingabevorrichtung eine an den Videoprozessor angeschlossene Tastatur enthält, die eine Schiebetaste zum Verschieben der Position der Anzeigemarkierung auf der Anzeige hat, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung der Schiebetaste einstellt, und der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Position der Anzeigemarkierung spezifiziert.
  8. Endoskop nach Anspruch 5, dadurch gekennzeichnet, dass die Eingabevorrichtung ein an den Videoprozessor angeschlossenes, auf der Anzeige angeordnetes Berührungsfeld enthält, das dem Videoprozessor eine Information über eine von dem Benutzer berührte Berührungsstelle liefert, und der Anzeigepixelprozessor die Berührungsstelle als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Berührungsstelle spezifiziert.
  9. Endoskop nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Darstellungsobjektbild in dem Videobeobachtungsteil erzeugt.
  10. Endoskop nach Anspruch 9, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Objektbild normaler Darstellung über eine Abwärtsabtastung erzeugt, in der aus dem Bildsensor nur Normalbild-Pixelsignale ausgelesen werden, die in Pixeln erzeugt werden, aus denen das Objektbild normaler Darstellung erzeugt wird.
  11. Endoskop nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er aus dem Bildsensor nur Teilbild-Pixelsignale ausliest, die in den innerhalb des Teilbereichs angeordneten Pixeln erzeugt werden.
  12. Endoskop nach Anspruch 5, dadurch gekennzeichnet, dass ein Markierungsprozessor vorgesehen ist, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung auf der Anzeige an einer vorbestimmten Position angezeigt wird, die Eingabevorrichtung ein Bedienelement zum Verschieben der Position der Anzeigemarkierung enthält, die an einem Bedienteil des Videobeobachtungsteils angebracht ist, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung des Bedienelementes einstellt, und der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Position der Anzeigemarkierung spezifiziert.
  13. Endoskop nach Anspruch 12, dadurch gekennzeichnet, dass das Bedienelement mehrere Drucktasten zum Verschieben der Anzeigemarkierung hat und dass der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung der Drucktasten einstellt.
  14. Endoskop nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass das Bedienelement aus einer ersten, einer zweiten und einer dritten Drucktaste besteht, die an einem verjüngt zulaufenden Endabschnitt des Bedienteils angeordnet sind, wobei die erste Drucktaste an einer Fläche des Endabschnittes angeordnet ist und die zweite und die dritte Drucktaste an einer anderen Fläche des Endabschnittes angeordnet sind, und die drei Drucktasten so angeordnet sind, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Zeigefinger, Mittelfinger, Daumen gleichzeitig betätigbar sind.
  15. Einrichtung zum Darstellen eines normalen und eines vergrößerten Bildes, enthalten in einem elektronischen Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind, wobei die Einrichtung versehen ist mit einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstellung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bildsensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht, einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige ausgibt, einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszustandes von normaler Darstellung auf vergrößerte Darstellung und umgekehrt, und einem Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist, wobei der Bilderzeugungsprozessor, wenn die Pixelzahl größer als die effektive Pixelzahl ist, während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Darstellungsobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pixeln besteht.
DE10126587A 2000-05-31 2001-05-31 Elektronisches Endoskop Expired - Fee Related DE10126587B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10164935A DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000161773A JP4172898B2 (ja) 2000-05-31 2000-05-31 電子内視鏡装置
JP2000-161773 2000-05-31
DE10164935A DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Publications (2)

Publication Number Publication Date
DE10126587A1 DE10126587A1 (de) 2001-12-06
DE10126587B4 true DE10126587B4 (de) 2006-04-06

Family

ID=18665749

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10126587A Expired - Fee Related DE10126587B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop
DE10164935A Expired - Fee Related DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10164935A Expired - Fee Related DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Country Status (3)

Country Link
US (1) US6491628B1 (de)
JP (1) JP4172898B2 (de)
DE (2) DE10126587B4 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697101B1 (en) * 1999-09-20 2004-02-24 Pentax Corporation Electronic endoscope
JP4503878B2 (ja) * 2001-04-27 2010-07-14 オリンパス株式会社 撮像装置及び撮像方法
JP2003334163A (ja) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
JP2004000335A (ja) * 2002-05-31 2004-01-08 Olympus Corp 電子内視鏡装置
DE10240826B3 (de) * 2002-09-04 2004-05-06 Albert-Ludwigs-Universität Freiburg Verfahren zum Betreiben eines Endoskops
JP2005538779A (ja) * 2002-09-13 2005-12-22 カール ストルツ イメージング インコーポレイテッド 映像記録・画像キャプチャ装置
DE10245085A1 (de) * 2002-09-27 2004-04-01 Automotive Distance Control Systems Gmbh Optisches System für eine Kamera
US20040227829A1 (en) * 2003-05-13 2004-11-18 Dialog Semiconductor Gmbh Method and apparatus for a simultaneous multiple field of view imager using digital sub-sampling and sub-window selection
JP2005258062A (ja) * 2004-03-11 2005-09-22 Olympus Corp 内視鏡システム、及び内視鏡装置
KR100879686B1 (ko) 2004-03-11 2009-01-21 올림푸스 가부시키가이샤 내시경 시스템, 내시경 장치 및 화상 처리 장치
JP4814496B2 (ja) * 2004-05-21 2011-11-16 Hoya株式会社 電子内視鏡システム
JP4037851B2 (ja) 2004-06-16 2008-01-23 オンキヨー株式会社 増幅装置
JP3938774B2 (ja) * 2004-08-05 2007-06-27 オリンパス株式会社 内視鏡用信号処理装置、内視鏡用信号用モニタおよび内視鏡システム
TWI276904B (en) * 2005-02-01 2007-03-21 Avermedia Tech Inc A document camera and its digital image zoom system
JP4780980B2 (ja) 2005-03-11 2011-09-28 富士フイルム株式会社 内視鏡装置
CN101557758B (zh) * 2005-03-25 2015-01-07 Cnoga控股有限公司 用于测量化学浓度、化学饱和度和生物物理参数的光学传感器装置和图象处理单元
CN101365375B (zh) 2005-09-29 2013-09-11 通用医疗公司 用于经由谱编码进行光学成像的方法和设备
US20070265495A1 (en) * 2005-12-15 2007-11-15 Medivision, Inc. Method and apparatus for field of view tracking
JP2008099874A (ja) * 2006-10-19 2008-05-01 Pentax Corp 内視鏡プロセッサおよび内視鏡システム
JP5006616B2 (ja) * 2006-10-19 2012-08-22 Hoya株式会社 内視鏡プロセッサ
US7937163B2 (en) * 2008-03-04 2011-05-03 Olympus Medical Systems Corp. Medical control device and its system
JP5308716B2 (ja) * 2008-05-21 2013-10-09 オリンパスメディカルシステムズ株式会社 電子内視鏡装置
CN101783129B (zh) * 2009-01-04 2012-12-05 虹软(杭州)科技有限公司 影像缩放装置以及影像缩放方法
US20120002084A1 (en) * 2010-06-30 2012-01-05 True Vision Systems, Inc. Systems, apparatus, and methods for digital image capture with variable density display and high resolution electronic zoom
JP5290475B2 (ja) * 2011-05-12 2013-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5865606B2 (ja) 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US9060674B2 (en) 2012-10-11 2015-06-23 Karl Storz Imaging, Inc. Auto zoom for video camera
JP6547266B2 (ja) * 2013-10-01 2019-07-24 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム電子機器
JP6834134B2 (ja) * 2016-01-21 2021-02-24 オムロン株式会社 撮像装置および情報コード読取装置
DE102018124496A1 (de) * 2018-10-04 2020-04-09 Karl Storz Se & Co. Kg Optisches Beobachtungssystem und Verfahren zum Betreiben eines optischen Beobachtungssystems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4800379A (en) * 1986-05-12 1989-01-24 Crosfield Electronics Limited Image display with movable magnification
JPH01280438A (ja) * 1988-05-02 1989-11-10 Olympus Optical Co Ltd 内視鏡装置
JPH07322114A (ja) * 1994-05-20 1995-12-08 Canon Inc 撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3732865B2 (ja) 1995-01-18 2006-01-11 ペンタックス株式会社 内視鏡装置
US6078353A (en) * 1996-09-12 2000-06-20 Fuji Photo Optical Co., Ltd. All-pixels reading type electronic endoscope apparatus
JP3448169B2 (ja) * 1996-11-14 2003-09-16 富士写真光機株式会社 全画素読出し式電子内視鏡装置
US6117071A (en) 1997-07-29 2000-09-12 Asahi Kogaku Kogyo Kabushiki Kaisha Endoscope with movable imaging unit for zooming or focusing
US6322497B1 (en) * 1998-12-25 2001-11-27 Asahi Kogaku Kogyo Kabushiki Kaisha Electronic endoscope

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4800379A (en) * 1986-05-12 1989-01-24 Crosfield Electronics Limited Image display with movable magnification
JPH01280438A (ja) * 1988-05-02 1989-11-10 Olympus Optical Co Ltd 内視鏡装置
JPH07322114A (ja) * 1994-05-20 1995-12-08 Canon Inc 撮像装置

Also Published As

Publication number Publication date
JP2001340292A (ja) 2001-12-11
US6491628B1 (en) 2002-12-10
DE10126587A1 (de) 2001-12-06
DE10164935B4 (de) 2010-04-22
JP4172898B2 (ja) 2008-10-29

Similar Documents

Publication Publication Date Title
DE10126587B4 (de) Elektronisches Endoskop
DE10164297B4 (de) Elektronisches Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE10056178B4 (de) Elektronisches Endoskopsystem mit mehreren Videoprozessoren
DE102004006260B4 (de) Videoendoskopeinrichtung
DE10055725B4 (de) Elektronisches Endoskopsystem
DE10306070A1 (de) Digitale Kamera zum Aufnehmen eines Paars stereoskopischer Bilder
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE10306069A1 (de) Kamera zum Erzeugen eines stereoskopischen Bildpaars
DE112012005481T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE10059662B4 (de) Elektronisches Endoskopsystem
DE3622058A1 (de) Vorrichtung zur bildverarbeitung
DE10154271B4 (de) Mikroskopvorrichtung und Mikroskopsystem
DE102007016611A1 (de) Konfokales Endoskopsystem
DE10039396A1 (de) Multiples nichtdirektionales Scannen
DE19721713A1 (de) Elektronisches Endoskop
DE10351024A1 (de) Elektronische Endoskopeinrichtung
EP2786696A1 (de) Dentalkamerasystem
DE19757912A1 (de) Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem
DE112012005484T5 (de) Bildverarbeitungsgerät, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE69922694T2 (de) Optimalisierung der bildbelichtung
DE102007022957A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem
DE69834971T2 (de) Zeichenerkennungsvorrichtung
DE102004030593B4 (de) Digitalkamerabildbearbeiter
DE19517476B4 (de) Photomikroskop

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8172 Supplementary division/partition in:

Ref document number: 10164935

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 10164935

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20121201