DE10126587A1 - Elektronisches Endoskop - Google Patents

Elektronisches Endoskop

Info

Publication number
DE10126587A1
DE10126587A1 DE10126587A DE10126587A DE10126587A1 DE 10126587 A1 DE10126587 A1 DE 10126587A1 DE 10126587 A DE10126587 A DE 10126587A DE 10126587 A DE10126587 A DE 10126587A DE 10126587 A1 DE10126587 A1 DE 10126587A1
Authority
DE
Germany
Prior art keywords
display
image
pixel
pixels
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10126587A
Other languages
English (en)
Other versions
DE10126587B4 (de
Inventor
Hiroyuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority to DE10164935A priority Critical patent/DE10164935B4/de
Publication of DE10126587A1 publication Critical patent/DE10126587A1/de
Application granted granted Critical
Publication of DE10126587B4 publication Critical patent/DE10126587B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Abstract

Ein elektronisches Endoskop hat einen Videobeobachtungsteil mit Bildsensor, einen Videoprozessor und eine Anzeige. Das Endoskop enthält weiterhin einen Bilderzeugungsprozessor, einen Signalprozessor und einen Darstellungsänderungsprozessor. Der Signalprozessor erzeugt Videosignale auf Grundlage aus einem Bildsensor stammender Bildpixelsignale und gibt die Videosignale an die Anzeige aus. Der Darstellungsänderungsprozessor wechselt den Darstellungszustand von normaler Darstellung auf vergrößerte Darstellung und umgekehrt. In der normalen Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild normaler Darstellung, das aus einer geringeren Anzahl von Pixeln besteht als das Allpixel-Objektbild. In der vergrößerten Darstellung erzeugt der Bildprozessor ein Objektbild vergrößerter Darstellung, das aus Pixeln besteht, die innerhalb eines Teilbereichs angeordnet sind.

Description

Die Erfindung betrifft ein elektronisches Endoskop, das einen Videobeobach­ tungsteil mit einem Bildsensor und einem Videoprozessor hat. Im engeren Sinne betrifft die Erfindung eine vergrößerte Darstellung, die einen Teil eines auf einem Monitor dargestellten Bildes vergrößert.
Kürzlich wurde ein vergrößerndes elektronisches Endoskop entwickelt, das einen bestimmten Teil eines beobachteten Bildes, das auf einem Monitor dargestellt wird, vergrößern und das vergrößerte Bild darstellen kann. Das vergrößernde elektronische Endoskop hat eine optische oder eine elektrische Vergrößerungs­ funktion.
Das optische Endoskop hat ein längs der optischen Achse bewegbares Varioob­ jektiv. Der bestimmte Teil des dargestellten Bildes wird durch Ansteuern des Varioobjektivs vergrößert, so dass das vergrößerte Teilbild auf dem Monitor dar­ gestellt wird. In dem optischen Vergrößerungsverfahren nimmt die Bildqualität nicht ab. Bei einer optischen Vergrößerung des Bildes wird jedoch das Sehfeld schmal, und die Schärfentiefe nimmt ab, d. h. der Scharfstellbereich wird eng. Es bereitet deshalb Schwierigkeiten, den bestimmten Bildteil fortgesetzt im Sehfeld einzufangen, da das Handzittern, das der den Beobachtungsteil haltende Benut­ zer verursacht, oder die Bewegung bzw. das Zittern des Organs selbst das Bild beeinflussen.
Dagegen wird im elektrischen Vergrößerungsverfahren der bestimmte Teil zuver­ lässig eingefangen, da sich die Schärfentiefe nicht ändert. Da jedoch an dem ursprünglich dargestellten Bild ein Prozess vorgenommen wird, der Pixel interpo­ liert, nimmt die Bildqualität ab, so dass der vergrößerte Teil keiner genauen Dia­ gnose unterzogen werden kann.
Aufgabe der Erfindung ist es ein elektronisches Endoskop anzugeben, das einen bestimmten Teil eines ursprünglichen Bildes ohne Verschlechterung der Bildqua­ lität elektrisch vergrößert.
Die Erfindung löst diese Aufgabe durch das elektronische Endoskop mit den Merkmalen des Anspruchs 1. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
Das erfindungsgemäße elektronische Endoskop enthält einen Videobeobach­ tungsteil mit Bildsensor, einen Videoprozessor und eine Anzeige. Der Videobeob­ achtungsteil, mit dem das Bild eines betrachteten Objektes eingefangen wird, ist lösbar an den Videoprozessor angeschlossen. Auch die Anzeige ist an den Vi­ deoprozessor angeschlossen. Das elektronische Endoskop hat einen Bilderzeu­ gungsprozessor, einen Signalprozessor und einen Darstellungsänderungsprozes­ sor. Auf Grundlage eines Allpixel-Objektbildes, das auf dem Bildsensor erzeugt wird und aus im Wesentlichen allen in dem Bildsensor vorgesehenen Pixeln besteht, erzeugt der Bilderzeugungsprozessor ein Darstellungsobjektbild, das auf einem Monitor dargestellt wird. Das Darstellungsobjektbild wird entsprechend einem Videostandard (Videoabtaststandard) erzeugt, von dem die Auflösung der Anzeige abhängt. Beispielsweise werden ein Farbfernsehstandard wie das NTSC- oder das PAL-Verfahren oder ein Computer-Videostandard wie der VGA- oder der SVGA-Standard angewendet. Der Signalprozessor erzeugt Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale und gibt sie an die Anzeige aus, so dass ein betrachtetes Bild, das dem von dem Bilder­ zeugungsprozessor erzeugten Bild entspricht, dargestellt wird.
Das erfindungsgemäße elektronische Endoskop hat eine Funktion zum Vergrö­ ßern eines bestimmten Teils des dargestellten betrachteten Bildes. Der Darstel­ lungsänderungsprozessor wechselt den Darstellungszustand von normaler Dar­ stellung auf vergrößerte Darstellung und umgekehrt. In der normalen Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild normaler Darstellung als Darstellungsobjektbild, das aus einer geringeren Anzahl an Pixeln als das Allpixel- Objektbild besteht. Bildauflösung oder Bildgröße des Objektbildes normaler Dar­ stellung unterscheiden sich von denen des Allpixel-Objektbildes. In der vergrö­ ßerten Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild vergrö­ ßerter Darstellung als Darstellungsobjektbild, das aus Pixeln besteht, die innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordnet sind, so dass ein vergrö­ ßertes Bild dargestellt wird. Wird der elektronische Vergrößerungsprozess durch­ geführt, so erhält man das vergrößerte Bild, ohne einen Interpolationsprozess durchführen zu müssen, der zu einer Verschlechterung der Bildqualität führt. Auf diese Weise kann ein erkrankter Körperteil einer genauen Diagnose unterzogen werden. Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild normaler Darstellung, indem er eine Abwärtsabtastung an dem Allpixel-Objektbild vornimmt.
Um ein Objektbild normaler Darstellung und ein Objektbild vergrößerter Darstel­ lung mit hoher Bildqualität zu erhalten, ist vorzugsweise die Pixelzahl des Bildsen­ sors größer als eine effektive Pixelzahl, die auf den angewendeten Videostandard bezogen ist. Die effektive Pixelzahl ergibt die Auflösung der Anzeige. Die effektive Pixelzahl stellt nämlich die Zahl der Pixel dar, die für ein Bild verwendet werden können. In dem NTSC-Verfahren beträgt die effektive Pixelzahl etwa 410000, und es kann ein Bildsensor mit mehr als einer Million Pixel vorteilhaft eingesetzt wer­ den. Das Objektbild normaler Darstellung besteht aus einer ersten Anzahl von Pixeln und das Objektbild vergrößerter Darstellung aus einer zweiten Anzahl an Pixeln, wobei sowohl die erste als auch die zweite Anzahl kleiner als die effektive Pixelzahl ist. Der Bilderzeugungsprozessor kann Objektbilder normaler und ver­ größerter Darstellung mit einer Pixelzahl zusammensetzen, die nahe an die jewei­ ligen effektiven Pixelzahlen heranreicht, so dass sowohl in der normalen als auch in der vergrößerten Darstellung Bilder mit hoher Bildqualität erhalten werden.
Die Pixelzahl des in dem elektronischen Endoskop eingesetzten Bildsensors variiert mit dem Sensortyp oder der Fertigungszeit des Videobeobachtungsteils. Deshalb hat das elektronische Endoskop in einer vorteilhaften Weiterbildung einen Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer als die effektive Pixelzahl ist. Ist dies der Fall, so erzeugt der Bildprozessor das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung. Ist dagegen die Pixelzahl des Bildsensors nicht größer als die effektive Pixelzahl, so erzeugt der Bilderzeugungsprozessor während der Normaldarstellung das Allpixel- Objektbild als Objektbild normaler Darstellung, und er erzeugt während der ver­ größerten Darstellung das Objektbild vergrößerter Darstellung, indem er an dem Allpixel-Objektbild eine Interpolation vornimmt. Da in der normalen Darstellung eine Abwärtsabtastung nicht erfolgt, wenn die Pixelzahl klein ist, verschlechtert sich in der normalen Darstellung die Auflösung des betrachteten Bildes nicht.
Vorzugsweise hat das elektronische Endoskop eine Eingabevorrichtung, mit der der Benutzer einen zu vergrößernden Teil des betrachteten Bildes auswählt, das in der normalen Darstellung dargestellt wird. Die Eingabevorrichtung wird betätigt, um eine vorbestimmte Position in dem dem Objektbild normaler Darstellung entsprechenden Normalbild anzuzeigen. Bei Verwendung der Eingabevorrichtung hat das elektronische Endoskop einen Anzeigepixelprozessor. Der Anzeigepixel­ prozessor erfasst eine über die Eingabevorrichtung eingestellte Anzeigeposition und bestimmt ein der Anzeigeposition entsprechendes Anzeigepixel aus den Pixeln des Allpixel-Objektbildes. Der Bilderzeugungsprozessor erzeugt das Ob­ jektbild vergrößerter Darstellung, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den aus der zweiten Anzahl an Pixeln bestehenden Teilbe­ reich festlegt.
Die Eingabevorrichtung ist beispielsweise eine Tastatur, die als Eingabegerät für das elektronische Endoskop dient. In diesem Fall hat das elektronische Endoskop einen Markierungsprozessor, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeige­ markierung an der vorbestimmten Position angezeigt wird. Die Tastatur ist an den Videoprozessor angeschlossen und hat Schiebetasten, um die Position der An­ zeigemarkierung der Anzeige zu verschieben. Der Markierungsprozessor stellt die Position der Anzeigemarkierung in Abhängigkeit der Betätigung der Schiebetasten ein. Der Anzeigepixelprozessor erfasst dann die Position der Anzeigemarkierung als Anzeigeposition und bestimmt das Anzeigepixel aus der Position der Anzei­ gemarkierung.
Andererseits kann als Eingabevorrichtung auch ein Berührungsfeld verwendet werden. Dieses ist an den Videoprozessor angeschlossen und auf der Anzeige angeordnet. Das Berührungsfeld identifiziert eine Stelle, die von dem Benutzer berührt wird, und informiert den Videoprozessor entsprechend. Der Anzeigepixel­ prozessor erfasst die Berührungsstelle als Anzeigeposition und bestimmt das Anzeigepixel entsprechend.
Vorzugsweise ermittelt der Anzeigepixelprozessor, ob der aus der zweiten Anzahl an Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedingung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes wird. Kann der Teilbereich in dieser Weise nicht festgelegt werden, so ändert der Anzeigepixelprozessor die Anzeigepixelposition derart, dass ein Objektbild ver­ größerter Darstellung, das aus der zweiten Anzahl an Pixeln besteht, erzeugt wird. Das Objektbild vergrößerter Darstellung besteht üblicherweise aus der zweiten Anzahl an Pixeln.
Vorzugsweise erzeugt der Bilderzeugungsprozessor das Darstellungsobjektbild in dem Videobeobachtungsteil. In diesem Fall erhält man einen Videoprozessor durch minimale Abwandlung des Aufbaus eines herkömmlichen Videoprozessors. Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild normaler Darstellung, indem er eine Abwärtsabtastung vornimmt. Die Abwärtsabtastung liest aus dem Bildsensor nur Bildpixelsignale aus, die in Pixeln erzeugt werden, durch die das Objektbild normaler Darstellung erzeugt wird. Ferner erzeugt der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung, indem er aus dem Bildsensor nur Bildpixelsignale ausliest, die in Pixeln erzeugt werden, die innerhalb des Teilbereichs angeordnet sind. Der zum Erzeugen des Darstellungs­ objektbildes in dem Videobeobachtungsteil erforderliche Aufbau wird dadurch vereinfacht.
Vorzugsweise ist an einem Bedienteil des Videobeobachtungsteils ein Be­ dienelement angebracht, um die Position der Anzeigemarkierung zu verschieden. Der Markierungsprozessor stellt die Position der Anzeigemarkierung in Abhängig­ keit einer Betätigung des Bedienelementes ein. Der Anzeigepixelprozessor erfasst die Position der Anzeigemarkierung als Anzeigeposition und bestimmt das Anzei­ gepixel aus der Position der Anzeigemarkierung. Der Benutzer kann die Anzeige­ markierung durch Betätigen des Videobeobachtungsteils verschieben. Um dieses Betätigen besonders einfach zu gestalten, hat das Bedienelement vorzugsweise mehrere Drucktasten zum Verschieben der Anzeigemarkierung, wobei der Markie­ rungsprozessor die Position der Anzeigemarkierung in Abhängigkeit der Betäti­ gung der Drucktasten einstellt. Beispielsweise besteht das Bedienelement aus einer ersten, einer zweiten und einer dritten Drucktaste, die an einem verjüngt zulaufenden Endabschnitt des Bedienteils angeordnet sind. Die erste Drucktaste ist dabei an einer Fläche des zusammenlaufenden Endabschnittes angeordnet, während die zweite und die dritte auf einer anderen Fläche des Endabschnittes angeordnet sind. Die drei Drucktasten sind so angeordnet, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Daumen, Zeigefinger, Mittelfin­ ger gleichzeitig betätigt werden können.
Gemäß einem weiteren Aspekt der Erfindung ist eine Einrichtung zum Darstellen eines normalen und eines vergrößerten Bildes vorgesehen, die enthalten ist in einem elektronischen Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einem Videoprozessor und einer Anzeige. Der Videobeobachtungsteil und die Anzeige sind an den Videoprozessor angeschlossen. Die Einrichtung hat einen Bilderzeugungsprozessor, einen Signalprozessor und einen Darstellungsände­ rungsprozessor. Der Bilderzeugungsprozessor erzeugt ein Darstellungsobjektbild auf Grundlage eines Allpixel-Objektbildes, wie es auf dem Bildsensor erzeugt wird.
Das Allpixel-Objektbild besteht im Wesentlichen aus allen in dem Bildsensor vorgesehenen Pixeln. Der Signalprozessor erzeugt Videosignale auf Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale und gibt sie an die Anzeige aus. Der Darstellungsänderungsprozessor wechselt den Darstellungszu­ stand von normaler Darstellung auf vergrößerte Darstellung und umgekehrt. Der Bilderzeugungsprozessor erzeugt während der normalen Darstellung ein Objekt­ bild normaler Darstellung als Darstellungsbild, das aus einer geringeren Anzahl an Pixeln besteht, als das Allpixel-Objektbild. Die Bildauflösung des Objektbildes normaler Darstellung unterscheidet sich von der des Allpixel-Objektbildes. Ferner erzeugt der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Darstellungsobjektbild, das aus Pixeln besteht, die innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordnet sind.
Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
Fig. 1 ein Blockdiagramm eines ersten Ausführungsbeispiels des elektroni­ schen Endoskops,
Fig. 2 eine Darstellung eines auf einem Monitor normal und vergrößert dargestellten Bildes,
Fig. 3 eine schematische Darstellung zur Erläuterung einer Abwärtsabta­ stung,
Fig. 4 eine Darstellung eines Vergrößerungsprozesses,
Fig. 5 eine Darstellung zur Erläuterung, wie die Position eines Anzeigepi­ xels eingegrenzt wird,
Fig. 6 ein Flussdiagramm einer Hauptroutine für den Betrieb des elektroni­ schen Endoskops insgesamt,
Fig. 7 ein Flussdiagramm einer Unterroutine eines auf einen angeschlos­ senen Videobeobachtungsteil bezogenen Darstellungsprozesses,
Fig. 8 ein Flussdiagramm einer Unterbrechungsroutine eines Darstel­ lungsänderungsprozesses,
Fig. 9 eine Darstellung eines in neun Bereiche unterteilten Bilderzeu­ gungsbereichs,
Fig. 10 ein Flussdiagramm einer Unterroutine des Darstellungsprozesses,
Fig. 11 ein Blockdiagramm eines zweiten Ausführungsbeispiels des elektro­ nischen Endoskops,
Fig. 12 ein Blockdiagramm eines dritten Ausführungsbeispiels des elektroni­ schen Endoskops,
Fig. 13 einen Bedienteil eines Videobeobachtungsteils, und
Fig. 14 ein Flussdiagramm mit einem Prozess zum Verschieben eines Zeigers.
Im Folgenden werden bevorzugte Ausführungsbeispiele unter Bezugnahme auf die Figuren beschrieben.
Fig. 1 zeigt ein Blockdiagramm eines elektronischen Endoskops, das ein erstes Ausführungsbeispiel darstellt. Fig. 2 zeigt ein auf einem Monitor dargestelltes Bild.
In dem elektronischen Endoskop sind ein Videobeobachtungsteil 10, ein Video­ prozessor 20 und ein Fernseh- oder TV-Monitor 50 vorgesehen. Der Monitor 50 ist an den Videoprozessor 20 angeschlossen. Der Videobeobachtungsteil 10 ist lösbar und austauschbar mit dem Videoprozessor 20 verbunden. Das elektroni­ sche Endoskop wird in einer Operation, einer Untersuchung oder einer Behand­ lung eines Organs, z. B. des Magens, in der Weise benutzt, dass der Videobeob­ achtungsteil 10 in den Körper eingeführt wird. Eine CPU 36, die in einer in dem Videoprozessor 20 enthaltenen Systemsteuerschaltung 34 vorgesehen ist, steuert das gesamte elektronische Endoskop.
Eine in dem Videoprozessor 20 vorgesehene Lichtquelle 29 strahlt Licht ab, das über eine Blende 30 und eine Sammel- oder Kondensorlinse 31 auf eine Eintritts­ fläche 13a eines Lichtleiters 13 gerichtet ist. Die Lichtquelle 29 ist eine Halogen­ lampe. Der in dem Videobeobachtungsteil 10 vorgesehene Lichtleiter 13 ist ein optisches Lichtleitfaserbündel, das das Licht aus der Lichtquelle 29 auf das distale Ende des Videobeobachtungsteils 10 führt. Das in die Eintrittsfläche 13a eintre­ tende Licht durchläuft den Lichtleiter 13 und wird aus dessen distalem Ende 13b über eine Zerstreuungslinse 14 auf ein Objekt S gestrahlt, so dass dieses be­ leuchtet wird.
Das an dem Objekt S reflektierte Licht erreicht über eine Objektivlinse 11 eine ladungsgekoppelte Vorrichtung 12, kurz CCD, die einen Bildsensor darstellt. Dabei wird auf der CCD 12 das Objektbild erzeugt. Auf einer auf der CCD 12 vorgesehenen Lichtempfangsfläche sind mehrere, nicht dargestellte Fotosensoren oder Fotodioden regelmäßig angeordnet. Jede Fotodiode entspricht dabei einem Pixel der CCD 12. Da in dem vorgestellten Ausführungsbeispiel ein Einchip- Filterverfahren als Farbaufnahmeverfahren angewendet wird, befindet sich vor den regelmäßig angeordneten Fotodioden ein nicht dargestelltes Einchip- Komplementärfarbfilter. Wird das Objektbild auf der Lichtempfangsfläche der CCD 12 erzeugt, so werden durch den Fotoeffekt analoge Bildpixelsignale entspre­ chend dem durch das Farbfilter tretenden Licht erzeugt. Die Pixelzahl der CCD 12 beträgt dabei etwa 1200000.
In diesem Ausführungsbeispiel kann als Darstellungszustand entweder eine normale Darstellung oder eine vergrößerte Darstellung gewählt werden. Als Vi­ deostandard (Videoabtaststandard) wird das NTSC-Verfahren angewendet. Der Monitor 50 ist auf das NTSC-Verfahren ausgelegt. Die Auflösung des Monitors 50, also die maximale Anzahl an Pixeln, die der Monitor 50 nutzen kann, entspricht deshalb dem NTSC-Verfahren und beträgt etwa 410000.
In der normalen Darstellung werden Bildpixelsignale, die in 300000 in der CCD 12 vorgesehenen Pixeln erzeugt werden, aus der CCD 12 ausgelesen. Eine Bild­ wandlerschaltung 70, die einen CCD-Treiber 16 enthält, erzeugt entsprechend einem auf der CCD 12 erzeugten optischen Objektbild ein auf dem Monitor 50 darzustellendes Bild. Die CCD 12 wird durch den CCD-Treiber 16 angesteuert, indem Treibersignale nicht dargestellten Ladungsübertragungsregistern zugeführt werden, die in der CCD 12 vorgesehen sind. In der normalen Darstellung werden Bildpixelsignale (erste Bildpixelsignale), die in etwa 300000 von 1200000 Pixeln erzeugt werden, aus der CCD 12 ausgelesen. Die Treibersignale für die La­ dungstransferregister sind so eingestellt, dass lediglich Ladungen, die an den 300000 Pixeln erzeugt werden, an die Ladungsübertragungsregister übertragen werden. So wird ein (1) Rahmen (Rahmen/Feld-Wert) Bildpixelsignale entspre­ chend einem aus etwa 300000 Pixeln bestehenden Objektbild der Bildwandler­ schaltung 17 als Farbbildsignale zugeführt. Die Bildwandlerschaltung 17 steuert die Treibersignale, die der CCD 12 von dem CCD-Treiber 16 zugeführt werden, in Abhängigkeit eines Steuersignals, das die Systemsteuerschaltung 34 liefert. Der eine Rahmen (Rahmenwert) Bildpixelsignale wird einer CCD- Verarbeitungsschaltung, kurz CCD-Schaltung, 21 über die Bildwandlerschaltung 17 zugeführt. Da das NTSC-Verfahren angewendet wird, wird der eine Rahmen (Rahmenwert) der Bildpixelsignale in 1/30(1/60)-Sekundenintervallen aus der CCD 12 ausgelesen.
In der CCD-Schaltung 21 werden die zugeführten Bildpixelsignale einigen Prozes­ sen unterzogen, z. B. einer Rauschverringerung. Der eine (1) Rahmen Bildpixelsi­ gnale wird in Primärfarbbildsignale gewandelt, die aus Rot-Signalkomponenten (R), Grün-Signalkomponenten (G) und Blau-Signalkomponenten (B) bestehen. Die Primärfarbbildsignale sind jeweils in die R-, G-, B-Signalkomponenten unter­ teilt. Die analogen Primärfarbbildsignale werden in einem A/D-Wandler 22 in digitale Farbsignale gewandelt. Die digitalen Farbsignale werden in einem Bild­ speicher 23 temporär gespeichert. Die gespeicherten digitalen Farbbildsignale werden aus dem Bildspeicher 23 einem D/A-Wandler 25 zugeführt, in dem die digitalen Bildsignale in analoge Bildsignale gewandelt werden. Die analogen Bildsignale werden einer Videoverarbeitungsschaltung, kurz Videoschaltung, 26 zugeführt, in der sie in Videosignale wie zusammengesetzte NTSC-Signale umge­ setzt werden.
In einer Datensichtgerät- oder CRT-Steuerung 24, die im Folgenden kurz als CRTC bezeichnet wird und einen nicht dargestellten Zeichengenerator-ROM enthält, um Zeicheninformationen und eine Anzeigemarkierung wie einen Zeiger auf dem Monitor darzustellen, werden Zeichensignale erzeugt und ausgegeben. Die von der CRTC 24 ausgegebenen Zeichensignale werden den von dem Bild­ speicher 23 ausgegebenen Videosignalen überlagert. In der Systemsteuerschal­ tung 34 werden Zeichensteuersignale zum Erzeugen der Zeichensignale an die CRTC 24 ausgegeben. Die zeitliche Festlegung, d. h. das Timing der Ausgabe der Zeichensignale wird über die Systemsteuerschaltung 34 so eingestellt, dass die Zeicheninformation und/oder die Anzeigemarkierung an vorgegebenen Positionen dargestellt werden.
Die Videosignale werden dem Monitor 50 der Reihe nach entsprechend dem NTSC-Verfahren zugeführt. Auf diese Weise wird ein beobachtetes Bild im nor­ malen Darstellungsmodus innerhalb eines auf dem Monitor 50 vorgesehenen Bildbereichs dargestellt (vgl. Fig. 2). Im Folgenden wird dieses im normalen Dar­ stellungsmodus dargestellte Bild als "Normalbild" bezeichnet. Die Pixelzahl in dem Bildbereich NA beträgt etwa 300000, was der Zahl der Pixel entspricht, aus denen die Bildpixelsignale ausgelesen werden.
In einem elektrisch löschbaren programmierbaren Festwertspeicher 15, kurz EEPROM, der in dem Videobeobachtungsteil 10 vorgesehen ist, werden im vor­ aus auf den Typ des Videobeobachtungsteils 10 bezogene Daten wie die Pixel­ zahl und die Pixelanordnung gespeichert. Ist der Videobeobachtungsteil 10 an den Videoprozessor 20 angeschlossen, so werden die Daten aus dem EEPROM 15 ausgelesen und der Systemsteuerschaltung 34 zugeführt. In der Systemsteu­ erschaltung 34 sind ein Positionierspeicher 35, eine CPU 36, ein ROM 37 und ein RAM 38 vorgesehen. Die aus dem EEPROM 15 ausgelesenen Daten werden temporär in dem RAM 38 gespeichert. Die Größe des Bildbereichs NA ist entspre­ chend der Pixelzahl der CCD 12 und dem Videostandard vorbestimmt. Die auf den Bildbereich NA und die Pixelanordnungsdaten der CCD 12 bezogenen Daten werden temporär in dem Positionierspeicher 35 gespeichert.
In der normalen Darstellung wird ein Zeiger P dargestellt, der einen bestimmten Teil in dem Normalbild anzeigt. Die Anzeigeposition des Zeigers P wird über eine Tastatur 51 verschoben.
Wird ein auf der Tastatur 51 vorgesehenes Schiebetastenfeld 51E betätigt, das aus einer Aufwärts-Taste 51U, einer Abwärts-Taste 51D, einer Rechts-Taste 51R und einer Links-Taste 51L besteht, so wird der Systemsteuerschaltung 34 ein der betätigten Taste zugeordnetes Betätigungssignal zugeführt. Basierend auf diesem Betätigungssignal, in dem die Positionsdaten des zu verschiebenden Zeigers P enthalten sind, wird das Zeichensteuersignal der CRTC 24 von der Systemsteuer­ schaltung 34 zugeführt, so dass der Zeiger P in eine der betätigten Schiebetaste entsprechende Richtung verschoben wird. Der Zeiger P wird also nach oben, nach unten, nach links oder nach rechts verschoben. Eine Funktionstaste 51F dient der Änderung des Darstellungszustandes, nämlich dem Wechsel zwischen der nor­ malen Darstellung und der vergrößerten Darstellung. Wird die Funktionstaste 51F betätigt, wenn das Normalbild und der Zeiger P auf dem Monitor 50 dargestellt werden, so wird ein vergrößertes Bild, das ein vergrößertes Bild des bestimmten Bildteils ist, so dargestellt, dass die durch den Zeiger P angezeigte Position zum Mittelpunkt des vergrößerten Bildes wird, wie Fig. 2 zeigt. Das Bild des bestimm­ ten Bildteils wird im Folgenden als "vergrößertes Bild" bezeichnet. In diesem Fall werden Bildpixelsignale, die an dem vergrößerten Bild entsprechenden Pixeln erzeugt werden, aus der CCD 12 entsprechend den Treibersignalen ausgelesen, die aus dem in der Bildwandlerschaltung 17 vorgesehenen CCD-Treiber 16 stammen. Wird die Funktionstaste 51F nochmals betätigt, so wechselt die Dar­ stellung aus der vergrößerten Darstellung zurück in die normale Darstellung.
Ähnlich wie bei einem herkömmlichen elektronischen Endoskop wird die Position des Zeigers P von der Systemsteuerschaltung 34 so gesteuert, dass sich der Zeiger P nicht aus dem Bildbereich NA herausbewegt. Die Systemsteuerschaltung 34 führt der CRTC 24 das Steuersignal auf Grundlage der in dem Positionierspei­ cher 35 gespeicherten, auf den Bildbereich NA bezogenen Daten und des Betäti­ gungssignals zu.
Ein Taktgenerator 28 gibt einen Taktimpuls an jede Schaltung, nämlich die CCD- Schaltung 21, den Bildspeicher 23, die CRTC 24, die Videoschaltung 26 etc. aus, wodurch in jeder Schaltung die zeitliche Festlegung, d. h. das Timing der Si­ gnaleingabe und -ausgabe gesteuert wird. In der CCD-Schaltung 21 werden aus den Bildpixelsignalen die Luminanzsignale erzeugt und über den A/D-Wandler 22 der Systemsteuerschaltung 34 zugeführt. Auf Grundlage der Luminanzsignale gibt die Systemsteuerschaltung 34 ein Steuersignal für die Blende 30 an die Blenden­ steuerung 33 aus. Die Blendensteuerung 33 führt einem Motor 32 ein Treibersi­ gnal zu, um ihn so anzusteuern, dass er die Blende 30 öffnet oder schließt und so die Lichtmenge gesteuert wird, mit der das Objekt S beleuchtet wird.
Fig. 3 zeigt eine Pixelanordnung (Fotosensoranordnung) in der CCD 12.
Das auf der CCD 12 vorgesehene Komplementärfarbfilter CC ist ein Mosaikfarb­ filter, bei dem die Farben Cyan (Cy), Magenta (Mg), Gelb (Ye) und Grün (G) schachbrettartig angeordnet sind. Das Farbfilter CC ist in mehrere Blöcke B unterteilt, die jeweils aus vier Farbelementen (Cy, Mg, Ye, G) bestehen. Die auf dem Farbfilter CC vorgesehene Anordnung entspricht der Pixelanordnung der CCD 12. In diesem Ausführungsbeispiel wird als Ladungsübertragungsverfahren das Zwischenleitungsübertragungsverfahren (Interline-Übertragungsverfahren) angewendet. So sind vertikale Register längs Spalten in der Pixelanordnung zwischen zwei einander benachbarten vertikalen Pixelanordnungen (nicht gezeigt) vorgesehen. Außerdem sind horizontale Register unterhalb der Pixelanordnung regelmäßig angeordnet (nicht gezeigt). In Fig. 3 sind zur Vereinfachung der Er­ läuterung nur die Pixelanordnung und die Filteranordnung gezeigt, wobei die einzelnen Pixel mit Pij bezeichnet sind. Die linke Ecke der Pixelanordnung ist als Ursprung festgelegt. Der Index j gibt die Pixelposition in vertikaler Richtung und der Index i die Pixelposition in horizontaler Richtung an. In Fig. 3 sind auch die Positionen der Farbfilterelemente durch entsprechende Indizes angegeben. In der Pixelanordnung sind in horizontaler Richtung M Pixel und in vertikaler Richtung N Pixel angeordnet.
In der normalen Darstellung wird eine "Abwärtsabtastung", d. h. eine Pixelzahl­ transformation oder Bildgrößentransformation vorgenommen. Wie oben erläutert, werden im Zustand der normalen Darstellung etwa 300000 Pixel abgetastet, um das Objektbild zu erzeugen. Um 300000 Pixel von 1200000 auf der CCD 12 vorgesehenen Pixeln abzutasten, wird eines von vier Pixeln entsprechend den benachbarten vier Elementen gleicher Farbe abgetastet, und es werden nur die in den abgetasteten Pixeln erzeugten Ladungen an die vertikalen Register übertra­ gen. Die in den übrigen drei Pixeln erzeugten Ladungen werden nicht an die vertikalen Register übertragen. Dieser Prozess wird an den benachbarten vier Pixeln entsprechend den benachbarten vier Elementen gleicher Farbe und weiter an allen Farbelementen (Cy, Mg, Ye, G) vorgenommen.
In Fig. 3 ist eine Pixelanordnung gezeigt, die aus den abgetasteten Pixeln besteht (300000 Pixeln). Bezeichnet man das abgetastete Pixel mit P'ji, so erhält man P'ji nach einer der folgenden vier Formeln. Entsprechend der Pixelanordnung in der CCD 12 gibt der Index j die Position der abgetasteten Pixel in vertikaler Richtung und der Index i die Position der abgetasteten Pixel in horizontaler Richtung an.
P'ji = Pji (j<2, i<2) (1)
P'ji = Pj+2,i (j≧2, i<2) (2)
P'ji = Pj,i+2 (j<2, i≧2) (3)
P'ji = Pj+2,i+2 (j≧2, i≧2) (4)
Beispielsweise wird unter den Pixeln P00, P02, P20, P22, die den benachbarten Cyan-Farbelementen Cy11, Cy12, Cy21, Cy22 entsprechen, das dem Cyan- Farbelement Cy11 entsprechende Pixel P00 als Pixel P'00 gemäß Formel (1) abge­ tastet. Entsprechend wird unter den Pixeln P54, P56, P74, P76, die den einander benachbarten Gelb-Farbelementen Ye33, Ye34, Ye43, Ye44 entsprechen, das dem Gelb-Farbelement Ye33 entsprechende Pixel P54 gemäß Formel (4) als Pixel P'32 abgetastet. Die Formeln (1) bis (4) sind entsprechend der Anordnung des Farbfil­ ters CC definiert. Wird ein anderer Typ von Farbelement (z. B. R, G, B) oder ein anderes Anordnungsverfahren des Farbfilters angewendet, so ändern sich die Formeln (1) bis (4) entsprechend.
Die Abwärtsabtastung wird an den 1200000 Pixeln vorgenommen, so dass das Objektbild auf der CCD 12 in ein Bild transformiert wird, das aus etwa 300000 Pixeln besteht. In der Pixelanordnung des transformierten Objektbildes sind in horizontaler Richtung m Pixel und in vertikaler Richtung n Pixel angeordnet. Da der Ähnlichkeitsfaktor ¼ beträgt, ist m gleich M/2 und n gleich N/2. Das auf der CCD 12 erzeugte Objektbild, das aus allen in der CCD 12 vorgesehenen Pixeln besteht, wird im Folgenden als "Allpixel-Objektbild" bezeichnet, während das aus den etwa 300000 abgetasteten Pixeln bestehende Objektbild im Folgenden als "Objektbild normaler Darstellung" bezeichnet wird.
Fig. 4 zeigt einen Vergrößerungsprozess. Hierbei wird die Position des Zeigers P auf dem Monitor 50 durch Monitorkoordinaten (X, Y) dargestellt. X bezeichnet die Position in horizontaler Richtung und Y die Position in vertikaler Richtung. Die Pfeilspitze des Zeigers P stellt die Anzeigepixelposition dar. Im Folgenden wird ein Bereich auf der CCD 12, innerhalb dessen das Allpixel-Objektbild erzeugt wird, als Bilderzeugungsbereich TI bezeichnet.
Wie oben erläutert, wird im Zustand der normalen Darstellung das auf der CCD 12 erzeugte Allpixel-Objektbild durch die Abwärtsabtastung in das Objektbild norma­ ler Darstellung transformiert. Das Objektbild normaler Darstellung wird dann auf dem Monitor 50 dargestellt. Auf dem Monitor 50 wird der Zeiger P durch Betätigen des ersten Feldes 51E an vorgegebenen Koordinaten (X0, Y0) positioniert. In der Systemsteuerschaltung 34 wird die Position des Zeigers P über das von dem Tastenfeld 51E gelieferte Betätigungssignal erfasst, das eine Information über die verschobene Position des Zeigers P enthält.
Drückt der Benutzer die Funktionstaste 51F, so wird der nachfolgend beschriebe­ ne Vergrößerungsprozess durchgeführt.
Zunächst wird in der Pixelanordnung des Objektbildes normaler Darstellung ein Pixel P'c, das der Position des Zeigers P entspricht, über die Koordinaten (X0, Y0) und die in dem Positionierspeicher 35 gespeicherten Bildbereichsdaten erfasst. Wie in Fig. 3 gezeigt, erhält man das Pixel P'ji in dem Objektbild normaler Dar­ stellung über eine der Formeln (1) bis (4). Über die Formeln (1) bis (4) erhält man deshalb ein Pixel in dem Allpixel-Objektbild entsprechend dem Pixel P'c, d. h. den Koordinaten (X0, Y0) des Zeigers P. Das vorstehend genannte Pixel in dem Allpixel-Objektbild wird durch ein Anzeigepixel Pc und die Position dieses Anzei­ gepixels Pc in dem Bilderzeugungsbereich TI durch Koordinaten (K, H) dargestellt. Pc ist nämlich PK,H.
Dann wird ein Teilbereich PI, der einen Teil des Bilderzeugungsbereichs TI bildet, festgelegt. Das Anzeigepixel Pc wird zum Mittelpunkt des Teilbereichs PI. In diesem Ausführungsbeispiel ist der dem Teilbereich PI entsprechende Teil des Allpixel-Objektbildes als ein Bild festgelegt, das im Betriebszustand vergrößerter Darstellung erzeugt wird. Das Teilbild, das aus in dem Teilbereich PI angeordne­ ten Pixeln besteht, wird als "Objektbild vergrößerter Darstellung" bezeichnet. In diesem Ausführungsbeispiel ist die Größe des Normalbereichs NA auf dem Mo­ nitor 50 im Wesentlichen gleich der Größe des Vergrößerungsbereichs MA. So ist nämlich die Pixelzahl des Objektbildes vergrößerter Darstellung gleich der des Objektbildes normaler Darstellung. Um das Objektbild vergrößerter Darstellung zu erzeugen, wird der Teilbereich PI, in dem 300000 Pixel angeordnet sind, so fest­ gelegt, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs PI wird. Die Pixelzahl ist in horizontaler Richtung gleich m (= M/2) und in vertikaler Richtung gleich n (= N/2). Die Systemsteuerschaltung 34 führt der Bildwandlerschaltung 17 ein Steuersignal entsprechend den in dem Positionierspeicher 35 gespeicherten Pixelanordnungsdaten zu, so dass Treibersignale, die den Pixeln für das Objekt­ bild vergrößerter Darstellung entsprechen, an die CCD 12 ausgegeben werden. So werden nur die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs P erzeugt werden, aus der CCD 12 ausgelesen, und das vergrößerte Bild wird innerhalb des Bildbereichs MA dargestellt.
Es können auch andere Ähnlichkeitsfaktoren verwendet werden. Ist die Pixelzahl der CCD 12 gleich D und die des Objektbildes normaler Darstellung gleich U, so ist der Ähnlichkeitsfaktor gleich D/U. Der Wert U ist ≦ etwa 410000. In diesem Fall sind die Formeln (1) bis (4) entsprechend dem Ähnlichkeitsfaktor zu ändern. Der Kehrwert des Ähnlichkeitsfaktors kann gleich einer anderen Ganzzahl sein, z. B. 1/4, ähnlich dem vorliegenden Ausführungsbeispiel, oder aber er kann eine rationale Zahl sein, z. B. 2/7. Ist dies der Fall, werden die den anderen Ganzzahlen oder den rationalen Zahlen entsprechenden Abwärtsabtastungen vorgenommen, die aus dem Stand der Technik bekannt sind. Um ein hochaufgelöstes Normalbild in der normalen Darstellung zu erhalten, kann der Bilderzeugungsprozessor das Objektbild normaler Darstellung erzeugen, indem das aus dem Stand der Technik bekannte Mittelungsverfahren durchgeführt wird, bei dem ein Mittel benachbarter Pixel, die den einander benachbarten Elementen gleicher Farbe entsprechen, berechnet wird.
Fig. 5 zeigt, wie die Position des Anzeigepixels Pc eingegrenzt wird.
Wie oben erläutert, hat der Teilbereich PI m × n (= 300000) Pixel, so dass das Anzeigepixel Pc zum Mittelpunkt des Teilbereichs P wird. Für die horizontale Richtung sind von der Position des Anzeigepixels Pc aus m/2 Pixel in positiver Richtung und m/2 Pixel in negativer Richtung angeordnet. Entsprechend sind für die vertikale Richtung von der Position des Anzeigepixels Pc aus n/2 Pixel in positiver Richtung und n/2 Pixel in negativer Richtung angeordnet. Befindet sich das Anzeigepixel Pc, das entsprechend der Position des Zeigers P festgelegt ist, nahe dem Umriss des Bilderzeugungsbereichs TI, so kann der Teilbereich PI nicht festgelegt und damit das Objektbild vergrößerter Darstellung nicht erzeugt wer­ den. Befindet sich, wie beispielhaft in Fig. 5 gezeigt, die Koordinate (K, H) des Anzeigepixels Pc näher dem Ursprung (0,0) als die Koordinate (m/2, n/2), so befindet sich ein Teil des Teilbereichs PI außerhalb des Bilderzeugungsbereichs TI, wie durch die Schraffur angedeutet ist.
In diesem Ausführungsbeispiel wird der Bilderzeugungsbereich TI, wie später erläutert wird, in neun Bereiche unterteilt, und dann der Teilbereich PI entspre­ chend den neun Bereichen und der Position des Anzeigepixels Pc festgelegt.
Fig. 6 ist ein Flussdiagramm einer Hauptroutine, die auf den Betrieb des elektroni­ schen Endoskops insgesamt bezogen ist und von der in der Systemsteuerschal­ tung 34 vorgesehenen COU 36 ausgeführt wird. Wird die elektrische Energiever­ sorgung eingeschaltet, so beginnt der Prozess.
In Schritt 101 werden die Lichtquelle 29, die Blende 30 etc. initialisiert. In Schritt 102 wird ein auf den Videobeobachtungsteil 10 bezogener Darstellungsprozess ausgeführt. In Schritt 103 werden weitere Prozesse ausgeführt, z. B. ein Prozess zur Datumsanzeige. Die vorstehend genannten Prozesse werden so lange aus­ geführt, bis die elektrische Energieversorgung ausgeschaltet wird.
Fig. 7 zeigt die Unterroutine des Schrittes 102 nach Fig. 6. Die in dem Videobeob­ achtungsteil 10 vorgesehene, in den Fig. 1 bis 5 gezeigte CCD 12 hat etwa 1200000 Pixel. Es können jedoch auch andere Typen von Videobeobachtungs­ teilen an den Videoprozessor 20 angeschlossen werden, die eine andere Anzahl von Pixeln haben. Ist in diesem Ausführungsbeispiel die Pixelzahl der in dem Videobeobachtungsteil 10 vorgesehenen und an den Videoprozessor 20 ange­ schlossenen CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird die Abwärtsabtastung in dem Betriebszustand normaler Darstellung nicht durchge­ führt, und in dem Betriebszustand vergrößerter Darstellung wird eine Interpolation vorgenommen.
In Schritt 201 wird ermittelt, ob der Videobeobachtungsteil 10 an den Videopro­ zessor 20 angeschlossen ist. Ist dies nicht der Fall, d. h. ist der Videobeobach­ tungsteil abgenommen, um einen Videobeobachtungsteil anderen Typs anzu­ schließen, endet diese Unterroutine. Wird dagegen ermittelt, dass der Videobeob­ achtungsteil 10 an den Videoprozessor 20 angeschlossen ist, so fährt der Steuer­ ablauf mit Schritt 202 fort. In Schritt 202 wird auf Grundlage der auf die Pixelzahl bezogenen Daten, die aus dem EEPROM 15, der in dem an dem Videoprozessor 20 angeschlossenen Videobeobachtungsteil 10 vorgesehen ist, ausgelesen werden, ermittelt, ob die Pixelzahl der CCD 12 größer als die effektive Pixelzahl ist, die auf das NTSC-Verfahren ausgelegt ist (410000 Pixel).
Wird in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 203 fort, in dem die Ab­ wärtsabtastung oder die Pixelzahltransformation erfolgt. So werden die Bildpixel­ signale, die in Pixeln entsprechend dem Objektbild normaler Darstellung erzeugt werden, aus der CCD 12 ausgelesen. In Schritt 204 werden aus den ausgelese­ nen Bildpixelsignalen die Videosignale erzeugt und von der Videoschaltung 26 an den Monitor 50 übertragen, wobei auf dem Monitor 50 das Normalbild dargestellt wird, das dem Objektbild normaler Darstellung entspricht. Nach Ausführen des Schrittes 204 endet die Unterroutine.
Wird dagegen in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 nicht größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 205 fort. In Schritt 205 werden die in allen Pixeln der CCD 12 erzeugten Bildpixelsignale ausgelesen, deren Zahl kleiner als die effektive Pixelzahl ist. In diesem Fall wird das Allpixel-Objektbild das Objektbild normaler Darstellung. In Schritt 206 werden die dem Allpixel-Objektbild entsprechenden Videosignale erzeugt und dem Moni­ tor 50 zugeführt, so dass auf letzterem das Normalbild dargestellt wird.
Fig. 8 ist ein Flussdiagramm einer Unterbrechungsroutine eines Prozesses zum Ändern der Darstellung zwischen vergrößerter und normaler Darstellung. Fig. 9 zeigt den Bilderzeugungsbereich TI.
In Schritt 301 wird ermittelt, ob die Funktionstaste 51F im Betriebszustand der normalen Darstellung gedrückt wird. Es wird also ermittelt, ob die Funktionstaste 51F gedrückt wird, um von der normalen Darstellung auf die vergrößerte Darstel­ lung zu wechseln.
Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F im Betriebszustand der normalen Darstellung gedrückt wird, so fährt der Prozess mit Schritt 302 fort. In Schritt 302 wird ermittelt, ob die Pixelzahl der in dem Videobeobachtungsteil 10 vorgesehenen CCD 12 die effektive Pixelzahl von etwa 410000 überschreitet.
Wird in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 die effektive Pixel­ zahl überschreitet, so fährt der Prozess mit Schritt 303 fort, worin die die Position des Zeigers P darstellenden Monitorkoordinaten (X0, Y0) erfasst werden. Auf Grundlage der Monitorkoordinaten (X0, Y0) wird das Anzeigepixel Pc in dem Bilderzeugungsbereich TI spezifiziert, und man erhält in oben erläuterter Weise die Koordinate (K, H) des Anzeigepixels Pc in dem Bilderzeugungsbereich TI. Nach Ausführen des Schrittes 303 fährt der Prozess mit Schritt 304 fort.
Wie in Fig. 9 gezeigt, ist der Bilderzeugungsbereich TI in neun Bereiche UA1, UA2, UA3, UA4, UA5, UA6, UA7, UA8 und CA unterteilt. Befindet sich das Anzei­ gepixel Pc in dem Bereich CA, so kann der Teilbereich PI mit seinen m × n Pixeln so festgelegt werden, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs PI wird. Befindet sich dagegen das Anzeigepixel Pc in einem der anderen Berei­ che UA1 bis UA8, so wird das Anzeigepixel Pc, das den Mittelpunkt des Teilbe­ reichs PI bilden soll, in ein modifiziertes Pixel P'c geändert, das auf dem Umriss des Bereichs CA angeordnet ist. Dann wird der Teilbereich PI festgelegt, dessen Mittelpunkt das modifizierte Anzeigepixel P"c ist.
In Schritt 304 wird ermittelt, ob die Koordinate K in horizontaler Richtung die folgende Formel erfüllt:
0 ≦ K < m/2 (5)
Es wird also ermittelt, ob das Anzeigepixel Pc in einem der Bereiche UA1, UA2 und UA3 angeordnet ist.
Wird festgestellt, dass die Formel (5) erfüllt ist, so fährt der Prozess mit Schritt 305 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt:
0 ≦ H < n/2 (6)
Es wird also ermittelt, ob das Anzeigepixel Pc in dem Bereich UA1 liegt.
Wird in Schritt 305 festgestellt, dass die Formel (6) erfüllt ist, d. h. das Anzeigepixel Pc in dem Bereich UA1 angeordnet ist, so fährt der Steuerablauf mit Schritt 307 fort. In Schritt 307 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (m/2, n/2) angeordnetes Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Ausführen des Schrittes 307 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 305 festgestellt, dass die Bedingung (6) nicht erfüllt ist, so fährt der Prozess mit Schritt 306 fort. In Schritt 306 wird ermittelt, ob die Koordi­ nate H längs der vertikalen Richtung die folgende Formel erfüllt:
0/2 ≦ H ≦ N - n/2 (7)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA2 befindet.
Wird in Schritt 306 festgestellt, dass die Formel (7) erfüllt ist, d. h. sich das Anzei­ gepixel Pc in dem Bereich UA2 befindet, so fährt der Prozess mit Schritt 308 fort. In Schritt 308 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das An­ zeigepixel Pc in ein auf der linken Umrissseite des Bereichs CA, d. h. in den Koor­ dinaten (m/2, H) liegenden Pixel geändert, das als modifiziertes Anzeigepixel P"c definiert wird. Nach Ausführen des Schrittes 308 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 306 festgestellt, dass die Formel (7) nicht erfüllt ist, d. h. das Anzeigepixel Pc in dem Bereich UA3 liegt, so fährt der Prozess mit Schritt 309 fort. In Schritt 309 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (m/2, N-n/2) angeordnetes Pixel geän­ dert, das als modifiziertes Anzeigepixel P"c definiert wird. Nach Ausführen des Schrittes 309 fährt der Prozess mit Schritt 321 fort.
Wird in Schritt 304 festgestellt, dass die Formel (6) nicht erfüllt ist, d. h. sich das Anzeigepixel Pc nicht in einem Bereiche UA1, UA2 und UA3 befindet, so fährt der Prozess mit Schritt 310 fort. In Schritt 310 wird ermittelt, ob die Koordinate K längs der horizontalen Richtung die folgende Formel erfüllt:
M/2 ≦ K ≦ M - m/2 (8)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in einem der Bereiche UA4, UA5 und CA befindet.
Wird in Schritt 310 festgestellt, dass die Formel (8) erfüllt ist, so fährt der Prozess mit Schritt 311 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen Richtung die folgende Formel erfüllt:
0 ≦ H < n/2 (9)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA4 befindet.
Wird in Schritt 311 festgestellt, dass die Formel (9) erfüllt ist, d. h. sich das Anzei­ gepixel Pc in dem Bereich UA4 befindet, so fährt der Prozess mit Schritt 313 fort. In Schritt 313 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das An­ zeigepixel Pc auf ein auf der oberen Umrisslinie des Bereichs CA, d. h. in den Koordinaten (K, n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Ausführen des Schrittes 313 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 311 festgestellt, dass die Formel (9) nicht erfüllt ist, so fährt der Prozess mit Schritt 312 fort. In Schritt 312 wird ermittelt, ob die Koordi­ nate H längs der vertikalen Richtung die folgende Formel erfüllt:
n/2 ≦ H ≦ N - n/2 (10)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich CA befindet.
Wird in Schritt 312 festgestellt, dass die Formel (10) erfüllt ist, so fährt der Pro­ zess mit Schritt 314 fort, worin das Anzeigepixel Pc in den Koordinaten (K, H) nicht geändert und direkt als Mittelpunkt des Teilbereichs PI festgelegt wird. Nach Ausführen des Schrittes 314 fährt der Prozess mit Schritt 321 fort. Wird dagegen in Schritt 312 festgestellt, dass die Formel (10) nicht erfüllt ist, d. h. sich das An­ zeigepixel Pc in dem Bereich UA5 befindet, so fährt der Prozess mit Schritt 315 fort. In Schritt 315 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc auf ein auf der unteren Umrisslinie des Bereichs CA, d. h. in den Koordinaten (K, N-n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepi­ xel P"c definiert wird. Nach Ausführen des Schrittes 315 fährt der Prozess mit Schritt 321 fort.
Wird in Schritt 310 festgestellt, dass die Formel (8) nicht erfüllt ist, d. h. sich das Anzeigepixel Pc in keinem der Bereiche UA4, UA5 und CA, sondern in einem der Bereiche UA6, UA7, UA8 befindet, so fährt der Prozess mit Schritt 316 fort. In Schritt 316 wird ermittelt, ob die Koordinate H längs der horizontalen Richtung die folgende Formel erfüllt:
0 ≦ H < n/2 (11)
Es wird also ermittelt, ob sich das Anzeigepixel Pc im Bereich UA6 befindet.
Wird in Schritt 316 festgestellt, dass die Formel (11) erfüllt ist, d. h. das Anzeigepi­ xel Pc in dem Bereich UA6 liegt, so fährt der Prozess mit Schritt 318 fort. In Schritt 318 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein in den Koordinaten (M - m/2, n/2) liegendes Pixel geändert, das als modifi­ ziertes Anzeigepixel P'c definiert wird. Nach Ausführen des Schrittes 318 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 316 festgestellt, dass die Formel (11) nicht erfüllt ist, so fährt der Prozess mit Schritt 317 fort. In Schritt 317 wird ermittelt, ob die Koordi­ nate H längs der horizontalen Richtung die folgende Formel erfüllt:
n/2 ≦ H ≦ N - n/2 (12)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA7 befindet.
Wird in Schritt 317 festgestellt, dass die Formel (12) erfüllt ist, d. h. das Anzeigepi­ xel Pc in dem Bereich UA7 liegt, so fährt der Prozess mit Schritt 319 fort. In Schritt 319 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc in ein auf der rechten Umrisslinie des Bereichs CA, d. h. in den Koordinaten (M-m/2, H) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Ausführen des Schrittes 319 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 317 festgestellt, dass die Formel (12) nicht erfüllt ist, d. h. sich das Anzeigepixel Pc in dem Bereich UA8 befindet, so fährt der Prozess mit Schritt 320 fort. In Schritt 320 wird, um den Teilbereich PI mit m × n Pixeln festzu­ legen, das Anzeigepixel Pc in ein in den Koordinaten (M - m/2, N-n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Aus­ führen des Schrittes 320 fährt der Prozess mit Schritt 321 fort.
In Schritt 321 werden auf Grundlage des Anzeigepixels Pc oder des modifizierten Anzeigepixels P"c die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs PI erzeugt werden, aus der CCD 12 ausgelesen, und es wird das Bild vergrößerter Darstellung entsprechend den ausgelesenen Bildpixelsignalen auf dem Monitor 50 dargestellt. Nach Ausführen des Schrittes 321 endet diese Routine.
Wird dagegen in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 nicht größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 322 fort. In Schritt 322 werden Bildpixelsignale, die in allen in der CCD 12 vorgesehenen Pixeln erzeugt werden, aus der CCD 12 ausgelesen, und es wird ein Interpolati­ onsprozess in dem Bildspeicher 23 durchgeführt. Das durch den Interpolations­ prozess erzeugte vergrößerte Bild wird auf dem Monitor 50 dargestellt.
Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F nicht gedrückt wird, womit ermittelt wird, ob durch Drücken der Funktionstaste 51F von der vergrö­ ßerten Darstellung auf die normale Darstellung gewechselt wird, so fährt der Prozess mit Schritt 323 fort. In Schritt 323 wird das Normalbild entsprechend dem Objektbild normaler Darstellung auf dem Monitor 50 dargestellt. Nach Ausführen des Schrittes 323 endet diese Routine.
Fig. 10 zeigt ein Flussdiagramm einer Unterroutine des in Fig. 8 gezeigten Schrit­ tes 323.
Die Schritte 351 bis 355 entsprechen den Schritten 202 bis 206 nach Fig. 7. Es wird also die Abwärtsabtastung vorgenommen, wenn die Pixelzahl größer als die effektive Pixelzahl ist, während alle in der CCD 12 erzeugten Bildpixelsignale aus der CCD 12 ausgelesen werden, wenn die Pixelzahl nicht größer als die effektive Pixelzahl ist.
Auf diese Weise wird in dem ersten Ausführungsbeispiel das Normalbild entspre­ chend dem Objektbild normaler Darstellung auf dem Monitor 50 dargestellt, wenn der Betriebszustand auf die normale Darstellung eingestellt ist. Das Objektbild mit normaler Darstellung, das sich aus einer gegebenen Zahl von Pixeln (z. B. 300000 Pixeln), die kleiner oder gleich 410000 Pixeln ist, zusammensetzt, wird erzeugt, indem die Abwärtsabtastung an dem Allpixel-Objektbild vorgenommen wird, das sich aus alten in der CCD 12 vorgesehenen Pixeln (vorliegend 1200000 Pixel) zusammensetzt. Die dem Objektbild normaler Darstellung entsprechenden Bildpi­ xelsignale werden aus der CCD 12 ausgelesen. Wird auf den Darstellungsmodus der vergrößerten Darstellung gewechselt, so wird auf dem Monitor 50 ein vergrö­ ßertes Bild entsprechend dem Objektbild vergrößerter Darstellung dargestellt. Das Objektbild vergrößerter Darstellung, das aus etwa 300000 Pixeln besteht, wird erzeugt, indem der Teilbereich PI in dem Bilderzeugungsbereich TI festgelegt wird. Aus der CCD 12 werden die Bildpixelsignale ausgelesen, die den in dem Teilbereich PI angeordneten Pixeln entsprechen. Ist dagegen die Pixelzahl der CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird das Objektbild nor­ maler Darstellung aus allen in der CCD 12 vorgesehenen Pixeln erzeugt, d. h. die Abwärtsabtastung wird nicht durchgeführt.
Die Größe des Bildbereichs NA kann sich von der des Bildbereichs MA unter­ scheiden. So kann sich die Pixelzahl des Objektbildes in der Normaldarstellung von der des Objektbildes in der vergrößerten Darstellung unterscheiden.
Für die Ladungsübertragung kann an Stelle des Zwischenleitungsübertragungs­ verfahrens ein anderes Verfahren, z. B. ein Rahmenübertragungsverfahren ange­ wendet werden. An Stelle der CCD kann ein C-MOS-Bildsensor eingesetzt wer­ den.
In diesem Ausführungsbeispiel werden das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung erzeugt, indem jeweils Bildpixelsignale, die in zugehörigen Pixeln erzeugt werden, ausgelesen werden. Es können jedoch auch Bildpixelsignale, die in allen Pixeln erzeugt werden, aus der CCD 12 ausge­ lesen werden, um sie an die Bilderzeugungsschaltung 17 zu übertragen, wobei das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung erzeugt werden, indem dann lediglich zugehörige Bildpixelsignale ausgelesen werden.
In diesem Ausführungsbeispiel wird das NTSC-Verfahren als Videostandard eingesetzt. Es können jedoch auch andere Verfahren wie das PAL-Verfahren sowie Videostandards wie der VGA- und der SVGA-Standard angewendet wer­ den. In diesem Falle werden die Videosignale gemäß dem Videostandard erzeugt, und die Auflösung des Monitors hängt von dem Videostandard ab.
In diesem Ausführungsbeispiel werden die Videosignale in dem Videoprozessor erzeugt. Die Videosignale können jedoch auch in dem Videobeobachtungsteil erzeugt werden. In diesem Fall sind die Schaltungen zum Verarbeiten der Bildsi­ gnale in dem Videobeobachtungsteil vorgesehen.
Fig. 11 zeigt ein elektronisches Endoskop als zweites Ausführungsbeispiel. Das zweite Ausführungsbeispiel unterscheidet sich von dem ersten Ausführungsbei­ spiel dadurch, dass an Stelle des Schiebetastenfeldes 51E und der Funktionsta­ ste 51F der Tastatur 51 ein Berührungsfeld (Prüfungsschirm) verwendet wird. Da die übrigen Teile denen des ersten Ausführungsbeispiels entsprechen, bleibt deren Bezeichnung mit Bezugszeichen die gleiche, und auf eine Beschreibung dieser Teile wird an dieser Stelle verzichtet.
Auf dem Bildschirm 50 ist ein durchsichtiges und farbloses Berührungsfeld TP vorgesehen, in dem eine Elektrode in einer Matrix angeordnet ist. Das auf dem Monitor 50 dargestellte Bild wird über das Berührungsfeld TP betrachtet. Das Berührungsfeld TP ist ein Eingabegerät, mit dem eine bestimmte Stelle auf dem Schirm des Monitors 50 ausgewählt werden kann, indem der Benutzer mit seinem Finger darauf zeigt. Ein dieser Stelle entsprechendes Signal wird dem Videopro­ zessor 20 zugeführt. In diesem Ausführungsbeispiel wird das Anzeigepixel Pc auf Grundlage der Koordinaten (X, Y) auf dem Monitor 50 spezifiziert, die der berühr­ ten Stelle entsprechen. Berührt der Benutzer das den Schirm des Monitors 50 bedeckende Berührungsfeld TP, so wird ein auf die Koordinaten des Monitors 50 bezogenes, der Berührungsposition auf dem Berührungsfeld TP entsprechendes Betätigungssignal über eine nicht dargestellt Schnittstelle der Systemsteuer­ schaltung 34 zugeführt. In der Systemsteuerschaltung 34 wird die Berührungs- oder Anzeigeposition identifiziert. Zum Erfassen der Berührungsposition wird ein mit Infrarotstrahlung arbeitendes Verfahren angewendet.
Entsprechend dem ersten Ausführungsbeispiel werden in dem Positionierspeicher 35 Anzeigebereichdaten (Bildbereich NA) entsprechend der Pixelzahl der in dem Videoprozessor 10 vorgesehenen CCD 12 gespeichert. Dann wird über die Sy­ stemsteuerschaltung 34 festgestellt, ob die Berührungsposition in dem Bildbereich NA liegt (vgl. Fig. 2). Ist dies der Fall, so wird der Vergrößerungsprozess entspre­ chend dem ersten Ausführungsbeispiel durchgeführt. Dazu wird ein der Berüh­ rungsposition entsprechendes Pixel als Mittelpunkt des Objektbildes vergrößerter Darstellung definiert. Liegt dagegen die Berührungsposition außerhalb des Bildbe­ reichs NA, so wird der Vergrößerungsprozess nicht durchgeführt. Wird auf dem Berührungsfeld TP bei Darstellung des vergrösserten Bildes eine vorgegebene Stelle, z. B. eine Ecke berührt, so wird von der vergrößerten Darstellung auf die normale Darstellung gewechselt.
Die Fig. 12 bis 14 zeigen ein elektronisches Endoskop als drittes Ausführungsbei­ spiel. Das dritte Ausführungsbeispiel unterscheidet sich von dem ersten Ausfüh­ rungsbeispiel dadurch, dass an dem Videobeobachtungsteil eine Vorrichtung zum Verschieben der Position des Zeigers P vorgesehen ist. Da die übrigen Teil denen des ersten Ausführungsbeispiels entsprechen, bleiben die Bezugszeichen inso­ weit unverändert, und auf eine Beschreibung dieser Teile wird an dieser Stelle verzichtet.
Fig. 12 ist ein Blockdiagramm des elektronischen Endoskops gemäß drittem Ausführungsbeispiel.
Eine Tastenanordnung 18 besteht aus einer ersten Zeigerschiebetaste 18A, einer zweiten Zeigerschiebetaste 18B und einer dritten Zeigerschiebetaste 18C. Die Zeigerschiebetasten 18A, 18B und 18C sind Drucktasten und an dem Videobeob­ achtungsteil 10 vorgesehen. Mit den Zeigerschiebetasten 18A, 18B und 18C lässt sich der Zeiger P nach ober, nach unten, nach rechts oder nach links verschieben und der Darstellungsmodus ändern. Werden die Zeigerschiebetasten 18A, 18B, 18C betätigt, so wird der in dem Videoprozessor 20 vorgesehenen Systemsteuer­ schaltung 34 ein Betätigungssignal zugeführt, das auf die Position des zu ver­ schiebenden Zeigers P bezogen ist.
In der Systemsteuerschaltung 34 wird zur Positionsänderung des Zeigers P der CRTC 24 ein Steuersignal in Abhängigkeit des in der Tastenanordnung 18 gelie­ ferten Betätigungssignals zugeführt. In der CRTC 24 wird die zeitliche Festlegung, d. h. das Timing des dem Zeiger P entsprechenden Zeichensignals in Abhängig­ keit des von der Systemsteuerschaltung 34 gelieferten Steuersignals eingestellt.
Fig. 13 zeigt einen Teil des Videobeobachtungsteils 10.
Der Videobeobachtungsteil 10 hat einen Bedienteil 10M, an dem verschiedene Tasten einschließlich der Tastenanordnung 18 vorgesehen sind. Der Benutzer betätigt das distale Ende des Videobeobachtungsteils 10 über den Bedienteil 10M. Beispielsweise betätigt er mit seiner rechten Hand einen Drehhebel LE, um das distale Ende des Videobeobachtungsteils 10 zu betätigen. Ein Endabschnitt 10K an dem Bedienteil 10M läuft in einer Richtung verjüngt zu. Hält der Benutzer den Bedienteil 10M des Videobeobachtungsteils 10, so ist eine erste Fläche 10R1 in Fig. 13 vertikal nach oben und eine zweite Fläche 10R2 vertikal nach unten gewandt.
Die erste Zeigerschiebetaste 18A ist an der zweiten Fläche 10R2 so angeordnet, dass der Benutzer sie mit dem Daumen seiner linken Hand betätigen kann. Dage­ gen sind die zweite und die dritte Zeigerschiebetaste 18B, 18C derart an der ersten Fläche 10R1 angeordnet, dass der Benutzer die Taste 18B mit dem Zeige­ finger und die Taste 18C mit dem Mittelfinger seiner linken Hand bedienen kann. Die erste Zeigerschiebetaste 18A und die beiden Zeigeschiebetasten 18B, 18C sind entgegengesetzt zueinander angeordnet. Die Zeigerschiebetasten 18A, 18B, 18C und der Endabschnitt 10K sind so angeordnet, dass der Benutzer die Tasten 18A, 18B und 18C gleichzeitig betätigen kann.
In diesem Ausführungsbeispiel werden die erste und die zweite Zeigerschiebeta­ ste 18A, 18B gleichzeitig gedrückt, um den Zeiger P nach rechts zu schieben, während die erste und die dritte Zeigerschiebetaste 18A, 18C gleichzeitig gedrückt werden, um den Zeiger P nach links zu verschieben. Um den Zeiger P nach unten zu verschieben, wird die zweite Zeigerschiebetaste 18B gedrückt. Um ihn nach oben zu verschieben, wird die dritte Zeigerschiebetaste 18C gedrückt. Werden die zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt, so wird der Darstellungsmodus geändert.
Fig. 14 zeigt eine Unterbrechungsroutine des Zeigerverschiebungsprozesses. Die erste Zeigerschiebetaste 18A hat eine weitere Funktion, mit der der Zeiger P dargestellt und ausgeblendet werden kann. Wird die erste Zeigerschiebetaste 18A gedrückt, so startet die Unterbrechungsroutine.
In Schritt 401 führt die Systemsteuerschaltung 34 das Steuersignal der CRTC 24 zu, so dass der Zeiger P an einer vorgegebenen Position dargestellt wird. In Schritt 402 wird ermittelt, ob die erste und die zweite Zeigerschiebetaste 18A, 18B gleichzeitig gedrückt werden, um die Position des Zeigers P um einen Koordina­ tenwert nach rechts zu verschieben.
Wird in Schritt 402 festgestellt, dass die erste und die zweite Zeigerschiebetaste 18A, 18B gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 403 fort, worin ermittelt wird, ob die Position des Zeigers P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 404 fort, worin der Zeiger P um einen Koordinatenwert nach rechts verschoben wird. Nach Ausführen des Schrit­ tes 404 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen rechter Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück, so dass der Zeiger P innerhalb des Bildbereichs NA bleibt.
Wird dagegen in Schritt 402 festgestellt, dass die erste und die zweite Zeiger­ schiebetaste 18A, 18B nicht gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 405 fort. In Schritt 405 wird ermittelt, ob die erste und die dritte Zeiger­ schiebetaste 18A, 18C gleichzeitig gedrückt sind. Ist dies der Fall, so fährt der Prozess mit Schritt 406 fort, worin ermittelt wird, ob der Zeiger P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 407 fort, worin der Zeiger P um einen Koordinatenwert nach links verschoben wird. Nach Ausführen des Schrittes 407 kehrt der Prozess zu Schritt 402 zurück. Wird dage­ gen in Schritt 406 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen linker Umrisslinie liegt, so kehrt der Prozess ohne Ver­ schiebung des Zeigers P zu Schritt 402 zurück.
Wird in Schritt 405 festgestellt, dass die erste und die dritte Zeigerschiebetaste 18A, 18C nicht gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 408 fort. In Schritt 408 wird festgestellt, ob die zweite Taste 18B gedrückt ist. Ist dies der Fall, so fährt der Prozess mit Schritt 409 fort, worin ermittelt wird, ob der Zeiger innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 410 fort, worin der Zeiger P um einen Koordinatenwert nach unten ver­ schoben wird. Nach Ausführen des Schrittes 410 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen in Schritt 409 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen unterer Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
Wird in Schritt 408 festgestellt, dass die zweite Zeigerschiebetaste 18B nicht gedrückt ist, so fährt der Prozess mit Schritt 411 fort. In Schritt 411 wird ermittelt, ob die dritte Taste 18C gedrückt ist. Ist dies der Fall, so fährt der Prozess mit Schritt 412 fort, worin ermittelt wird, ob der Zeiger P innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 413 fort, worin der Zeiger P um einen Koordinatenwert nach oben verschoben wird. Nach Ausführen des Schrittes 413 fährt der Prozess mit Schritt 402 fort. Wird dagegen in Schritt 412 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen oberer Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
Wird in Schritt 411 festgestellt, dass die Zeigerschiebetaste Taste 18C nicht gedrückt ist, so fährt der Prozess mit Schritt 414 fort. In Schritt 414 wird ermittelt, ob die zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt sind. Ist dies der Fall, so fährt der Prozess mit Schritt 415 fort, worin die Position des Zeigers P und des Anzeigepixels Pc entsprechend dem ersten Ausführungs­ beispiel spezifiziert wird. In Schritt 416 wird der Zeiger P auf dem Monitor 50 gelöscht, um den Vergrößerungsprozess durchzuführen. Nach Ausführen des Schrittes 416 wird die Unterbrechungsroutine beendet. Wird dagegen in Schritt 414 festgestellt, dass die zweite und die dritte Zeigerschiebetaste 18B, 18C nicht gleichzeitig gedrückt sind, also keine Taste gedrückt ist, so kehrt der Prozess zu Schritt 402 zurück. Bis der Darstellungsmodus auf die vergrößerte Darstellung umgeschaltet wird, werden die Schritte 404 bis 414 wiederholt.
Hinsichtlich Anordnung und Zahl der Drucktasten sind Abwandlungen möglich.
In dem ersten bis dritten Ausführungsbeispiel werden als Eingabegeräte die Tastatur, das Berührungsfeld bzw. die Zeigerschiebetasten eingesetzt. Es können jedoch auch andere Eingabegeräte wie eine als Maus bezeichnete Zeigervorrich­ tung oder ein als Joystick bezeichneter Schwenkhebel verwendet und an dem Bedienteil des Videobeobachtungsteils vorgesehen werden.

Claims (16)

1. Elektronisches Endoskop mit einem Videobeobachtungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind, sowie mit
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel­ lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild­ sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs­ objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus­ gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu­ standes von normaler Darstellung auf vergrößerte Darstellung und umge­ kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi­ xeln besteht.
2. Endoskop nach Anspruch 1, dadurch gekennzeichnet, dass die Gesamtpi­ xelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist, und dass das Objektbild normaler Darstellung aus einer ersten Anzahl von Pixeln und das vergrößerte Bild aus einer zweiten Anzahl von Pixeln besteht, die jeweils kleiner oder gleich der effektiven Pixelzahl sind.
3. Endoskop nach Anspruch 1, gekennzeichnet durch einen Pixelzahlprozes­ sor, der ermittelt, ob die Pixelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard bezogen ist, wobei der Bilderzeugungsprozessor das Objektbild normaler Darstellung und das Objektbild vergrösserter Darstellung erzeugt, wenn die Pixelzahl größer als die effektive Pixelzahl ist.
4. Endoskop nach Anspruch 3, dadurch gekennzeichnet, dass der Bilderzeu­ gungsprozessor während der normalen Darstellung das Allpixel-Objektbild als Objektbild normaler Darstellung und während der vergrößerten Darstel­ lung das Objektbild vergrösserter Darstellung mittels eines auf das Allpixel- Objektbild angewendeten Interpolationsprozesses erzeugt, wenn die Pixel­ zahl des Bildsensors nicht größer als die effektive Pixelzahl ist.
5. Endoskop nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Objektbild vergrösserter Darstellung mittels einer auf das Allpixel-Objektbild angewendeten Abwärtsabtastung er­ zeugt.
6. Endoskop nach einem der Ansprüche 2 bis 5, gekennzeichnet durch
eine Eingabevorrichtung zum Anzeigen einer vorbestimmten Position in einem Normalbild, das im Zustand normaler Darstellung an der Anzeige dar­ gestellt wird und dem Objektbild normaler Darstellung entspricht, und
einen Anzeigepixelprozessor, der eine von der Anzeigevorrichtung ausge­ wählte Anzeigeposition erfasst und aus den Pixeln des Allpixel-Objektbildes ein Anzeigepixel bestimmt, das der Anzeigeposition entspricht,
wobei der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den Teilbereich entsprechend der zweiten Pixelzahl festlegt.
7. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
der Anzeigepixelprozessor ermittelt, ob der aus der zweiten Anzahl von Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedin­ gung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes vergrößerter Darstellung wird, und
der Anzeigepixelprozessor das Anzeigepixel so ändert, dass das aus der zweiten Anzahl von Pixeln bestehende Objektbild vergrößerter Darstellung erzeugt wird, wenn der Teilbereich nicht festgelegt werden kann.
8. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
ein Markierungsprozessor vorgesehen ist, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung die vorbestimmte Position anzeigt,
die Eingabevorrichtung eine an den Videoprozessor angeschlossene Tasta­ tur enthält, die eine Schiebetaste zum Verschieben der Position der Anzei­ gemarkierung auf der Anzeige hat, wobei der Markierungsprozessor die Po­ sition der Anzeigemarkierung in Abhängigkeit einer Betätigung der Schiebe­ taste einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige­ position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei­ gemarkierung spezifiziert.
9. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
die Eingabevorrichtung ein an den Videoprozessor angeschlossenes, auf der Anzeige angeordnetes Berührungsfeld enthält, das dem Videoprozessor ei­ ne Information über eine von dem Benutzer berührte Berührungsstelle liefert, und
der Anzeigepixelprozessor die Berührungsstelle als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Berührungsstelle spezifiziert.
10. Endoskop nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Darstellungsobjektbild in dem Video­ beobachtungsteil erzeugt.
11. Endoskop nach Anspruch 10, dadurch gekennzeichnet, dass der Bilder­ zeugungsprozessor das Objektbild normaler Darstellung über eine Ab­ wärtsabtastung erzeugt, in der aus dem Bildsensor nur Normalbild- Pixelsignale ausgelesen werden, die in Pixeln erzeugt werden, aus denen das Objektbild normaler Darstellung erzeugt wird.
12. Endoskop nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er aus dem Bildsensor nur Teilbild-Pixelsignale ausliest, die in den in­ nerhalb des Teilbereichs angeordneten Pixeln erzeugt werden.
13. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
ein Markierungsprozessor vorgesehen ist, der ein eine Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung auf der Anzeige an einer vorbestimmten Positi­ on angezeigt wird,
die Eingabevorrichtung ein Bedienelement zum Verschieben der Position der Anzeigemarkierung enthält, die an einem Bedienteil des Videobeobach­ tungsteils angebracht ist, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung des Bedienelementes einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige­ position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei­ gemarkierung spezifiziert.
14. Endoskop nach Anspruch 13, dadurch gekennzeichnet, dass das Be­ dienelement mehrere Drucktasten zum Verschieben der Anzeigemarkierung hat und dass der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung der Drucktasten einstellt.
15. Endoskop nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass
das Bedienelement aus einer ersten, einer zweiten und einer dritten Druck­ taste besteht, die an einem verjüngt zulaufenden Endabschnitt des Bedien­ teils angeordnet sind, wobei die erste Drucktaste an einer Fläche des En­ dabschnittes ist und die zweite und die dritte Drucktaste an einer anderen Fläche des Endabschnittes angeordnet sind, und
die drei Drucktasten so angeordnet sind, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Zeigefinger, Mittelfinger, Daumen gleichzeitig betätigbar sind.
16. Einrichtung zum Darstellen eines normalen und eines vergrößerten Bildes, enthalten in einem elektronischen Endoskop mit einem Videobeobach­ tungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil und die Anzeige angeschlossen sind, wobei die Einrichtung versehen ist mit
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel­ lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild­ sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs­ objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus­ gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu­ standes von normaler Darstellung auf vergrößerte Darstellung und umge­ kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi­ xeln besteht.
DE10126587A 2000-05-31 2001-05-31 Elektronisches Endoskop Expired - Fee Related DE10126587B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10164935A DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-161773 2000-05-31
JP2000161773A JP4172898B2 (ja) 2000-05-31 2000-05-31 電子内視鏡装置
DE10164935A DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Publications (2)

Publication Number Publication Date
DE10126587A1 true DE10126587A1 (de) 2001-12-06
DE10126587B4 DE10126587B4 (de) 2006-04-06

Family

ID=18665749

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10126587A Expired - Fee Related DE10126587B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop
DE10164935A Expired - Fee Related DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10164935A Expired - Fee Related DE10164935B4 (de) 2000-05-31 2001-05-31 Elektronisches Endoskop

Country Status (3)

Country Link
US (1) US6491628B1 (de)
JP (1) JP4172898B2 (de)
DE (2) DE10126587B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004023797A1 (de) * 2002-09-04 2004-03-18 Albert-Ludwigs-Universität Verfahren zum betreiben eines endoskops sowie endoskop
DE10245085A1 (de) * 2002-09-27 2004-04-01 Automotive Distance Control Systems Gmbh Optisches System für eine Kamera
EP1512365A1 (de) * 2002-05-31 2005-03-09 Olympus Corporation Elektronische endoskopvorrichtung
EP2098158A1 (de) * 2008-03-04 2009-09-09 Olympus Medical Systems Corporation Medizinische Steuervorrichtung und deren System
EP2716206A1 (de) * 2011-05-27 2014-04-09 Olympus Corporation Endoskopvorrichtung
US9801531B2 (en) 2011-05-27 2017-10-31 Olympus Corporation Endoscope system and method for operating endoscope system
DE102018124496A1 (de) * 2018-10-04 2020-04-09 Karl Storz Se & Co. Kg Optisches Beobachtungssystem und Verfahren zum Betreiben eines optischen Beobachtungssystems

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697101B1 (en) * 1999-09-20 2004-02-24 Pentax Corporation Electronic endoscope
JP4503878B2 (ja) * 2001-04-27 2010-07-14 オリンパス株式会社 撮像装置及び撮像方法
JP2003334163A (ja) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
EP1550311B1 (de) * 2002-09-13 2011-08-17 Karl Storz Imaging Inc. Videoaufzeichnungs- und bilderfassungseinrichtung
US20040227829A1 (en) * 2003-05-13 2004-11-18 Dialog Semiconductor Gmbh Method and apparatus for a simultaneous multiple field of view imager using digital sub-sampling and sub-window selection
JP2005258062A (ja) * 2004-03-11 2005-09-22 Olympus Corp 内視鏡システム、及び内視鏡装置
KR100879686B1 (ko) 2004-03-11 2009-01-21 올림푸스 가부시키가이샤 내시경 시스템, 내시경 장치 및 화상 처리 장치
JP4814496B2 (ja) * 2004-05-21 2011-11-16 Hoya株式会社 電子内視鏡システム
JP4037851B2 (ja) 2004-06-16 2008-01-23 オンキヨー株式会社 増幅装置
JP3938774B2 (ja) * 2004-08-05 2007-06-27 オリンパス株式会社 内視鏡用信号処理装置、内視鏡用信号用モニタおよび内視鏡システム
TWI276904B (en) * 2005-02-01 2007-03-21 Avermedia Tech Inc A document camera and its digital image zoom system
JP4780980B2 (ja) 2005-03-11 2011-09-28 富士フイルム株式会社 内視鏡装置
US8335550B2 (en) * 2005-03-25 2012-12-18 Cnoga Holdings Ltd. Optical sensor device and image processing unit for measuring chemical concentrations, chemical saturations and biophysical parameters
JP6046325B2 (ja) 2005-09-29 2016-12-14 ザ ジェネラル ホスピタル コーポレイション 漸次的に解像度を増加させて1以上の生物学的サンプルの観察及び分析のための方法及びその方法のための装置
US20070265495A1 (en) * 2005-12-15 2007-11-15 Medivision, Inc. Method and apparatus for field of view tracking
JP5006616B2 (ja) * 2006-10-19 2012-08-22 Hoya株式会社 内視鏡プロセッサ
JP2008099874A (ja) * 2006-10-19 2008-05-01 Pentax Corp 内視鏡プロセッサおよび内視鏡システム
JP5308716B2 (ja) * 2008-05-21 2013-10-09 オリンパスメディカルシステムズ株式会社 電子内視鏡装置
CN101783129B (zh) * 2009-01-04 2012-12-05 虹软(杭州)科技有限公司 影像缩放装置以及影像缩放方法
US20120002084A1 (en) * 2010-06-30 2012-01-05 True Vision Systems, Inc. Systems, apparatus, and methods for digital image capture with variable density display and high resolution electronic zoom
JP5290475B2 (ja) * 2011-05-12 2013-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
US9060674B2 (en) 2012-10-11 2015-06-23 Karl Storz Imaging, Inc. Auto zoom for video camera
JP6547266B2 (ja) * 2013-10-01 2019-07-24 株式会社ニコン 電子機器、電子機器の制御方法、及び制御プログラム電子機器
JP6834134B2 (ja) * 2016-01-21 2021-02-24 オムロン株式会社 撮像装置および情報コード読取装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8611554D0 (en) * 1986-05-12 1986-06-18 Crosfield Electronics Ltd Image display
JP2958007B2 (ja) * 1988-05-02 1999-10-06 オリンパス光学工業株式会社 内視鏡装置
JPH07322114A (ja) * 1994-05-20 1995-12-08 Canon Inc 撮像装置
JP3732865B2 (ja) 1995-01-18 2006-01-11 ペンタックス株式会社 内視鏡装置
US6078353A (en) * 1996-09-12 2000-06-20 Fuji Photo Optical Co., Ltd. All-pixels reading type electronic endoscope apparatus
JP3448169B2 (ja) * 1996-11-14 2003-09-16 富士写真光機株式会社 全画素読出し式電子内視鏡装置
US6117071A (en) 1997-07-29 2000-09-12 Asahi Kogaku Kogyo Kabushiki Kaisha Endoscope with movable imaging unit for zooming or focusing
US6322497B1 (en) * 1998-12-25 2001-11-27 Asahi Kogaku Kogyo Kabushiki Kaisha Electronic endoscope

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1512365A1 (de) * 2002-05-31 2005-03-09 Olympus Corporation Elektronische endoskopvorrichtung
EP1512365A4 (de) * 2002-05-31 2007-11-21 Olympus Corp Elektronische endoskopvorrichtung
WO2004023797A1 (de) * 2002-09-04 2004-03-18 Albert-Ludwigs-Universität Verfahren zum betreiben eines endoskops sowie endoskop
DE10245085A1 (de) * 2002-09-27 2004-04-01 Automotive Distance Control Systems Gmbh Optisches System für eine Kamera
EP2098158A1 (de) * 2008-03-04 2009-09-09 Olympus Medical Systems Corporation Medizinische Steuervorrichtung und deren System
US7937163B2 (en) 2008-03-04 2011-05-03 Olympus Medical Systems Corp. Medical control device and its system
EP2716206A1 (de) * 2011-05-27 2014-04-09 Olympus Corporation Endoskopvorrichtung
EP2716206A4 (de) * 2011-05-27 2015-03-25 Olympus Corp Endoskopvorrichtung
US9486123B2 (en) 2011-05-27 2016-11-08 Olympus Corporation Endoscope system which enlarges an area of a captured image, and method for operating endoscope system
US9801531B2 (en) 2011-05-27 2017-10-31 Olympus Corporation Endoscope system and method for operating endoscope system
DE102018124496A1 (de) * 2018-10-04 2020-04-09 Karl Storz Se & Co. Kg Optisches Beobachtungssystem und Verfahren zum Betreiben eines optischen Beobachtungssystems
US10868964B2 (en) 2018-10-04 2020-12-15 Karl Storz Se & Co. Kg Optical observation system and method for operating an optical observation system

Also Published As

Publication number Publication date
DE10164935B4 (de) 2010-04-22
JP2001340292A (ja) 2001-12-11
US6491628B1 (en) 2002-12-10
JP4172898B2 (ja) 2008-10-29
DE10126587B4 (de) 2006-04-06

Similar Documents

Publication Publication Date Title
DE10164935B4 (de) Elektronisches Endoskop
DE102008046398B4 (de) Vorrichtung zum Erzeugen eines zusammengesetzten Bildes und computerlesbares Medium zum Speichern eines Programmes, um zu bewirken, dass ein Computer als Vorrichtung zum Erzeugen eines zusammengesetzten Bildes wirkt
DE60130170T2 (de) Fluorezentlicht Bilddarstellungsverfahren und Gerät dafür
DE3715859C2 (de) Farbbildverarbeitungssystem
DE10351024B4 (de) Elektronische Endoskopeinrichtung
DE102004006260B4 (de) Videoendoskopeinrichtung
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE3622058C2 (de)
DE10164297B4 (de) Elektronisches Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE112012005481T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE602005003628T2 (de) Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE102009022331A1 (de) Endoskopprozessor und Endoskopsystem
DE19757912B4 (de) Verfahren und Vorrichtung zum Bearbeiten von Videobildern
DE19721713A1 (de) Elektronisches Endoskop
DE102014226941A1 (de) Vergrößernde Beobachtungsvorrichtung, vergrößerndes Bildbeobachtungsverfahren und computer-lesbares Aufzeichnungsmedium
DE102007016611A1 (de) Konfokales Endoskopsystem
DE10059662B4 (de) Elektronisches Endoskopsystem
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE10344397A1 (de) Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung
DE112012005484T5 (de) Bildverarbeitungsgerät, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE69927239T2 (de) System und verfahren zur verarbeitung von bildern
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE102007022957A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8172 Supplementary division/partition in:

Ref document number: 10164935

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 10164935

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20121201