DE10126587A1 - Elektronisches Endoskop - Google Patents
Elektronisches EndoskopInfo
- Publication number
- DE10126587A1 DE10126587A1 DE10126587A DE10126587A DE10126587A1 DE 10126587 A1 DE10126587 A1 DE 10126587A1 DE 10126587 A DE10126587 A DE 10126587A DE 10126587 A DE10126587 A DE 10126587A DE 10126587 A1 DE10126587 A1 DE 10126587A1
- Authority
- DE
- Germany
- Prior art keywords
- display
- image
- pixel
- pixels
- object image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00059—Operational features of endoscopes provided with identification means for the endoscope
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Abstract
Ein elektronisches Endoskop hat einen Videobeobachtungsteil mit Bildsensor, einen Videoprozessor und eine Anzeige. Das Endoskop enthält weiterhin einen Bilderzeugungsprozessor, einen Signalprozessor und einen Darstellungsänderungsprozessor. Der Signalprozessor erzeugt Videosignale auf Grundlage aus einem Bildsensor stammender Bildpixelsignale und gibt die Videosignale an die Anzeige aus. Der Darstellungsänderungsprozessor wechselt den Darstellungszustand von normaler Darstellung auf vergrößerte Darstellung und umgekehrt. In der normalen Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild normaler Darstellung, das aus einer geringeren Anzahl von Pixeln besteht als das Allpixel-Objektbild. In der vergrößerten Darstellung erzeugt der Bildprozessor ein Objektbild vergrößerter Darstellung, das aus Pixeln besteht, die innerhalb eines Teilbereichs angeordnet sind.
Description
Die Erfindung betrifft ein elektronisches Endoskop, das einen Videobeobach
tungsteil mit einem Bildsensor und einem Videoprozessor hat. Im engeren Sinne
betrifft die Erfindung eine vergrößerte Darstellung, die einen Teil eines auf einem
Monitor dargestellten Bildes vergrößert.
Kürzlich wurde ein vergrößerndes elektronisches Endoskop entwickelt, das einen
bestimmten Teil eines beobachteten Bildes, das auf einem Monitor dargestellt
wird, vergrößern und das vergrößerte Bild darstellen kann. Das vergrößernde
elektronische Endoskop hat eine optische oder eine elektrische Vergrößerungs
funktion.
Das optische Endoskop hat ein längs der optischen Achse bewegbares Varioob
jektiv. Der bestimmte Teil des dargestellten Bildes wird durch Ansteuern des
Varioobjektivs vergrößert, so dass das vergrößerte Teilbild auf dem Monitor dar
gestellt wird. In dem optischen Vergrößerungsverfahren nimmt die Bildqualität
nicht ab. Bei einer optischen Vergrößerung des Bildes wird jedoch das Sehfeld
schmal, und die Schärfentiefe nimmt ab, d. h. der Scharfstellbereich wird eng. Es
bereitet deshalb Schwierigkeiten, den bestimmten Bildteil fortgesetzt im Sehfeld
einzufangen, da das Handzittern, das der den Beobachtungsteil haltende Benut
zer verursacht, oder die Bewegung bzw. das Zittern des Organs selbst das Bild
beeinflussen.
Dagegen wird im elektrischen Vergrößerungsverfahren der bestimmte Teil zuver
lässig eingefangen, da sich die Schärfentiefe nicht ändert. Da jedoch an dem
ursprünglich dargestellten Bild ein Prozess vorgenommen wird, der Pixel interpo
liert, nimmt die Bildqualität ab, so dass der vergrößerte Teil keiner genauen Dia
gnose unterzogen werden kann.
Aufgabe der Erfindung ist es ein elektronisches Endoskop anzugeben, das einen
bestimmten Teil eines ursprünglichen Bildes ohne Verschlechterung der Bildqua
lität elektrisch vergrößert.
Die Erfindung löst diese Aufgabe durch das elektronische Endoskop mit den
Merkmalen des Anspruchs 1. Vorteilhafte Weiterbildungen der Erfindung sind in
den Unteransprüchen angegeben.
Das erfindungsgemäße elektronische Endoskop enthält einen Videobeobach
tungsteil mit Bildsensor, einen Videoprozessor und eine Anzeige. Der Videobeob
achtungsteil, mit dem das Bild eines betrachteten Objektes eingefangen wird, ist
lösbar an den Videoprozessor angeschlossen. Auch die Anzeige ist an den Vi
deoprozessor angeschlossen. Das elektronische Endoskop hat einen Bilderzeu
gungsprozessor, einen Signalprozessor und einen Darstellungsänderungsprozes
sor. Auf Grundlage eines Allpixel-Objektbildes, das auf dem Bildsensor erzeugt
wird und aus im Wesentlichen allen in dem Bildsensor vorgesehenen Pixeln
besteht, erzeugt der Bilderzeugungsprozessor ein Darstellungsobjektbild, das auf
einem Monitor dargestellt wird. Das Darstellungsobjektbild wird entsprechend
einem Videostandard (Videoabtaststandard) erzeugt, von dem die Auflösung der
Anzeige abhängt. Beispielsweise werden ein Farbfernsehstandard wie das NTSC-
oder das PAL-Verfahren oder ein Computer-Videostandard wie der VGA- oder der
SVGA-Standard angewendet. Der Signalprozessor erzeugt Videosignale auf
Grundlage dem Darstellungsobjektbild entsprechender Bildpixelsignale und gibt
sie an die Anzeige aus, so dass ein betrachtetes Bild, das dem von dem Bilder
zeugungsprozessor erzeugten Bild entspricht, dargestellt wird.
Das erfindungsgemäße elektronische Endoskop hat eine Funktion zum Vergrö
ßern eines bestimmten Teils des dargestellten betrachteten Bildes. Der Darstel
lungsänderungsprozessor wechselt den Darstellungszustand von normaler Dar
stellung auf vergrößerte Darstellung und umgekehrt. In der normalen Darstellung
erzeugt der Bilderzeugungsprozessor ein Objektbild normaler Darstellung als
Darstellungsobjektbild, das aus einer geringeren Anzahl an Pixeln als das Allpixel-
Objektbild besteht. Bildauflösung oder Bildgröße des Objektbildes normaler Dar
stellung unterscheiden sich von denen des Allpixel-Objektbildes. In der vergrö
ßerten Darstellung erzeugt der Bilderzeugungsprozessor ein Objektbild vergrö
ßerter Darstellung als Darstellungsobjektbild, das aus Pixeln besteht, die innerhalb
eines Teilbereichs des Allpixel-Objektbildes angeordnet sind, so dass ein vergrö
ßertes Bild dargestellt wird. Wird der elektronische Vergrößerungsprozess durch
geführt, so erhält man das vergrößerte Bild, ohne einen Interpolationsprozess
durchführen zu müssen, der zu einer Verschlechterung der Bildqualität führt. Auf
diese Weise kann ein erkrankter Körperteil einer genauen Diagnose unterzogen
werden. Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild
normaler Darstellung, indem er eine Abwärtsabtastung an dem Allpixel-Objektbild
vornimmt.
Um ein Objektbild normaler Darstellung und ein Objektbild vergrößerter Darstel
lung mit hoher Bildqualität zu erhalten, ist vorzugsweise die Pixelzahl des Bildsen
sors größer als eine effektive Pixelzahl, die auf den angewendeten Videostandard
bezogen ist. Die effektive Pixelzahl ergibt die Auflösung der Anzeige. Die effektive
Pixelzahl stellt nämlich die Zahl der Pixel dar, die für ein Bild verwendet werden
können. In dem NTSC-Verfahren beträgt die effektive Pixelzahl etwa 410000, und
es kann ein Bildsensor mit mehr als einer Million Pixel vorteilhaft eingesetzt wer
den. Das Objektbild normaler Darstellung besteht aus einer ersten Anzahl von
Pixeln und das Objektbild vergrößerter Darstellung aus einer zweiten Anzahl an
Pixeln, wobei sowohl die erste als auch die zweite Anzahl kleiner als die effektive
Pixelzahl ist. Der Bilderzeugungsprozessor kann Objektbilder normaler und ver
größerter Darstellung mit einer Pixelzahl zusammensetzen, die nahe an die jewei
ligen effektiven Pixelzahlen heranreicht, so dass sowohl in der normalen als auch
in der vergrößerten Darstellung Bilder mit hoher Bildqualität erhalten werden.
Die Pixelzahl des in dem elektronischen Endoskop eingesetzten Bildsensors
variiert mit dem Sensortyp oder der Fertigungszeit des Videobeobachtungsteils.
Deshalb hat das elektronische Endoskop in einer vorteilhaften Weiterbildung
einen Pixelzahlprozessor, der ermittelt, ob die Pixelzahl des Bildsensors größer
als die effektive Pixelzahl ist. Ist dies der Fall, so erzeugt der Bildprozessor das
Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung. Ist
dagegen die Pixelzahl des Bildsensors nicht größer als die effektive Pixelzahl, so
erzeugt der Bilderzeugungsprozessor während der Normaldarstellung das Allpixel-
Objektbild als Objektbild normaler Darstellung, und er erzeugt während der ver
größerten Darstellung das Objektbild vergrößerter Darstellung, indem er an dem
Allpixel-Objektbild eine Interpolation vornimmt. Da in der normalen Darstellung
eine Abwärtsabtastung nicht erfolgt, wenn die Pixelzahl klein ist, verschlechtert
sich in der normalen Darstellung die Auflösung des betrachteten Bildes nicht.
Vorzugsweise hat das elektronische Endoskop eine Eingabevorrichtung, mit der
der Benutzer einen zu vergrößernden Teil des betrachteten Bildes auswählt, das
in der normalen Darstellung dargestellt wird. Die Eingabevorrichtung wird betätigt,
um eine vorbestimmte Position in dem dem Objektbild normaler Darstellung
entsprechenden Normalbild anzuzeigen. Bei Verwendung der Eingabevorrichtung
hat das elektronische Endoskop einen Anzeigepixelprozessor. Der Anzeigepixel
prozessor erfasst eine über die Eingabevorrichtung eingestellte Anzeigeposition
und bestimmt ein der Anzeigeposition entsprechendes Anzeigepixel aus den
Pixeln des Allpixel-Objektbildes. Der Bilderzeugungsprozessor erzeugt das Ob
jektbild vergrößerter Darstellung, indem er das Anzeigepixel als zentrales Pixel
des Teilbereichs und den aus der zweiten Anzahl an Pixeln bestehenden Teilbe
reich festlegt.
Die Eingabevorrichtung ist beispielsweise eine Tastatur, die als Eingabegerät für
das elektronische Endoskop dient. In diesem Fall hat das elektronische Endoskop
einen Markierungsprozessor, der ein einer Anzeigemarkierung entsprechendes
Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeige
markierung an der vorbestimmten Position angezeigt wird. Die Tastatur ist an den
Videoprozessor angeschlossen und hat Schiebetasten, um die Position der An
zeigemarkierung der Anzeige zu verschieben. Der Markierungsprozessor stellt die
Position der Anzeigemarkierung in Abhängigkeit der Betätigung der Schiebetasten
ein. Der Anzeigepixelprozessor erfasst dann die Position der Anzeigemarkierung
als Anzeigeposition und bestimmt das Anzeigepixel aus der Position der Anzei
gemarkierung.
Andererseits kann als Eingabevorrichtung auch ein Berührungsfeld verwendet
werden. Dieses ist an den Videoprozessor angeschlossen und auf der Anzeige
angeordnet. Das Berührungsfeld identifiziert eine Stelle, die von dem Benutzer
berührt wird, und informiert den Videoprozessor entsprechend. Der Anzeigepixel
prozessor erfasst die Berührungsstelle als Anzeigeposition und bestimmt das
Anzeigepixel entsprechend.
Vorzugsweise ermittelt der Anzeigepixelprozessor, ob der aus der zweiten Anzahl
an Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedingung
festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes
wird. Kann der Teilbereich in dieser Weise nicht festgelegt werden, so ändert der
Anzeigepixelprozessor die Anzeigepixelposition derart, dass ein Objektbild ver
größerter Darstellung, das aus der zweiten Anzahl an Pixeln besteht, erzeugt wird.
Das Objektbild vergrößerter Darstellung besteht üblicherweise aus der zweiten
Anzahl an Pixeln.
Vorzugsweise erzeugt der Bilderzeugungsprozessor das Darstellungsobjektbild in
dem Videobeobachtungsteil. In diesem Fall erhält man einen Videoprozessor
durch minimale Abwandlung des Aufbaus eines herkömmlichen Videoprozessors.
Vorzugsweise erzeugt der Bilderzeugungsprozessor das Objektbild normaler
Darstellung, indem er eine Abwärtsabtastung vornimmt. Die Abwärtsabtastung
liest aus dem Bildsensor nur Bildpixelsignale aus, die in Pixeln erzeugt werden,
durch die das Objektbild normaler Darstellung erzeugt wird. Ferner erzeugt der
Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung, indem er aus
dem Bildsensor nur Bildpixelsignale ausliest, die in Pixeln erzeugt werden, die
innerhalb des Teilbereichs angeordnet sind. Der zum Erzeugen des Darstellungs
objektbildes in dem Videobeobachtungsteil erforderliche Aufbau wird dadurch
vereinfacht.
Vorzugsweise ist an einem Bedienteil des Videobeobachtungsteils ein Be
dienelement angebracht, um die Position der Anzeigemarkierung zu verschieden.
Der Markierungsprozessor stellt die Position der Anzeigemarkierung in Abhängig
keit einer Betätigung des Bedienelementes ein. Der Anzeigepixelprozessor erfasst
die Position der Anzeigemarkierung als Anzeigeposition und bestimmt das Anzei
gepixel aus der Position der Anzeigemarkierung. Der Benutzer kann die Anzeige
markierung durch Betätigen des Videobeobachtungsteils verschieben. Um dieses
Betätigen besonders einfach zu gestalten, hat das Bedienelement vorzugsweise
mehrere Drucktasten zum Verschieben der Anzeigemarkierung, wobei der Markie
rungsprozessor die Position der Anzeigemarkierung in Abhängigkeit der Betäti
gung der Drucktasten einstellt. Beispielsweise besteht das Bedienelement aus
einer ersten, einer zweiten und einer dritten Drucktaste, die an einem verjüngt
zulaufenden Endabschnitt des Bedienteils angeordnet sind. Die erste Drucktaste
ist dabei an einer Fläche des zusammenlaufenden Endabschnittes angeordnet,
während die zweite und die dritte auf einer anderen Fläche des Endabschnittes
angeordnet sind. Die drei Drucktasten sind so angeordnet, dass mindestens zwei
von ihnen mit mindestens zweien der drei Finger Daumen, Zeigefinger, Mittelfin
ger gleichzeitig betätigt werden können.
Gemäß einem weiteren Aspekt der Erfindung ist eine Einrichtung zum Darstellen
eines normalen und eines vergrößerten Bildes vorgesehen, die enthalten ist in
einem elektronischen Endoskop mit einem Videobeobachtungsteil mit Bildsensor,
einem Videoprozessor und einer Anzeige. Der Videobeobachtungsteil und die
Anzeige sind an den Videoprozessor angeschlossen. Die Einrichtung hat einen
Bilderzeugungsprozessor, einen Signalprozessor und einen Darstellungsände
rungsprozessor. Der Bilderzeugungsprozessor erzeugt ein Darstellungsobjektbild
auf Grundlage eines Allpixel-Objektbildes, wie es auf dem Bildsensor erzeugt wird.
Das Allpixel-Objektbild besteht im Wesentlichen aus allen in dem Bildsensor
vorgesehenen Pixeln. Der Signalprozessor erzeugt Videosignale auf Grundlage
dem Darstellungsobjektbild entsprechender Bildpixelsignale und gibt sie an die
Anzeige aus. Der Darstellungsänderungsprozessor wechselt den Darstellungszu
stand von normaler Darstellung auf vergrößerte Darstellung und umgekehrt. Der
Bilderzeugungsprozessor erzeugt während der normalen Darstellung ein Objekt
bild normaler Darstellung als Darstellungsbild, das aus einer geringeren Anzahl an
Pixeln besteht, als das Allpixel-Objektbild. Die Bildauflösung des Objektbildes
normaler Darstellung unterscheidet sich von der des Allpixel-Objektbildes. Ferner
erzeugt der Bilderzeugungsprozessor während der vergrößerten Darstellung ein
Objektbild vergrößerter Darstellung als Darstellungsobjektbild, das aus Pixeln
besteht, die innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordnet
sind.
Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin
zeigen:
Fig. 1 ein Blockdiagramm eines ersten Ausführungsbeispiels des elektroni
schen Endoskops,
Fig. 2 eine Darstellung eines auf einem Monitor normal und vergrößert
dargestellten Bildes,
Fig. 3 eine schematische Darstellung zur Erläuterung einer Abwärtsabta
stung,
Fig. 4 eine Darstellung eines Vergrößerungsprozesses,
Fig. 5 eine Darstellung zur Erläuterung, wie die Position eines Anzeigepi
xels eingegrenzt wird,
Fig. 6 ein Flussdiagramm einer Hauptroutine für den Betrieb des elektroni
schen Endoskops insgesamt,
Fig. 7 ein Flussdiagramm einer Unterroutine eines auf einen angeschlos
senen Videobeobachtungsteil bezogenen Darstellungsprozesses,
Fig. 8 ein Flussdiagramm einer Unterbrechungsroutine eines Darstel
lungsänderungsprozesses,
Fig. 9 eine Darstellung eines in neun Bereiche unterteilten Bilderzeu
gungsbereichs,
Fig. 10 ein Flussdiagramm einer Unterroutine des Darstellungsprozesses,
Fig. 11 ein Blockdiagramm eines zweiten Ausführungsbeispiels des elektro
nischen Endoskops,
Fig. 12 ein Blockdiagramm eines dritten Ausführungsbeispiels des elektroni
schen Endoskops,
Fig. 13 einen Bedienteil eines Videobeobachtungsteils, und
Fig. 14 ein Flussdiagramm mit einem Prozess zum Verschieben eines
Zeigers.
Im Folgenden werden bevorzugte Ausführungsbeispiele unter Bezugnahme auf
die Figuren beschrieben.
Fig. 1 zeigt ein Blockdiagramm eines elektronischen Endoskops, das ein erstes
Ausführungsbeispiel darstellt. Fig. 2 zeigt ein auf einem Monitor dargestelltes Bild.
In dem elektronischen Endoskop sind ein Videobeobachtungsteil 10, ein Video
prozessor 20 und ein Fernseh- oder TV-Monitor 50 vorgesehen. Der Monitor 50 ist
an den Videoprozessor 20 angeschlossen. Der Videobeobachtungsteil 10 ist
lösbar und austauschbar mit dem Videoprozessor 20 verbunden. Das elektroni
sche Endoskop wird in einer Operation, einer Untersuchung oder einer Behand
lung eines Organs, z. B. des Magens, in der Weise benutzt, dass der Videobeob
achtungsteil 10 in den Körper eingeführt wird. Eine CPU 36, die in einer in dem
Videoprozessor 20 enthaltenen Systemsteuerschaltung 34 vorgesehen ist, steuert
das gesamte elektronische Endoskop.
Eine in dem Videoprozessor 20 vorgesehene Lichtquelle 29 strahlt Licht ab, das
über eine Blende 30 und eine Sammel- oder Kondensorlinse 31 auf eine Eintritts
fläche 13a eines Lichtleiters 13 gerichtet ist. Die Lichtquelle 29 ist eine Halogen
lampe. Der in dem Videobeobachtungsteil 10 vorgesehene Lichtleiter 13 ist ein
optisches Lichtleitfaserbündel, das das Licht aus der Lichtquelle 29 auf das distale
Ende des Videobeobachtungsteils 10 führt. Das in die Eintrittsfläche 13a eintre
tende Licht durchläuft den Lichtleiter 13 und wird aus dessen distalem Ende 13b
über eine Zerstreuungslinse 14 auf ein Objekt S gestrahlt, so dass dieses be
leuchtet wird.
Das an dem Objekt S reflektierte Licht erreicht über eine Objektivlinse 11 eine
ladungsgekoppelte Vorrichtung 12, kurz CCD, die einen Bildsensor darstellt.
Dabei wird auf der CCD 12 das Objektbild erzeugt. Auf einer auf der CCD 12
vorgesehenen Lichtempfangsfläche sind mehrere, nicht dargestellte Fotosensoren
oder Fotodioden regelmäßig angeordnet. Jede Fotodiode entspricht dabei einem
Pixel der CCD 12. Da in dem vorgestellten Ausführungsbeispiel ein Einchip-
Filterverfahren als Farbaufnahmeverfahren angewendet wird, befindet sich vor
den regelmäßig angeordneten Fotodioden ein nicht dargestelltes Einchip-
Komplementärfarbfilter. Wird das Objektbild auf der Lichtempfangsfläche der CCD
12 erzeugt, so werden durch den Fotoeffekt analoge Bildpixelsignale entspre
chend dem durch das Farbfilter tretenden Licht erzeugt. Die Pixelzahl der CCD 12
beträgt dabei etwa 1200000.
In diesem Ausführungsbeispiel kann als Darstellungszustand entweder eine
normale Darstellung oder eine vergrößerte Darstellung gewählt werden. Als Vi
deostandard (Videoabtaststandard) wird das NTSC-Verfahren angewendet. Der
Monitor 50 ist auf das NTSC-Verfahren ausgelegt. Die Auflösung des Monitors 50,
also die maximale Anzahl an Pixeln, die der Monitor 50 nutzen kann, entspricht
deshalb dem NTSC-Verfahren und beträgt etwa 410000.
In der normalen Darstellung werden Bildpixelsignale, die in 300000 in der CCD 12
vorgesehenen Pixeln erzeugt werden, aus der CCD 12 ausgelesen. Eine Bild
wandlerschaltung 70, die einen CCD-Treiber 16 enthält, erzeugt entsprechend
einem auf der CCD 12 erzeugten optischen Objektbild ein auf dem Monitor 50
darzustellendes Bild. Die CCD 12 wird durch den CCD-Treiber 16 angesteuert,
indem Treibersignale nicht dargestellten Ladungsübertragungsregistern zugeführt
werden, die in der CCD 12 vorgesehen sind. In der normalen Darstellung werden
Bildpixelsignale (erste Bildpixelsignale), die in etwa 300000 von 1200000 Pixeln
erzeugt werden, aus der CCD 12 ausgelesen. Die Treibersignale für die La
dungstransferregister sind so eingestellt, dass lediglich Ladungen, die an den
300000 Pixeln erzeugt werden, an die Ladungsübertragungsregister übertragen
werden. So wird ein (1) Rahmen (Rahmen/Feld-Wert) Bildpixelsignale entspre
chend einem aus etwa 300000 Pixeln bestehenden Objektbild der Bildwandler
schaltung 17 als Farbbildsignale zugeführt. Die Bildwandlerschaltung 17 steuert
die Treibersignale, die der CCD 12 von dem CCD-Treiber 16 zugeführt werden, in
Abhängigkeit eines Steuersignals, das die Systemsteuerschaltung 34 liefert. Der
eine Rahmen (Rahmenwert) Bildpixelsignale wird einer CCD-
Verarbeitungsschaltung, kurz CCD-Schaltung, 21 über die Bildwandlerschaltung
17 zugeführt. Da das NTSC-Verfahren angewendet wird, wird der eine Rahmen
(Rahmenwert) der Bildpixelsignale in 1/30(1/60)-Sekundenintervallen aus der
CCD 12 ausgelesen.
In der CCD-Schaltung 21 werden die zugeführten Bildpixelsignale einigen Prozes
sen unterzogen, z. B. einer Rauschverringerung. Der eine (1) Rahmen Bildpixelsi
gnale wird in Primärfarbbildsignale gewandelt, die aus Rot-Signalkomponenten
(R), Grün-Signalkomponenten (G) und Blau-Signalkomponenten (B) bestehen.
Die Primärfarbbildsignale sind jeweils in die R-, G-, B-Signalkomponenten unter
teilt. Die analogen Primärfarbbildsignale werden in einem A/D-Wandler 22 in
digitale Farbsignale gewandelt. Die digitalen Farbsignale werden in einem Bild
speicher 23 temporär gespeichert. Die gespeicherten digitalen Farbbildsignale
werden aus dem Bildspeicher 23 einem D/A-Wandler 25 zugeführt, in dem die
digitalen Bildsignale in analoge Bildsignale gewandelt werden. Die analogen
Bildsignale werden einer Videoverarbeitungsschaltung, kurz Videoschaltung, 26
zugeführt, in der sie in Videosignale wie zusammengesetzte NTSC-Signale umge
setzt werden.
In einer Datensichtgerät- oder CRT-Steuerung 24, die im Folgenden kurz als
CRTC bezeichnet wird und einen nicht dargestellten Zeichengenerator-ROM
enthält, um Zeicheninformationen und eine Anzeigemarkierung wie einen Zeiger
auf dem Monitor darzustellen, werden Zeichensignale erzeugt und ausgegeben.
Die von der CRTC 24 ausgegebenen Zeichensignale werden den von dem Bild
speicher 23 ausgegebenen Videosignalen überlagert. In der Systemsteuerschal
tung 34 werden Zeichensteuersignale zum Erzeugen der Zeichensignale an die
CRTC 24 ausgegeben. Die zeitliche Festlegung, d. h. das Timing der Ausgabe der
Zeichensignale wird über die Systemsteuerschaltung 34 so eingestellt, dass die
Zeicheninformation und/oder die Anzeigemarkierung an vorgegebenen Positionen
dargestellt werden.
Die Videosignale werden dem Monitor 50 der Reihe nach entsprechend dem
NTSC-Verfahren zugeführt. Auf diese Weise wird ein beobachtetes Bild im nor
malen Darstellungsmodus innerhalb eines auf dem Monitor 50 vorgesehenen
Bildbereichs dargestellt (vgl. Fig. 2). Im Folgenden wird dieses im normalen Dar
stellungsmodus dargestellte Bild als "Normalbild" bezeichnet. Die Pixelzahl in dem
Bildbereich NA beträgt etwa 300000, was der Zahl der Pixel entspricht, aus denen
die Bildpixelsignale ausgelesen werden.
In einem elektrisch löschbaren programmierbaren Festwertspeicher 15, kurz
EEPROM, der in dem Videobeobachtungsteil 10 vorgesehen ist, werden im vor
aus auf den Typ des Videobeobachtungsteils 10 bezogene Daten wie die Pixel
zahl und die Pixelanordnung gespeichert. Ist der Videobeobachtungsteil 10 an
den Videoprozessor 20 angeschlossen, so werden die Daten aus dem EEPROM
15 ausgelesen und der Systemsteuerschaltung 34 zugeführt. In der Systemsteu
erschaltung 34 sind ein Positionierspeicher 35, eine CPU 36, ein ROM 37 und ein
RAM 38 vorgesehen. Die aus dem EEPROM 15 ausgelesenen Daten werden
temporär in dem RAM 38 gespeichert. Die Größe des Bildbereichs NA ist entspre
chend der Pixelzahl der CCD 12 und dem Videostandard vorbestimmt. Die auf
den Bildbereich NA und die Pixelanordnungsdaten der CCD 12 bezogenen Daten
werden temporär in dem Positionierspeicher 35 gespeichert.
In der normalen Darstellung wird ein Zeiger P dargestellt, der einen bestimmten
Teil in dem Normalbild anzeigt. Die Anzeigeposition des Zeigers P wird über eine
Tastatur 51 verschoben.
Wird ein auf der Tastatur 51 vorgesehenes Schiebetastenfeld 51E betätigt, das
aus einer Aufwärts-Taste 51U, einer Abwärts-Taste 51D, einer Rechts-Taste 51R
und einer Links-Taste 51L besteht, so wird der Systemsteuerschaltung 34 ein der
betätigten Taste zugeordnetes Betätigungssignal zugeführt. Basierend auf diesem
Betätigungssignal, in dem die Positionsdaten des zu verschiebenden Zeigers P
enthalten sind, wird das Zeichensteuersignal der CRTC 24 von der Systemsteuer
schaltung 34 zugeführt, so dass der Zeiger P in eine der betätigten Schiebetaste
entsprechende Richtung verschoben wird. Der Zeiger P wird also nach oben, nach
unten, nach links oder nach rechts verschoben. Eine Funktionstaste 51F dient der
Änderung des Darstellungszustandes, nämlich dem Wechsel zwischen der nor
malen Darstellung und der vergrößerten Darstellung. Wird die Funktionstaste 51F
betätigt, wenn das Normalbild und der Zeiger P auf dem Monitor 50 dargestellt
werden, so wird ein vergrößertes Bild, das ein vergrößertes Bild des bestimmten
Bildteils ist, so dargestellt, dass die durch den Zeiger P angezeigte Position zum
Mittelpunkt des vergrößerten Bildes wird, wie Fig. 2 zeigt. Das Bild des bestimm
ten Bildteils wird im Folgenden als "vergrößertes Bild" bezeichnet. In diesem Fall
werden Bildpixelsignale, die an dem vergrößerten Bild entsprechenden Pixeln
erzeugt werden, aus der CCD 12 entsprechend den Treibersignalen ausgelesen,
die aus dem in der Bildwandlerschaltung 17 vorgesehenen CCD-Treiber 16
stammen. Wird die Funktionstaste 51F nochmals betätigt, so wechselt die Dar
stellung aus der vergrößerten Darstellung zurück in die normale Darstellung.
Ähnlich wie bei einem herkömmlichen elektronischen Endoskop wird die Position
des Zeigers P von der Systemsteuerschaltung 34 so gesteuert, dass sich der
Zeiger P nicht aus dem Bildbereich NA herausbewegt. Die Systemsteuerschaltung
34 führt der CRTC 24 das Steuersignal auf Grundlage der in dem Positionierspei
cher 35 gespeicherten, auf den Bildbereich NA bezogenen Daten und des Betäti
gungssignals zu.
Ein Taktgenerator 28 gibt einen Taktimpuls an jede Schaltung, nämlich die CCD-
Schaltung 21, den Bildspeicher 23, die CRTC 24, die Videoschaltung 26 etc. aus,
wodurch in jeder Schaltung die zeitliche Festlegung, d. h. das Timing der Si
gnaleingabe und -ausgabe gesteuert wird. In der CCD-Schaltung 21 werden aus
den Bildpixelsignalen die Luminanzsignale erzeugt und über den A/D-Wandler 22
der Systemsteuerschaltung 34 zugeführt. Auf Grundlage der Luminanzsignale gibt
die Systemsteuerschaltung 34 ein Steuersignal für die Blende 30 an die Blenden
steuerung 33 aus. Die Blendensteuerung 33 führt einem Motor 32 ein Treibersi
gnal zu, um ihn so anzusteuern, dass er die Blende 30 öffnet oder schließt und so
die Lichtmenge gesteuert wird, mit der das Objekt S beleuchtet wird.
Fig. 3 zeigt eine Pixelanordnung (Fotosensoranordnung) in der CCD 12.
Das auf der CCD 12 vorgesehene Komplementärfarbfilter CC ist ein Mosaikfarb
filter, bei dem die Farben Cyan (Cy), Magenta (Mg), Gelb (Ye) und Grün (G)
schachbrettartig angeordnet sind. Das Farbfilter CC ist in mehrere Blöcke B
unterteilt, die jeweils aus vier Farbelementen (Cy, Mg, Ye, G) bestehen. Die auf
dem Farbfilter CC vorgesehene Anordnung entspricht der Pixelanordnung der
CCD 12. In diesem Ausführungsbeispiel wird als Ladungsübertragungsverfahren
das Zwischenleitungsübertragungsverfahren (Interline-Übertragungsverfahren)
angewendet. So sind vertikale Register längs Spalten in der Pixelanordnung
zwischen zwei einander benachbarten vertikalen Pixelanordnungen (nicht gezeigt)
vorgesehen. Außerdem sind horizontale Register unterhalb der Pixelanordnung
regelmäßig angeordnet (nicht gezeigt). In Fig. 3 sind zur Vereinfachung der Er
läuterung nur die Pixelanordnung und die Filteranordnung gezeigt, wobei die
einzelnen Pixel mit Pij bezeichnet sind. Die linke Ecke der Pixelanordnung ist als
Ursprung festgelegt. Der Index j gibt die Pixelposition in vertikaler Richtung und
der Index i die Pixelposition in horizontaler Richtung an. In Fig. 3 sind auch die
Positionen der Farbfilterelemente durch entsprechende Indizes angegeben. In der
Pixelanordnung sind in horizontaler Richtung M Pixel und in vertikaler Richtung N
Pixel angeordnet.
In der normalen Darstellung wird eine "Abwärtsabtastung", d. h. eine Pixelzahl
transformation oder Bildgrößentransformation vorgenommen. Wie oben erläutert,
werden im Zustand der normalen Darstellung etwa 300000 Pixel abgetastet, um
das Objektbild zu erzeugen. Um 300000 Pixel von 1200000 auf der CCD 12
vorgesehenen Pixeln abzutasten, wird eines von vier Pixeln entsprechend den
benachbarten vier Elementen gleicher Farbe abgetastet, und es werden nur die in
den abgetasteten Pixeln erzeugten Ladungen an die vertikalen Register übertra
gen. Die in den übrigen drei Pixeln erzeugten Ladungen werden nicht an die
vertikalen Register übertragen. Dieser Prozess wird an den benachbarten vier
Pixeln entsprechend den benachbarten vier Elementen gleicher Farbe und weiter
an allen Farbelementen (Cy, Mg, Ye, G) vorgenommen.
In Fig. 3 ist eine Pixelanordnung gezeigt, die aus den abgetasteten Pixeln besteht
(300000 Pixeln). Bezeichnet man das abgetastete Pixel mit P'ji, so erhält man P'ji
nach einer der folgenden vier Formeln. Entsprechend der Pixelanordnung in der
CCD 12 gibt der Index j die Position der abgetasteten Pixel in vertikaler Richtung
und der Index i die Position der abgetasteten Pixel in horizontaler Richtung an.
P'ji = Pji (j<2, i<2) (1)
P'ji = Pj+2,i (j≧2, i<2) (2)
P'ji = Pj,i+2 (j<2, i≧2) (3)
P'ji = Pj+2,i+2 (j≧2, i≧2) (4)
Beispielsweise wird unter den Pixeln P00, P02, P20, P22, die den benachbarten
Cyan-Farbelementen Cy11, Cy12, Cy21, Cy22 entsprechen, das dem Cyan-
Farbelement Cy11 entsprechende Pixel P00 als Pixel P'00 gemäß Formel (1) abge
tastet. Entsprechend wird unter den Pixeln P54, P56, P74, P76, die den einander
benachbarten Gelb-Farbelementen Ye33, Ye34, Ye43, Ye44 entsprechen, das dem
Gelb-Farbelement Ye33 entsprechende Pixel P54 gemäß Formel (4) als Pixel P'32
abgetastet. Die Formeln (1) bis (4) sind entsprechend der Anordnung des Farbfil
ters CC definiert. Wird ein anderer Typ von Farbelement (z. B. R, G, B) oder ein
anderes Anordnungsverfahren des Farbfilters angewendet, so ändern sich die
Formeln (1) bis (4) entsprechend.
Die Abwärtsabtastung wird an den 1200000 Pixeln vorgenommen, so dass das
Objektbild auf der CCD 12 in ein Bild transformiert wird, das aus etwa 300000
Pixeln besteht. In der Pixelanordnung des transformierten Objektbildes sind in
horizontaler Richtung m Pixel und in vertikaler Richtung n Pixel angeordnet. Da
der Ähnlichkeitsfaktor ¼ beträgt, ist m gleich M/2 und n gleich N/2. Das auf der
CCD 12 erzeugte Objektbild, das aus allen in der CCD 12 vorgesehenen Pixeln
besteht, wird im Folgenden als "Allpixel-Objektbild" bezeichnet, während das aus
den etwa 300000 abgetasteten Pixeln bestehende Objektbild im Folgenden als
"Objektbild normaler Darstellung" bezeichnet wird.
Fig. 4 zeigt einen Vergrößerungsprozess. Hierbei wird die Position des Zeigers P
auf dem Monitor 50 durch Monitorkoordinaten (X, Y) dargestellt. X bezeichnet die
Position in horizontaler Richtung und Y die Position in vertikaler Richtung. Die
Pfeilspitze des Zeigers P stellt die Anzeigepixelposition dar. Im Folgenden wird ein
Bereich auf der CCD 12, innerhalb dessen das Allpixel-Objektbild erzeugt wird, als
Bilderzeugungsbereich TI bezeichnet.
Wie oben erläutert, wird im Zustand der normalen Darstellung das auf der CCD 12
erzeugte Allpixel-Objektbild durch die Abwärtsabtastung in das Objektbild norma
ler Darstellung transformiert. Das Objektbild normaler Darstellung wird dann auf
dem Monitor 50 dargestellt. Auf dem Monitor 50 wird der Zeiger P durch Betätigen
des ersten Feldes 51E an vorgegebenen Koordinaten (X0, Y0) positioniert. In der
Systemsteuerschaltung 34 wird die Position des Zeigers P über das von dem
Tastenfeld 51E gelieferte Betätigungssignal erfasst, das eine Information über die
verschobene Position des Zeigers P enthält.
Drückt der Benutzer die Funktionstaste 51F, so wird der nachfolgend beschriebe
ne Vergrößerungsprozess durchgeführt.
Zunächst wird in der Pixelanordnung des Objektbildes normaler Darstellung ein
Pixel P'c, das der Position des Zeigers P entspricht, über die Koordinaten (X0, Y0)
und die in dem Positionierspeicher 35 gespeicherten Bildbereichsdaten erfasst.
Wie in Fig. 3 gezeigt, erhält man das Pixel P'ji in dem Objektbild normaler Dar
stellung über eine der Formeln (1) bis (4). Über die Formeln (1) bis (4) erhält man
deshalb ein Pixel in dem Allpixel-Objektbild entsprechend dem Pixel P'c, d. h. den
Koordinaten (X0, Y0) des Zeigers P. Das vorstehend genannte Pixel in dem
Allpixel-Objektbild wird durch ein Anzeigepixel Pc und die Position dieses Anzei
gepixels Pc in dem Bilderzeugungsbereich TI durch Koordinaten (K, H) dargestellt.
Pc ist nämlich PK,H.
Dann wird ein Teilbereich PI, der einen Teil des Bilderzeugungsbereichs TI bildet,
festgelegt. Das Anzeigepixel Pc wird zum Mittelpunkt des Teilbereichs PI. In
diesem Ausführungsbeispiel ist der dem Teilbereich PI entsprechende Teil des
Allpixel-Objektbildes als ein Bild festgelegt, das im Betriebszustand vergrößerter
Darstellung erzeugt wird. Das Teilbild, das aus in dem Teilbereich PI angeordne
ten Pixeln besteht, wird als "Objektbild vergrößerter Darstellung" bezeichnet. In
diesem Ausführungsbeispiel ist die Größe des Normalbereichs NA auf dem Mo
nitor 50 im Wesentlichen gleich der Größe des Vergrößerungsbereichs MA. So ist
nämlich die Pixelzahl des Objektbildes vergrößerter Darstellung gleich der des
Objektbildes normaler Darstellung. Um das Objektbild vergrößerter Darstellung zu
erzeugen, wird der Teilbereich PI, in dem 300000 Pixel angeordnet sind, so fest
gelegt, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs PI wird. Die
Pixelzahl ist in horizontaler Richtung gleich m (= M/2) und in vertikaler Richtung
gleich n (= N/2). Die Systemsteuerschaltung 34 führt der Bildwandlerschaltung 17
ein Steuersignal entsprechend den in dem Positionierspeicher 35 gespeicherten
Pixelanordnungsdaten zu, so dass Treibersignale, die den Pixeln für das Objekt
bild vergrößerter Darstellung entsprechen, an die CCD 12 ausgegeben werden.
So werden nur die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs P
erzeugt werden, aus der CCD 12 ausgelesen, und das vergrößerte Bild wird
innerhalb des Bildbereichs MA dargestellt.
Es können auch andere Ähnlichkeitsfaktoren verwendet werden. Ist die Pixelzahl
der CCD 12 gleich D und die des Objektbildes normaler Darstellung gleich U, so
ist der Ähnlichkeitsfaktor gleich D/U. Der Wert U ist ≦ etwa 410000. In diesem Fall
sind die Formeln (1) bis (4) entsprechend dem Ähnlichkeitsfaktor zu ändern. Der
Kehrwert des Ähnlichkeitsfaktors kann gleich einer anderen Ganzzahl sein,
z. B. 1/4, ähnlich dem vorliegenden Ausführungsbeispiel, oder aber er kann eine
rationale Zahl sein, z. B. 2/7. Ist dies der Fall, werden die den anderen Ganzzahlen
oder den rationalen Zahlen entsprechenden Abwärtsabtastungen vorgenommen,
die aus dem Stand der Technik bekannt sind. Um ein hochaufgelöstes Normalbild
in der normalen Darstellung zu erhalten, kann der Bilderzeugungsprozessor das
Objektbild normaler Darstellung erzeugen, indem das aus dem Stand der Technik
bekannte Mittelungsverfahren durchgeführt wird, bei dem ein Mittel benachbarter
Pixel, die den einander benachbarten Elementen gleicher Farbe entsprechen,
berechnet wird.
Fig. 5 zeigt, wie die Position des Anzeigepixels Pc eingegrenzt wird.
Wie oben erläutert, hat der Teilbereich PI m × n (= 300000) Pixel, so dass das
Anzeigepixel Pc zum Mittelpunkt des Teilbereichs P wird. Für die horizontale
Richtung sind von der Position des Anzeigepixels Pc aus m/2 Pixel in positiver
Richtung und m/2 Pixel in negativer Richtung angeordnet. Entsprechend sind für
die vertikale Richtung von der Position des Anzeigepixels Pc aus n/2 Pixel in
positiver Richtung und n/2 Pixel in negativer Richtung angeordnet. Befindet sich
das Anzeigepixel Pc, das entsprechend der Position des Zeigers P festgelegt ist,
nahe dem Umriss des Bilderzeugungsbereichs TI, so kann der Teilbereich PI nicht
festgelegt und damit das Objektbild vergrößerter Darstellung nicht erzeugt wer
den. Befindet sich, wie beispielhaft in Fig. 5 gezeigt, die Koordinate (K, H) des
Anzeigepixels Pc näher dem Ursprung (0,0) als die Koordinate (m/2, n/2), so
befindet sich ein Teil des Teilbereichs PI außerhalb des Bilderzeugungsbereichs
TI, wie durch die Schraffur angedeutet ist.
In diesem Ausführungsbeispiel wird der Bilderzeugungsbereich TI, wie später
erläutert wird, in neun Bereiche unterteilt, und dann der Teilbereich PI entspre
chend den neun Bereichen und der Position des Anzeigepixels Pc festgelegt.
Fig. 6 ist ein Flussdiagramm einer Hauptroutine, die auf den Betrieb des elektroni
schen Endoskops insgesamt bezogen ist und von der in der Systemsteuerschal
tung 34 vorgesehenen COU 36 ausgeführt wird. Wird die elektrische Energiever
sorgung eingeschaltet, so beginnt der Prozess.
In Schritt 101 werden die Lichtquelle 29, die Blende 30 etc. initialisiert. In Schritt
102 wird ein auf den Videobeobachtungsteil 10 bezogener Darstellungsprozess
ausgeführt. In Schritt 103 werden weitere Prozesse ausgeführt, z. B. ein Prozess
zur Datumsanzeige. Die vorstehend genannten Prozesse werden so lange aus
geführt, bis die elektrische Energieversorgung ausgeschaltet wird.
Fig. 7 zeigt die Unterroutine des Schrittes 102 nach Fig. 6. Die in dem Videobeob
achtungsteil 10 vorgesehene, in den Fig. 1 bis 5 gezeigte CCD 12 hat etwa
1200000 Pixel. Es können jedoch auch andere Typen von Videobeobachtungs
teilen an den Videoprozessor 20 angeschlossen werden, die eine andere Anzahl
von Pixeln haben. Ist in diesem Ausführungsbeispiel die Pixelzahl der in dem
Videobeobachtungsteil 10 vorgesehenen und an den Videoprozessor 20 ange
schlossenen CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird die
Abwärtsabtastung in dem Betriebszustand normaler Darstellung nicht durchge
führt, und in dem Betriebszustand vergrößerter Darstellung wird eine Interpolation
vorgenommen.
In Schritt 201 wird ermittelt, ob der Videobeobachtungsteil 10 an den Videopro
zessor 20 angeschlossen ist. Ist dies nicht der Fall, d. h. ist der Videobeobach
tungsteil abgenommen, um einen Videobeobachtungsteil anderen Typs anzu
schließen, endet diese Unterroutine. Wird dagegen ermittelt, dass der Videobeob
achtungsteil 10 an den Videoprozessor 20 angeschlossen ist, so fährt der Steuer
ablauf mit Schritt 202 fort. In Schritt 202 wird auf Grundlage der auf die Pixelzahl
bezogenen Daten, die aus dem EEPROM 15, der in dem an dem Videoprozessor
20 angeschlossenen Videobeobachtungsteil 10 vorgesehen ist, ausgelesen
werden, ermittelt, ob die Pixelzahl der CCD 12 größer als die effektive Pixelzahl
ist, die auf das NTSC-Verfahren ausgelegt ist (410000 Pixel).
Wird in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 größer als die
effektive Pixelzahl ist, so fährt der Prozess mit Schritt 203 fort, in dem die Ab
wärtsabtastung oder die Pixelzahltransformation erfolgt. So werden die Bildpixel
signale, die in Pixeln entsprechend dem Objektbild normaler Darstellung erzeugt
werden, aus der CCD 12 ausgelesen. In Schritt 204 werden aus den ausgelese
nen Bildpixelsignalen die Videosignale erzeugt und von der Videoschaltung 26 an
den Monitor 50 übertragen, wobei auf dem Monitor 50 das Normalbild dargestellt
wird, das dem Objektbild normaler Darstellung entspricht. Nach Ausführen des
Schrittes 204 endet die Unterroutine.
Wird dagegen in Schritt 202 festgestellt, dass die Pixelzahl der CCD 12 nicht
größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 205 fort. In
Schritt 205 werden die in allen Pixeln der CCD 12 erzeugten Bildpixelsignale
ausgelesen, deren Zahl kleiner als die effektive Pixelzahl ist. In diesem Fall wird
das Allpixel-Objektbild das Objektbild normaler Darstellung. In Schritt 206 werden
die dem Allpixel-Objektbild entsprechenden Videosignale erzeugt und dem Moni
tor 50 zugeführt, so dass auf letzterem das Normalbild dargestellt wird.
Fig. 8 ist ein Flussdiagramm einer Unterbrechungsroutine eines Prozesses zum
Ändern der Darstellung zwischen vergrößerter und normaler Darstellung. Fig. 9
zeigt den Bilderzeugungsbereich TI.
In Schritt 301 wird ermittelt, ob die Funktionstaste 51F im Betriebszustand der
normalen Darstellung gedrückt wird. Es wird also ermittelt, ob die Funktionstaste
51F gedrückt wird, um von der normalen Darstellung auf die vergrößerte Darstel
lung zu wechseln.
Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F im Betriebszustand
der normalen Darstellung gedrückt wird, so fährt der Prozess mit Schritt 302 fort.
In Schritt 302 wird ermittelt, ob die Pixelzahl der in dem Videobeobachtungsteil 10
vorgesehenen CCD 12 die effektive Pixelzahl von etwa 410000 überschreitet.
Wird in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 die effektive Pixel
zahl überschreitet, so fährt der Prozess mit Schritt 303 fort, worin die die Position
des Zeigers P darstellenden Monitorkoordinaten (X0, Y0) erfasst werden. Auf
Grundlage der Monitorkoordinaten (X0, Y0) wird das Anzeigepixel Pc in dem
Bilderzeugungsbereich TI spezifiziert, und man erhält in oben erläuterter Weise
die Koordinate (K, H) des Anzeigepixels Pc in dem Bilderzeugungsbereich TI.
Nach Ausführen des Schrittes 303 fährt der Prozess mit Schritt 304 fort.
Wie in Fig. 9 gezeigt, ist der Bilderzeugungsbereich TI in neun Bereiche UA1,
UA2, UA3, UA4, UA5, UA6, UA7, UA8 und CA unterteilt. Befindet sich das Anzei
gepixel Pc in dem Bereich CA, so kann der Teilbereich PI mit seinen m × n Pixeln
so festgelegt werden, dass das Anzeigepixel Pc der Mittelpunkt des Teilbereichs
PI wird. Befindet sich dagegen das Anzeigepixel Pc in einem der anderen Berei
che UA1 bis UA8, so wird das Anzeigepixel Pc, das den Mittelpunkt des Teilbe
reichs PI bilden soll, in ein modifiziertes Pixel P'c geändert, das auf dem Umriss
des Bereichs CA angeordnet ist. Dann wird der Teilbereich PI festgelegt, dessen
Mittelpunkt das modifizierte Anzeigepixel P"c ist.
In Schritt 304 wird ermittelt, ob die Koordinate K in horizontaler Richtung die
folgende Formel erfüllt:
0 ≦ K < m/2 (5)
Es wird also ermittelt, ob das Anzeigepixel Pc in einem der Bereiche UA1, UA2
und UA3 angeordnet ist.
Wird festgestellt, dass die Formel (5) erfüllt ist, so fährt der Prozess mit Schritt
305 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen Richtung die
folgende Formel erfüllt:
0 ≦ H < n/2 (6)
Es wird also ermittelt, ob das Anzeigepixel Pc in dem Bereich UA1 liegt.
Wird in Schritt 305 festgestellt, dass die Formel (6) erfüllt ist, d. h. das Anzeigepixel
Pc in dem Bereich UA1 angeordnet ist, so fährt der Steuerablauf mit Schritt 307
fort. In Schritt 307 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das
Anzeigepixel Pc in ein in den Koordinaten (m/2, n/2) angeordnetes Pixel geändert,
das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Ausführen des
Schrittes 307 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 305 festgestellt, dass die Bedingung (6) nicht erfüllt ist, so
fährt der Prozess mit Schritt 306 fort. In Schritt 306 wird ermittelt, ob die Koordi
nate H längs der vertikalen Richtung die folgende Formel erfüllt:
0/2 ≦ H ≦ N - n/2 (7)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA2 befindet.
Wird in Schritt 306 festgestellt, dass die Formel (7) erfüllt ist, d. h. sich das Anzei
gepixel Pc in dem Bereich UA2 befindet, so fährt der Prozess mit Schritt 308 fort.
In Schritt 308 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das An
zeigepixel Pc in ein auf der linken Umrissseite des Bereichs CA, d. h. in den Koor
dinaten (m/2, H) liegenden Pixel geändert, das als modifiziertes Anzeigepixel P"c
definiert wird. Nach Ausführen des Schrittes 308 fährt der Prozess mit Schritt 321
fort.
Wird dagegen in Schritt 306 festgestellt, dass die Formel (7) nicht erfüllt ist, d. h.
das Anzeigepixel Pc in dem Bereich UA3 liegt, so fährt der Prozess mit Schritt 309
fort. In Schritt 309 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das
Anzeigepixel Pc in ein in den Koordinaten (m/2, N-n/2) angeordnetes Pixel geän
dert, das als modifiziertes Anzeigepixel P"c definiert wird. Nach Ausführen des
Schrittes 309 fährt der Prozess mit Schritt 321 fort.
Wird in Schritt 304 festgestellt, dass die Formel (6) nicht erfüllt ist, d. h. sich das
Anzeigepixel Pc nicht in einem Bereiche UA1, UA2 und UA3 befindet, so fährt der
Prozess mit Schritt 310 fort. In Schritt 310 wird ermittelt, ob die Koordinate K längs
der horizontalen Richtung die folgende Formel erfüllt:
M/2 ≦ K ≦ M - m/2 (8)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in einem der Bereiche UA4,
UA5 und CA befindet.
Wird in Schritt 310 festgestellt, dass die Formel (8) erfüllt ist, so fährt der Prozess
mit Schritt 311 fort, worin ermittelt wird, ob die Koordinate H längs der vertikalen
Richtung die folgende Formel erfüllt:
0 ≦ H < n/2 (9)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA4 befindet.
Wird in Schritt 311 festgestellt, dass die Formel (9) erfüllt ist, d. h. sich das Anzei
gepixel Pc in dem Bereich UA4 befindet, so fährt der Prozess mit Schritt 313 fort.
In Schritt 313 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das An
zeigepixel Pc auf ein auf der oberen Umrisslinie des Bereichs CA, d. h. in den
Koordinaten (K, n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepixel
P"c festgelegt wird. Nach Ausführen des Schrittes 313 fährt der Prozess mit Schritt
321 fort.
Wird dagegen in Schritt 311 festgestellt, dass die Formel (9) nicht erfüllt ist, so
fährt der Prozess mit Schritt 312 fort. In Schritt 312 wird ermittelt, ob die Koordi
nate H längs der vertikalen Richtung die folgende Formel erfüllt:
n/2 ≦ H ≦ N - n/2 (10)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich CA befindet.
Wird in Schritt 312 festgestellt, dass die Formel (10) erfüllt ist, so fährt der Pro
zess mit Schritt 314 fort, worin das Anzeigepixel Pc in den Koordinaten (K, H) nicht
geändert und direkt als Mittelpunkt des Teilbereichs PI festgelegt wird. Nach
Ausführen des Schrittes 314 fährt der Prozess mit Schritt 321 fort. Wird dagegen
in Schritt 312 festgestellt, dass die Formel (10) nicht erfüllt ist, d. h. sich das An
zeigepixel Pc in dem Bereich UA5 befindet, so fährt der Prozess mit Schritt 315
fort. In Schritt 315 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das
Anzeigepixel Pc auf ein auf der unteren Umrisslinie des Bereichs CA, d. h. in den
Koordinaten (K, N-n/2) liegendes Pixel geändert, das als modifiziertes Anzeigepi
xel P"c definiert wird. Nach Ausführen des Schrittes 315 fährt der Prozess mit
Schritt 321 fort.
Wird in Schritt 310 festgestellt, dass die Formel (8) nicht erfüllt ist, d. h. sich das
Anzeigepixel Pc in keinem der Bereiche UA4, UA5 und CA, sondern in einem der
Bereiche UA6, UA7, UA8 befindet, so fährt der Prozess mit Schritt 316 fort. In
Schritt 316 wird ermittelt, ob die Koordinate H längs der horizontalen Richtung die
folgende Formel erfüllt:
0 ≦ H < n/2 (11)
Es wird also ermittelt, ob sich das Anzeigepixel Pc im Bereich UA6 befindet.
Wird in Schritt 316 festgestellt, dass die Formel (11) erfüllt ist, d. h. das Anzeigepi
xel Pc in dem Bereich UA6 liegt, so fährt der Prozess mit Schritt 318 fort. In Schritt
318 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc
in ein in den Koordinaten (M - m/2, n/2) liegendes Pixel geändert, das als modifi
ziertes Anzeigepixel P'c definiert wird. Nach Ausführen des Schrittes 318 fährt der
Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 316 festgestellt, dass die Formel (11) nicht erfüllt ist, so
fährt der Prozess mit Schritt 317 fort. In Schritt 317 wird ermittelt, ob die Koordi
nate H längs der horizontalen Richtung die folgende Formel erfüllt:
n/2 ≦ H ≦ N - n/2 (12)
Es wird also ermittelt, ob sich das Anzeigepixel Pc in dem Bereich UA7 befindet.
Wird in Schritt 317 festgestellt, dass die Formel (12) erfüllt ist, d. h. das Anzeigepi
xel Pc in dem Bereich UA7 liegt, so fährt der Prozess mit Schritt 319 fort. In Schritt
319 wird, um den Teilbereich PI mit m × n Pixeln festzulegen, das Anzeigepixel Pc
in ein auf der rechten Umrisslinie des Bereichs CA, d. h. in den Koordinaten
(M-m/2, H) liegendes Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt
wird. Nach Ausführen des Schrittes 319 fährt der Prozess mit Schritt 321 fort.
Wird dagegen in Schritt 317 festgestellt, dass die Formel (12) nicht erfüllt ist, d. h.
sich das Anzeigepixel Pc in dem Bereich UA8 befindet, so fährt der Prozess mit
Schritt 320 fort. In Schritt 320 wird, um den Teilbereich PI mit m × n Pixeln festzu
legen, das Anzeigepixel Pc in ein in den Koordinaten (M - m/2, N-n/2) liegendes
Pixel geändert, das als modifiziertes Anzeigepixel P"c festgelegt wird. Nach Aus
führen des Schrittes 320 fährt der Prozess mit Schritt 321 fort.
In Schritt 321 werden auf Grundlage des Anzeigepixels Pc oder des modifizierten
Anzeigepixels P"c die Bildpixelsignale, die in den Pixeln innerhalb des Teilbereichs
PI erzeugt werden, aus der CCD 12 ausgelesen, und es wird das Bild vergrößerter
Darstellung entsprechend den ausgelesenen Bildpixelsignalen auf dem Monitor 50
dargestellt. Nach Ausführen des Schrittes 321 endet diese Routine.
Wird dagegen in Schritt 302 festgestellt, dass die Pixelzahl der CCD 12 nicht
größer als die effektive Pixelzahl ist, so fährt der Prozess mit Schritt 322 fort. In
Schritt 322 werden Bildpixelsignale, die in allen in der CCD 12 vorgesehenen
Pixeln erzeugt werden, aus der CCD 12 ausgelesen, und es wird ein Interpolati
onsprozess in dem Bildspeicher 23 durchgeführt. Das durch den Interpolations
prozess erzeugte vergrößerte Bild wird auf dem Monitor 50 dargestellt.
Wird in Schritt 301 festgestellt, dass die Funktionstaste 51F nicht gedrückt wird,
womit ermittelt wird, ob durch Drücken der Funktionstaste 51F von der vergrö
ßerten Darstellung auf die normale Darstellung gewechselt wird, so fährt der
Prozess mit Schritt 323 fort. In Schritt 323 wird das Normalbild entsprechend dem
Objektbild normaler Darstellung auf dem Monitor 50 dargestellt. Nach Ausführen
des Schrittes 323 endet diese Routine.
Fig. 10 zeigt ein Flussdiagramm einer Unterroutine des in Fig. 8 gezeigten Schrit
tes 323.
Die Schritte 351 bis 355 entsprechen den Schritten 202 bis 206 nach Fig. 7. Es
wird also die Abwärtsabtastung vorgenommen, wenn die Pixelzahl größer als die
effektive Pixelzahl ist, während alle in der CCD 12 erzeugten Bildpixelsignale aus
der CCD 12 ausgelesen werden, wenn die Pixelzahl nicht größer als die effektive
Pixelzahl ist.
Auf diese Weise wird in dem ersten Ausführungsbeispiel das Normalbild entspre
chend dem Objektbild normaler Darstellung auf dem Monitor 50 dargestellt, wenn
der Betriebszustand auf die normale Darstellung eingestellt ist. Das Objektbild mit
normaler Darstellung, das sich aus einer gegebenen Zahl von Pixeln (z. B. 300000
Pixeln), die kleiner oder gleich 410000 Pixeln ist, zusammensetzt, wird erzeugt,
indem die Abwärtsabtastung an dem Allpixel-Objektbild vorgenommen wird, das
sich aus alten in der CCD 12 vorgesehenen Pixeln (vorliegend 1200000 Pixel)
zusammensetzt. Die dem Objektbild normaler Darstellung entsprechenden Bildpi
xelsignale werden aus der CCD 12 ausgelesen. Wird auf den Darstellungsmodus
der vergrößerten Darstellung gewechselt, so wird auf dem Monitor 50 ein vergrö
ßertes Bild entsprechend dem Objektbild vergrößerter Darstellung dargestellt. Das
Objektbild vergrößerter Darstellung, das aus etwa 300000 Pixeln besteht, wird
erzeugt, indem der Teilbereich PI in dem Bilderzeugungsbereich TI festgelegt
wird. Aus der CCD 12 werden die Bildpixelsignale ausgelesen, die den in dem
Teilbereich PI angeordneten Pixeln entsprechen. Ist dagegen die Pixelzahl der
CCD 12 kleiner oder gleich der effektiven Pixelzahl, so wird das Objektbild nor
maler Darstellung aus allen in der CCD 12 vorgesehenen Pixeln erzeugt, d. h. die
Abwärtsabtastung wird nicht durchgeführt.
Die Größe des Bildbereichs NA kann sich von der des Bildbereichs MA unter
scheiden. So kann sich die Pixelzahl des Objektbildes in der Normaldarstellung
von der des Objektbildes in der vergrößerten Darstellung unterscheiden.
Für die Ladungsübertragung kann an Stelle des Zwischenleitungsübertragungs
verfahrens ein anderes Verfahren, z. B. ein Rahmenübertragungsverfahren ange
wendet werden. An Stelle der CCD kann ein C-MOS-Bildsensor eingesetzt wer
den.
In diesem Ausführungsbeispiel werden das Objektbild normaler Darstellung und
das Objektbild vergrößerter Darstellung erzeugt, indem jeweils Bildpixelsignale,
die in zugehörigen Pixeln erzeugt werden, ausgelesen werden. Es können jedoch
auch Bildpixelsignale, die in allen Pixeln erzeugt werden, aus der CCD 12 ausge
lesen werden, um sie an die Bilderzeugungsschaltung 17 zu übertragen, wobei
das Objektbild normaler Darstellung und das Objektbild vergrößerter Darstellung
erzeugt werden, indem dann lediglich zugehörige Bildpixelsignale ausgelesen
werden.
In diesem Ausführungsbeispiel wird das NTSC-Verfahren als Videostandard
eingesetzt. Es können jedoch auch andere Verfahren wie das PAL-Verfahren
sowie Videostandards wie der VGA- und der SVGA-Standard angewendet wer
den. In diesem Falle werden die Videosignale gemäß dem Videostandard erzeugt,
und die Auflösung des Monitors hängt von dem Videostandard ab.
In diesem Ausführungsbeispiel werden die Videosignale in dem Videoprozessor
erzeugt. Die Videosignale können jedoch auch in dem Videobeobachtungsteil
erzeugt werden. In diesem Fall sind die Schaltungen zum Verarbeiten der Bildsi
gnale in dem Videobeobachtungsteil vorgesehen.
Fig. 11 zeigt ein elektronisches Endoskop als zweites Ausführungsbeispiel. Das
zweite Ausführungsbeispiel unterscheidet sich von dem ersten Ausführungsbei
spiel dadurch, dass an Stelle des Schiebetastenfeldes 51E und der Funktionsta
ste 51F der Tastatur 51 ein Berührungsfeld (Prüfungsschirm) verwendet wird. Da
die übrigen Teile denen des ersten Ausführungsbeispiels entsprechen, bleibt
deren Bezeichnung mit Bezugszeichen die gleiche, und auf eine Beschreibung
dieser Teile wird an dieser Stelle verzichtet.
Auf dem Bildschirm 50 ist ein durchsichtiges und farbloses Berührungsfeld TP
vorgesehen, in dem eine Elektrode in einer Matrix angeordnet ist. Das auf dem
Monitor 50 dargestellte Bild wird über das Berührungsfeld TP betrachtet. Das
Berührungsfeld TP ist ein Eingabegerät, mit dem eine bestimmte Stelle auf dem
Schirm des Monitors 50 ausgewählt werden kann, indem der Benutzer mit seinem
Finger darauf zeigt. Ein dieser Stelle entsprechendes Signal wird dem Videopro
zessor 20 zugeführt. In diesem Ausführungsbeispiel wird das Anzeigepixel Pc auf
Grundlage der Koordinaten (X, Y) auf dem Monitor 50 spezifiziert, die der berühr
ten Stelle entsprechen. Berührt der Benutzer das den Schirm des Monitors 50
bedeckende Berührungsfeld TP, so wird ein auf die Koordinaten des Monitors 50
bezogenes, der Berührungsposition auf dem Berührungsfeld TP entsprechendes
Betätigungssignal über eine nicht dargestellt Schnittstelle der Systemsteuer
schaltung 34 zugeführt. In der Systemsteuerschaltung 34 wird die Berührungs-
oder Anzeigeposition identifiziert. Zum Erfassen der Berührungsposition wird ein
mit Infrarotstrahlung arbeitendes Verfahren angewendet.
Entsprechend dem ersten Ausführungsbeispiel werden in dem Positionierspeicher
35 Anzeigebereichdaten (Bildbereich NA) entsprechend der Pixelzahl der in dem
Videoprozessor 10 vorgesehenen CCD 12 gespeichert. Dann wird über die Sy
stemsteuerschaltung 34 festgestellt, ob die Berührungsposition in dem Bildbereich
NA liegt (vgl. Fig. 2). Ist dies der Fall, so wird der Vergrößerungsprozess entspre
chend dem ersten Ausführungsbeispiel durchgeführt. Dazu wird ein der Berüh
rungsposition entsprechendes Pixel als Mittelpunkt des Objektbildes vergrößerter
Darstellung definiert. Liegt dagegen die Berührungsposition außerhalb des Bildbe
reichs NA, so wird der Vergrößerungsprozess nicht durchgeführt. Wird auf dem
Berührungsfeld TP bei Darstellung des vergrösserten Bildes eine vorgegebene
Stelle, z. B. eine Ecke berührt, so wird von der vergrößerten Darstellung auf die
normale Darstellung gewechselt.
Die Fig. 12 bis 14 zeigen ein elektronisches Endoskop als drittes Ausführungsbei
spiel. Das dritte Ausführungsbeispiel unterscheidet sich von dem ersten Ausfüh
rungsbeispiel dadurch, dass an dem Videobeobachtungsteil eine Vorrichtung zum
Verschieben der Position des Zeigers P vorgesehen ist. Da die übrigen Teil denen
des ersten Ausführungsbeispiels entsprechen, bleiben die Bezugszeichen inso
weit unverändert, und auf eine Beschreibung dieser Teile wird an dieser Stelle
verzichtet.
Fig. 12 ist ein Blockdiagramm des elektronischen Endoskops gemäß drittem
Ausführungsbeispiel.
Eine Tastenanordnung 18 besteht aus einer ersten Zeigerschiebetaste 18A, einer
zweiten Zeigerschiebetaste 18B und einer dritten Zeigerschiebetaste 18C. Die
Zeigerschiebetasten 18A, 18B und 18C sind Drucktasten und an dem Videobeob
achtungsteil 10 vorgesehen. Mit den Zeigerschiebetasten 18A, 18B und 18C lässt
sich der Zeiger P nach ober, nach unten, nach rechts oder nach links verschieben
und der Darstellungsmodus ändern. Werden die Zeigerschiebetasten 18A, 18B,
18C betätigt, so wird der in dem Videoprozessor 20 vorgesehenen Systemsteuer
schaltung 34 ein Betätigungssignal zugeführt, das auf die Position des zu ver
schiebenden Zeigers P bezogen ist.
In der Systemsteuerschaltung 34 wird zur Positionsänderung des Zeigers P der
CRTC 24 ein Steuersignal in Abhängigkeit des in der Tastenanordnung 18 gelie
ferten Betätigungssignals zugeführt. In der CRTC 24 wird die zeitliche Festlegung,
d. h. das Timing des dem Zeiger P entsprechenden Zeichensignals in Abhängig
keit des von der Systemsteuerschaltung 34 gelieferten Steuersignals eingestellt.
Fig. 13 zeigt einen Teil des Videobeobachtungsteils 10.
Der Videobeobachtungsteil 10 hat einen Bedienteil 10M, an dem verschiedene
Tasten einschließlich der Tastenanordnung 18 vorgesehen sind. Der Benutzer
betätigt das distale Ende des Videobeobachtungsteils 10 über den Bedienteil
10M. Beispielsweise betätigt er mit seiner rechten Hand einen Drehhebel LE, um
das distale Ende des Videobeobachtungsteils 10 zu betätigen. Ein Endabschnitt
10K an dem Bedienteil 10M läuft in einer Richtung verjüngt zu. Hält der Benutzer
den Bedienteil 10M des Videobeobachtungsteils 10, so ist eine erste Fläche 10R1
in Fig. 13 vertikal nach oben und eine zweite Fläche 10R2 vertikal nach unten
gewandt.
Die erste Zeigerschiebetaste 18A ist an der zweiten Fläche 10R2 so angeordnet,
dass der Benutzer sie mit dem Daumen seiner linken Hand betätigen kann. Dage
gen sind die zweite und die dritte Zeigerschiebetaste 18B, 18C derart an der
ersten Fläche 10R1 angeordnet, dass der Benutzer die Taste 18B mit dem Zeige
finger und die Taste 18C mit dem Mittelfinger seiner linken Hand bedienen kann.
Die erste Zeigerschiebetaste 18A und die beiden Zeigeschiebetasten 18B, 18C
sind entgegengesetzt zueinander angeordnet. Die Zeigerschiebetasten 18A, 18B,
18C und der Endabschnitt 10K sind so angeordnet, dass der Benutzer die Tasten
18A, 18B und 18C gleichzeitig betätigen kann.
In diesem Ausführungsbeispiel werden die erste und die zweite Zeigerschiebeta
ste 18A, 18B gleichzeitig gedrückt, um den Zeiger P nach rechts zu schieben,
während die erste und die dritte Zeigerschiebetaste 18A, 18C gleichzeitig gedrückt
werden, um den Zeiger P nach links zu verschieben. Um den Zeiger P nach unten
zu verschieben, wird die zweite Zeigerschiebetaste 18B gedrückt. Um ihn nach
oben zu verschieben, wird die dritte Zeigerschiebetaste 18C gedrückt. Werden die
zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt, so wird
der Darstellungsmodus geändert.
Fig. 14 zeigt eine Unterbrechungsroutine des Zeigerverschiebungsprozesses. Die
erste Zeigerschiebetaste 18A hat eine weitere Funktion, mit der der Zeiger P
dargestellt und ausgeblendet werden kann. Wird die erste Zeigerschiebetaste 18A
gedrückt, so startet die Unterbrechungsroutine.
In Schritt 401 führt die Systemsteuerschaltung 34 das Steuersignal der CRTC 24
zu, so dass der Zeiger P an einer vorgegebenen Position dargestellt wird. In
Schritt 402 wird ermittelt, ob die erste und die zweite Zeigerschiebetaste 18A, 18B
gleichzeitig gedrückt werden, um die Position des Zeigers P um einen Koordina
tenwert nach rechts zu verschieben.
Wird in Schritt 402 festgestellt, dass die erste und die zweite Zeigerschiebetaste
18A, 18B gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 403 fort, worin
ermittelt wird, ob die Position des Zeigers P innerhalb des Bildbereichs NA liegt.
Ist dies der Fall, so fährt der Prozess mit Schritt 404 fort, worin der Zeiger P um
einen Koordinatenwert nach rechts verschoben wird. Nach Ausführen des Schrit
tes 404 kehrt der Prozess zu Schritt 402 zurück. Wird dagegen festgestellt, dass
der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf dessen rechter
Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des Zeigers P zu Schritt
402 zurück, so dass der Zeiger P innerhalb des Bildbereichs NA bleibt.
Wird dagegen in Schritt 402 festgestellt, dass die erste und die zweite Zeiger
schiebetaste 18A, 18B nicht gleichzeitig gedrückt sind, so fährt der Prozess mit
Schritt 405 fort. In Schritt 405 wird ermittelt, ob die erste und die dritte Zeiger
schiebetaste 18A, 18C gleichzeitig gedrückt sind. Ist dies der Fall, so fährt der
Prozess mit Schritt 406 fort, worin ermittelt wird, ob der Zeiger P innerhalb des
Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 407 fort,
worin der Zeiger P um einen Koordinatenwert nach links verschoben wird. Nach
Ausführen des Schrittes 407 kehrt der Prozess zu Schritt 402 zurück. Wird dage
gen in Schritt 406 festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs
NA, sondern auf dessen linker Umrisslinie liegt, so kehrt der Prozess ohne Ver
schiebung des Zeigers P zu Schritt 402 zurück.
Wird in Schritt 405 festgestellt, dass die erste und die dritte Zeigerschiebetaste
18A, 18C nicht gleichzeitig gedrückt sind, so fährt der Prozess mit Schritt 408 fort.
In Schritt 408 wird festgestellt, ob die zweite Taste 18B gedrückt ist. Ist dies der
Fall, so fährt der Prozess mit Schritt 409 fort, worin ermittelt wird, ob der Zeiger
innerhalb des Bildbereichs NA liegt. Ist dies der Fall, so fährt der Prozess mit
Schritt 410 fort, worin der Zeiger P um einen Koordinatenwert nach unten ver
schoben wird. Nach Ausführen des Schrittes 410 kehrt der Prozess zu Schritt 402
zurück. Wird dagegen in Schritt 409 festgestellt, dass der Zeiger P nicht innerhalb
des Bildbereichs NA, sondern auf dessen unterer Umrisslinie liegt, so kehrt der
Prozess ohne Verschiebung des Zeigers P zu Schritt 402 zurück.
Wird in Schritt 408 festgestellt, dass die zweite Zeigerschiebetaste 18B nicht
gedrückt ist, so fährt der Prozess mit Schritt 411 fort. In Schritt 411 wird ermittelt,
ob die dritte Taste 18C gedrückt ist. Ist dies der Fall, so fährt der Prozess mit
Schritt 412 fort, worin ermittelt wird, ob der Zeiger P innerhalb des Bildbereichs NA
liegt. Ist dies der Fall, so fährt der Prozess mit Schritt 413 fort, worin der Zeiger P
um einen Koordinatenwert nach oben verschoben wird. Nach Ausführen des
Schrittes 413 fährt der Prozess mit Schritt 402 fort. Wird dagegen in Schritt 412
festgestellt, dass der Zeiger P nicht innerhalb des Bildbereichs NA, sondern auf
dessen oberer Umrisslinie liegt, so kehrt der Prozess ohne Verschiebung des
Zeigers P zu Schritt 402 zurück.
Wird in Schritt 411 festgestellt, dass die Zeigerschiebetaste Taste 18C nicht
gedrückt ist, so fährt der Prozess mit Schritt 414 fort. In Schritt 414 wird ermittelt,
ob die zweite und die dritte Zeigerschiebetaste 18B, 18C gleichzeitig gedrückt
sind. Ist dies der Fall, so fährt der Prozess mit Schritt 415 fort, worin die Position
des Zeigers P und des Anzeigepixels Pc entsprechend dem ersten Ausführungs
beispiel spezifiziert wird. In Schritt 416 wird der Zeiger P auf dem Monitor 50
gelöscht, um den Vergrößerungsprozess durchzuführen. Nach Ausführen des
Schrittes 416 wird die Unterbrechungsroutine beendet. Wird dagegen in Schritt
414 festgestellt, dass die zweite und die dritte Zeigerschiebetaste 18B, 18C nicht
gleichzeitig gedrückt sind, also keine Taste gedrückt ist, so kehrt der Prozess zu
Schritt 402 zurück. Bis der Darstellungsmodus auf die vergrößerte Darstellung
umgeschaltet wird, werden die Schritte 404 bis 414 wiederholt.
Hinsichtlich Anordnung und Zahl der Drucktasten sind Abwandlungen möglich.
In dem ersten bis dritten Ausführungsbeispiel werden als Eingabegeräte die
Tastatur, das Berührungsfeld bzw. die Zeigerschiebetasten eingesetzt. Es können
jedoch auch andere Eingabegeräte wie eine als Maus bezeichnete Zeigervorrich
tung oder ein als Joystick bezeichneter Schwenkhebel verwendet und an dem
Bedienteil des Videobeobachtungsteils vorgesehen werden.
Claims (16)
1. Elektronisches Endoskop mit einem Videobeobachtungsteil mit Bildsensor,
einer Anzeige und einem Videoprozessor, an den der Videobeobachtungsteil
und die Anzeige angeschlossen sind, sowie mit
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu standes von normaler Darstellung auf vergrößerte Darstellung und umge kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi xeln besteht.
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu standes von normaler Darstellung auf vergrößerte Darstellung und umge kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi xeln besteht.
2. Endoskop nach Anspruch 1, dadurch gekennzeichnet, dass die Gesamtpi
xelzahl des Bildsensors größer als eine effektive Pixelzahl ist, die auf einen
in dem Endoskop angewendeten Videostandard bezogen ist, und dass das
Objektbild normaler Darstellung aus einer ersten Anzahl von Pixeln und das
vergrößerte Bild aus einer zweiten Anzahl von Pixeln besteht, die jeweils
kleiner oder gleich der effektiven Pixelzahl sind.
3. Endoskop nach Anspruch 1, gekennzeichnet durch einen Pixelzahlprozes
sor, der ermittelt, ob die Pixelzahl des Bildsensors größer als eine effektive
Pixelzahl ist, die auf einen in dem Endoskop angewendeten Videostandard
bezogen ist, wobei der Bilderzeugungsprozessor das Objektbild normaler
Darstellung und das Objektbild vergrösserter Darstellung erzeugt, wenn die
Pixelzahl größer als die effektive Pixelzahl ist.
4. Endoskop nach Anspruch 3, dadurch gekennzeichnet, dass der Bilderzeu
gungsprozessor während der normalen Darstellung das Allpixel-Objektbild
als Objektbild normaler Darstellung und während der vergrößerten Darstel
lung das Objektbild vergrösserter Darstellung mittels eines auf das Allpixel-
Objektbild angewendeten Interpolationsprozesses erzeugt, wenn die Pixel
zahl des Bildsensors nicht größer als die effektive Pixelzahl ist.
5. Endoskop nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet,
dass der Bilderzeugungsprozessor das Objektbild vergrösserter Darstellung
mittels einer auf das Allpixel-Objektbild angewendeten Abwärtsabtastung er
zeugt.
6. Endoskop nach einem der Ansprüche 2 bis 5, gekennzeichnet durch
eine Eingabevorrichtung zum Anzeigen einer vorbestimmten Position in einem Normalbild, das im Zustand normaler Darstellung an der Anzeige dar gestellt wird und dem Objektbild normaler Darstellung entspricht, und
einen Anzeigepixelprozessor, der eine von der Anzeigevorrichtung ausge wählte Anzeigeposition erfasst und aus den Pixeln des Allpixel-Objektbildes ein Anzeigepixel bestimmt, das der Anzeigeposition entspricht,
wobei der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den Teilbereich entsprechend der zweiten Pixelzahl festlegt.
eine Eingabevorrichtung zum Anzeigen einer vorbestimmten Position in einem Normalbild, das im Zustand normaler Darstellung an der Anzeige dar gestellt wird und dem Objektbild normaler Darstellung entspricht, und
einen Anzeigepixelprozessor, der eine von der Anzeigevorrichtung ausge wählte Anzeigeposition erfasst und aus den Pixeln des Allpixel-Objektbildes ein Anzeigepixel bestimmt, das der Anzeigeposition entspricht,
wobei der Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt, indem er das Anzeigepixel als zentrales Pixel des Teilbereichs und den Teilbereich entsprechend der zweiten Pixelzahl festlegt.
7. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
der Anzeigepixelprozessor ermittelt, ob der aus der zweiten Anzahl von Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedin gung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes vergrößerter Darstellung wird, und
der Anzeigepixelprozessor das Anzeigepixel so ändert, dass das aus der zweiten Anzahl von Pixeln bestehende Objektbild vergrößerter Darstellung erzeugt wird, wenn der Teilbereich nicht festgelegt werden kann.
der Anzeigepixelprozessor ermittelt, ob der aus der zweiten Anzahl von Pixeln bestehende Teilbereich in dem Allpixel-Objektbild unter der Bedin gung festgelegt werden kann, dass das Anzeigepixel zum Mittelpunkt des Objektbildes vergrößerter Darstellung wird, und
der Anzeigepixelprozessor das Anzeigepixel so ändert, dass das aus der zweiten Anzahl von Pixeln bestehende Objektbild vergrößerter Darstellung erzeugt wird, wenn der Teilbereich nicht festgelegt werden kann.
8. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
ein Markierungsprozessor vorgesehen ist, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung die vorbestimmte Position anzeigt,
die Eingabevorrichtung eine an den Videoprozessor angeschlossene Tasta tur enthält, die eine Schiebetaste zum Verschieben der Position der Anzei gemarkierung auf der Anzeige hat, wobei der Markierungsprozessor die Po sition der Anzeigemarkierung in Abhängigkeit einer Betätigung der Schiebe taste einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei gemarkierung spezifiziert.
ein Markierungsprozessor vorgesehen ist, der ein einer Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung die vorbestimmte Position anzeigt,
die Eingabevorrichtung eine an den Videoprozessor angeschlossene Tasta tur enthält, die eine Schiebetaste zum Verschieben der Position der Anzei gemarkierung auf der Anzeige hat, wobei der Markierungsprozessor die Po sition der Anzeigemarkierung in Abhängigkeit einer Betätigung der Schiebe taste einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei gemarkierung spezifiziert.
9. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
die Eingabevorrichtung ein an den Videoprozessor angeschlossenes, auf der Anzeige angeordnetes Berührungsfeld enthält, das dem Videoprozessor ei ne Information über eine von dem Benutzer berührte Berührungsstelle liefert, und
der Anzeigepixelprozessor die Berührungsstelle als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Berührungsstelle spezifiziert.
die Eingabevorrichtung ein an den Videoprozessor angeschlossenes, auf der Anzeige angeordnetes Berührungsfeld enthält, das dem Videoprozessor ei ne Information über eine von dem Benutzer berührte Berührungsstelle liefert, und
der Anzeigepixelprozessor die Berührungsstelle als Anzeigeposition erfasst und das Anzeigepixel auf Grundlage der Berührungsstelle spezifiziert.
10. Endoskop nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet,
dass der Bilderzeugungsprozessor das Darstellungsobjektbild in dem Video
beobachtungsteil erzeugt.
11. Endoskop nach Anspruch 10, dadurch gekennzeichnet, dass der Bilder
zeugungsprozessor das Objektbild normaler Darstellung über eine Ab
wärtsabtastung erzeugt, in der aus dem Bildsensor nur Normalbild-
Pixelsignale ausgelesen werden, die in Pixeln erzeugt werden, aus denen
das Objektbild normaler Darstellung erzeugt wird.
12. Endoskop nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der
Bilderzeugungsprozessor das Objektbild vergrößerter Darstellung erzeugt,
indem er aus dem Bildsensor nur Teilbild-Pixelsignale ausliest, die in den in
nerhalb des Teilbereichs angeordneten Pixeln erzeugt werden.
13. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass
ein Markierungsprozessor vorgesehen ist, der ein eine Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung auf der Anzeige an einer vorbestimmten Positi on angezeigt wird,
die Eingabevorrichtung ein Bedienelement zum Verschieben der Position der Anzeigemarkierung enthält, die an einem Bedienteil des Videobeobach tungsteils angebracht ist, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung des Bedienelementes einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei gemarkierung spezifiziert.
ein Markierungsprozessor vorgesehen ist, der ein eine Anzeigemarkierung entsprechendes Zeichensignal erzeugt und den Videosignalen so überlagert, dass die Anzeigemarkierung auf der Anzeige an einer vorbestimmten Positi on angezeigt wird,
die Eingabevorrichtung ein Bedienelement zum Verschieben der Position der Anzeigemarkierung enthält, die an einem Bedienteil des Videobeobach tungsteils angebracht ist, wobei der Markierungsprozessor die Position der Anzeigemarkierung in Abhängigkeit einer Betätigung des Bedienelementes einstellt, und
der Anzeigepixelprozessor die Position der Anzeigemarkierung als Anzeige position erfasst und das Anzeigepixel auf Grundlage der Position der Anzei gemarkierung spezifiziert.
14. Endoskop nach Anspruch 13, dadurch gekennzeichnet, dass das Be
dienelement mehrere Drucktasten zum Verschieben der Anzeigemarkierung
hat und dass der Markierungsprozessor die Position der Anzeigemarkierung
in Abhängigkeit einer Betätigung der Drucktasten einstellt.
15. Endoskop nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass
das Bedienelement aus einer ersten, einer zweiten und einer dritten Druck taste besteht, die an einem verjüngt zulaufenden Endabschnitt des Bedien teils angeordnet sind, wobei die erste Drucktaste an einer Fläche des En dabschnittes ist und die zweite und die dritte Drucktaste an einer anderen Fläche des Endabschnittes angeordnet sind, und
die drei Drucktasten so angeordnet sind, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Zeigefinger, Mittelfinger, Daumen gleichzeitig betätigbar sind.
das Bedienelement aus einer ersten, einer zweiten und einer dritten Druck taste besteht, die an einem verjüngt zulaufenden Endabschnitt des Bedien teils angeordnet sind, wobei die erste Drucktaste an einer Fläche des En dabschnittes ist und die zweite und die dritte Drucktaste an einer anderen Fläche des Endabschnittes angeordnet sind, und
die drei Drucktasten so angeordnet sind, dass mindestens zwei von ihnen mit mindestens zweien der drei Finger Zeigefinger, Mittelfinger, Daumen gleichzeitig betätigbar sind.
16. Einrichtung zum Darstellen eines normalen und eines vergrößerten Bildes,
enthalten in einem elektronischen Endoskop mit einem Videobeobach
tungsteil mit Bildsensor, einer Anzeige und einem Videoprozessor, an den
der Videobeobachtungsteil und die Anzeige angeschlossen sind, wobei die
Einrichtung versehen ist mit
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu standes von normaler Darstellung auf vergrößerte Darstellung und umge kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi xeln besteht.
einem Bilderzeugungsprozessor, der ein Darstellungsobjektbild zur Darstel lung auf Grundlage eines Allpixel-Objektbildes erzeugt, das auf dem Bild sensor erzeugt wird und aus im Wesentlichen allen Pixeln des Bildsensors besteht,
einem Signalprozessor, der Videosignale auf Grundlage dem Darstellungs objektbild entsprechender Bildpixelsignale erzeugt und an die Anzeige aus gibt, und
einem Darstellungsänderungsprozessor zum Wechseln des Darstellungszu standes von normaler Darstellung auf vergrößerte Darstellung und umge kehrt,
wobei der Bilderzeugungsprozessor während der normalen Darstellung ein Objektbild normaler Darstellung als Darstellungsobjektbild erzeugt, das aus einer geringeren Anzahl an Pixeln als das Allpixel-Objektbild besteht und dessen Bildauflösung von der des Allpixel-Objektbildes verschieden ist, und
wobei der Bilderzeugungsprozessor während der vergrößerten Darstellung ein Objektbild vergrößerter Darstellung als Standardobjektbild erzeugt, das aus innerhalb eines Teilbereichs des Allpixel-Objektbildes angeordneten Pi xeln besteht.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10164935A DE10164935B4 (de) | 2000-05-31 | 2001-05-31 | Elektronisches Endoskop |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-161773 | 2000-05-31 | ||
JP2000161773A JP4172898B2 (ja) | 2000-05-31 | 2000-05-31 | 電子内視鏡装置 |
DE10164935A DE10164935B4 (de) | 2000-05-31 | 2001-05-31 | Elektronisches Endoskop |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10126587A1 true DE10126587A1 (de) | 2001-12-06 |
DE10126587B4 DE10126587B4 (de) | 2006-04-06 |
Family
ID=18665749
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10126587A Expired - Fee Related DE10126587B4 (de) | 2000-05-31 | 2001-05-31 | Elektronisches Endoskop |
DE10164935A Expired - Fee Related DE10164935B4 (de) | 2000-05-31 | 2001-05-31 | Elektronisches Endoskop |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10164935A Expired - Fee Related DE10164935B4 (de) | 2000-05-31 | 2001-05-31 | Elektronisches Endoskop |
Country Status (3)
Country | Link |
---|---|
US (1) | US6491628B1 (de) |
JP (1) | JP4172898B2 (de) |
DE (2) | DE10126587B4 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004023797A1 (de) * | 2002-09-04 | 2004-03-18 | Albert-Ludwigs-Universität | Verfahren zum betreiben eines endoskops sowie endoskop |
DE10245085A1 (de) * | 2002-09-27 | 2004-04-01 | Automotive Distance Control Systems Gmbh | Optisches System für eine Kamera |
EP1512365A1 (de) * | 2002-05-31 | 2005-03-09 | Olympus Corporation | Elektronische endoskopvorrichtung |
EP2098158A1 (de) * | 2008-03-04 | 2009-09-09 | Olympus Medical Systems Corporation | Medizinische Steuervorrichtung und deren System |
EP2716206A1 (de) * | 2011-05-27 | 2014-04-09 | Olympus Corporation | Endoskopvorrichtung |
US9801531B2 (en) | 2011-05-27 | 2017-10-31 | Olympus Corporation | Endoscope system and method for operating endoscope system |
DE102018124496A1 (de) * | 2018-10-04 | 2020-04-09 | Karl Storz Se & Co. Kg | Optisches Beobachtungssystem und Verfahren zum Betreiben eines optischen Beobachtungssystems |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697101B1 (en) * | 1999-09-20 | 2004-02-24 | Pentax Corporation | Electronic endoscope |
JP4503878B2 (ja) * | 2001-04-27 | 2010-07-14 | オリンパス株式会社 | 撮像装置及び撮像方法 |
JP2003334163A (ja) * | 2002-03-14 | 2003-11-25 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
EP1550311B1 (de) * | 2002-09-13 | 2011-08-17 | Karl Storz Imaging Inc. | Videoaufzeichnungs- und bilderfassungseinrichtung |
US20040227829A1 (en) * | 2003-05-13 | 2004-11-18 | Dialog Semiconductor Gmbh | Method and apparatus for a simultaneous multiple field of view imager using digital sub-sampling and sub-window selection |
JP2005258062A (ja) * | 2004-03-11 | 2005-09-22 | Olympus Corp | 内視鏡システム、及び内視鏡装置 |
KR100879686B1 (ko) | 2004-03-11 | 2009-01-21 | 올림푸스 가부시키가이샤 | 내시경 시스템, 내시경 장치 및 화상 처리 장치 |
JP4814496B2 (ja) * | 2004-05-21 | 2011-11-16 | Hoya株式会社 | 電子内視鏡システム |
JP4037851B2 (ja) | 2004-06-16 | 2008-01-23 | オンキヨー株式会社 | 増幅装置 |
JP3938774B2 (ja) * | 2004-08-05 | 2007-06-27 | オリンパス株式会社 | 内視鏡用信号処理装置、内視鏡用信号用モニタおよび内視鏡システム |
TWI276904B (en) * | 2005-02-01 | 2007-03-21 | Avermedia Tech Inc | A document camera and its digital image zoom system |
JP4780980B2 (ja) | 2005-03-11 | 2011-09-28 | 富士フイルム株式会社 | 内視鏡装置 |
US8335550B2 (en) * | 2005-03-25 | 2012-12-18 | Cnoga Holdings Ltd. | Optical sensor device and image processing unit for measuring chemical concentrations, chemical saturations and biophysical parameters |
JP6046325B2 (ja) | 2005-09-29 | 2016-12-14 | ザ ジェネラル ホスピタル コーポレイション | 漸次的に解像度を増加させて1以上の生物学的サンプルの観察及び分析のための方法及びその方法のための装置 |
US20070265495A1 (en) * | 2005-12-15 | 2007-11-15 | Medivision, Inc. | Method and apparatus for field of view tracking |
JP5006616B2 (ja) * | 2006-10-19 | 2012-08-22 | Hoya株式会社 | 内視鏡プロセッサ |
JP2008099874A (ja) * | 2006-10-19 | 2008-05-01 | Pentax Corp | 内視鏡プロセッサおよび内視鏡システム |
JP5308716B2 (ja) * | 2008-05-21 | 2013-10-09 | オリンパスメディカルシステムズ株式会社 | 電子内視鏡装置 |
CN101783129B (zh) * | 2009-01-04 | 2012-12-05 | 虹软(杭州)科技有限公司 | 影像缩放装置以及影像缩放方法 |
US20120002084A1 (en) * | 2010-06-30 | 2012-01-05 | True Vision Systems, Inc. | Systems, apparatus, and methods for digital image capture with variable density display and high resolution electronic zoom |
JP5290475B2 (ja) * | 2011-05-12 | 2013-09-18 | オリンパスメディカルシステムズ株式会社 | 内視鏡システム |
US9060674B2 (en) | 2012-10-11 | 2015-06-23 | Karl Storz Imaging, Inc. | Auto zoom for video camera |
JP6547266B2 (ja) * | 2013-10-01 | 2019-07-24 | 株式会社ニコン | 電子機器、電子機器の制御方法、及び制御プログラム電子機器 |
JP6834134B2 (ja) * | 2016-01-21 | 2021-02-24 | オムロン株式会社 | 撮像装置および情報コード読取装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8611554D0 (en) * | 1986-05-12 | 1986-06-18 | Crosfield Electronics Ltd | Image display |
JP2958007B2 (ja) * | 1988-05-02 | 1999-10-06 | オリンパス光学工業株式会社 | 内視鏡装置 |
JPH07322114A (ja) * | 1994-05-20 | 1995-12-08 | Canon Inc | 撮像装置 |
JP3732865B2 (ja) | 1995-01-18 | 2006-01-11 | ペンタックス株式会社 | 内視鏡装置 |
US6078353A (en) * | 1996-09-12 | 2000-06-20 | Fuji Photo Optical Co., Ltd. | All-pixels reading type electronic endoscope apparatus |
JP3448169B2 (ja) * | 1996-11-14 | 2003-09-16 | 富士写真光機株式会社 | 全画素読出し式電子内視鏡装置 |
US6117071A (en) | 1997-07-29 | 2000-09-12 | Asahi Kogaku Kogyo Kabushiki Kaisha | Endoscope with movable imaging unit for zooming or focusing |
US6322497B1 (en) * | 1998-12-25 | 2001-11-27 | Asahi Kogaku Kogyo Kabushiki Kaisha | Electronic endoscope |
-
2000
- 2000-05-31 JP JP2000161773A patent/JP4172898B2/ja not_active Expired - Fee Related
-
2001
- 2001-05-29 US US09/865,708 patent/US6491628B1/en not_active Expired - Lifetime
- 2001-05-31 DE DE10126587A patent/DE10126587B4/de not_active Expired - Fee Related
- 2001-05-31 DE DE10164935A patent/DE10164935B4/de not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1512365A1 (de) * | 2002-05-31 | 2005-03-09 | Olympus Corporation | Elektronische endoskopvorrichtung |
EP1512365A4 (de) * | 2002-05-31 | 2007-11-21 | Olympus Corp | Elektronische endoskopvorrichtung |
WO2004023797A1 (de) * | 2002-09-04 | 2004-03-18 | Albert-Ludwigs-Universität | Verfahren zum betreiben eines endoskops sowie endoskop |
DE10245085A1 (de) * | 2002-09-27 | 2004-04-01 | Automotive Distance Control Systems Gmbh | Optisches System für eine Kamera |
EP2098158A1 (de) * | 2008-03-04 | 2009-09-09 | Olympus Medical Systems Corporation | Medizinische Steuervorrichtung und deren System |
US7937163B2 (en) | 2008-03-04 | 2011-05-03 | Olympus Medical Systems Corp. | Medical control device and its system |
EP2716206A1 (de) * | 2011-05-27 | 2014-04-09 | Olympus Corporation | Endoskopvorrichtung |
EP2716206A4 (de) * | 2011-05-27 | 2015-03-25 | Olympus Corp | Endoskopvorrichtung |
US9486123B2 (en) | 2011-05-27 | 2016-11-08 | Olympus Corporation | Endoscope system which enlarges an area of a captured image, and method for operating endoscope system |
US9801531B2 (en) | 2011-05-27 | 2017-10-31 | Olympus Corporation | Endoscope system and method for operating endoscope system |
DE102018124496A1 (de) * | 2018-10-04 | 2020-04-09 | Karl Storz Se & Co. Kg | Optisches Beobachtungssystem und Verfahren zum Betreiben eines optischen Beobachtungssystems |
US10868964B2 (en) | 2018-10-04 | 2020-12-15 | Karl Storz Se & Co. Kg | Optical observation system and method for operating an optical observation system |
Also Published As
Publication number | Publication date |
---|---|
DE10164935B4 (de) | 2010-04-22 |
JP2001340292A (ja) | 2001-12-11 |
US6491628B1 (en) | 2002-12-10 |
JP4172898B2 (ja) | 2008-10-29 |
DE10126587B4 (de) | 2006-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10164935B4 (de) | Elektronisches Endoskop | |
DE102008046398B4 (de) | Vorrichtung zum Erzeugen eines zusammengesetzten Bildes und computerlesbares Medium zum Speichern eines Programmes, um zu bewirken, dass ein Computer als Vorrichtung zum Erzeugen eines zusammengesetzten Bildes wirkt | |
DE60130170T2 (de) | Fluorezentlicht Bilddarstellungsverfahren und Gerät dafür | |
DE3715859C2 (de) | Farbbildverarbeitungssystem | |
DE10351024B4 (de) | Elektronische Endoskopeinrichtung | |
DE102004006260B4 (de) | Videoendoskopeinrichtung | |
DE4321786C2 (de) | Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen | |
DE3622058C2 (de) | ||
DE10164297B4 (de) | Elektronisches Endoskopsystem | |
DE10101064B4 (de) | Elektronisches Endoskopsystem | |
DE112012005481T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm | |
DE602005003628T2 (de) | Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung | |
DE10312468B4 (de) | Elektronische Endoskopeinrichtung | |
DE102009022331A1 (de) | Endoskopprozessor und Endoskopsystem | |
DE19757912B4 (de) | Verfahren und Vorrichtung zum Bearbeiten von Videobildern | |
DE19721713A1 (de) | Elektronisches Endoskop | |
DE102014226941A1 (de) | Vergrößernde Beobachtungsvorrichtung, vergrößerndes Bildbeobachtungsverfahren und computer-lesbares Aufzeichnungsmedium | |
DE102007016611A1 (de) | Konfokales Endoskopsystem | |
DE10059662B4 (de) | Elektronisches Endoskopsystem | |
DE112014007051T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung | |
DE10344397A1 (de) | Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung | |
DE112012005484T5 (de) | Bildverarbeitungsgerät, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm | |
DE69927239T2 (de) | System und verfahren zur verarbeitung von bildern | |
DE112019004863T5 (de) | Elektronisches endoskopsystem und datenverarbeitungsvorrichtung | |
DE102007022957A1 (de) | Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: PENTAX CORP., TOKIO/TOKYO, JP |
|
8172 | Supplementary division/partition in: |
Ref document number: 10164935 Country of ref document: DE Kind code of ref document: P |
|
Q171 | Divided out to: |
Ref document number: 10164935 Country of ref document: DE Kind code of ref document: P |
|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: HOYA CORP., TOKIO/TOKYO, JP |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20121201 |