DE69830459T2 - Stereoskopische Bildaufnahmevorrichtung - Google Patents

Stereoskopische Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE69830459T2
DE69830459T2 DE69830459T DE69830459T DE69830459T2 DE 69830459 T2 DE69830459 T2 DE 69830459T2 DE 69830459 T DE69830459 T DE 69830459T DE 69830459 T DE69830459 T DE 69830459T DE 69830459 T2 DE69830459 T2 DE 69830459T2
Authority
DE
Germany
Prior art keywords
image
image pickup
distance
area
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69830459T
Other languages
English (en)
Other versions
DE69830459D1 (de
Inventor
Shigeru Ogino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP33299597A external-priority patent/JP3976860B2/ja
Priority claimed from JP10323691A external-priority patent/JP2000152282A/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69830459D1 publication Critical patent/DE69830459D1/de
Publication of DE69830459T2 publication Critical patent/DE69830459T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildaufnahmevorrichtung für ein Stereoskop zum Aufnehmen von Parallaxenbildern zur stereoskopischen Betrachtung. Die vorliegende Erfindung bezieht sich insbesondere auf eine Bildaufnahmevorrichtung zum Aufnehmen von Parallaxenbildern, die Bedingungen der binokularen Verschmelzung bzw. Fusion erfüllen, ohne einen Benutzereingriff und auf eine Bildaufnahmevorrichtung, die einen Benutzer wissen läßt, ob die Bedingungen der binokularen Fusion erfüllt sind.
  • 2. Beschreibung des relevanten Stands der Technik
  • Einige bekannte stereoskopische Bildaufnahmevorrichtungen erfassen unter Verwendung einer Vielzahl von Kameras Parallaxenbilder von einer Vielzahl von Betrachtungspunkten. Bei einer derartigen stereoskopischen Bildaufnahmevorrichtung ist eine Vielzahl von Kameras an Stativköpfen angebracht, und ein Benutzer justiert einen Zwischenraum und einen Konvergenzwinkel zwischen Kameraachsen basierend auf seiner oder ihrer Betriebserfahrung abhängig von einer zu erfassenden Szene manuell und erfaßt die Szene bildlich, während er oder sie die stereoskopische Ansicht tatsächlich auf einem Monitor betrachtet.
  • Ein derartiger erfahrungsbasierter Betrieb ist nicht effizient, und es wird kein gutes Ergebnis erwartet, wenn niemand verfügbar ist, der eine gute Kenntnis von dem Aufnehmen von stereoskopischen Bildern hat.
  • Heutzutage sind Head-Mounted-Displays bzw. Datenhelme und Anzeigen des Brillentyps (eyeglass-type displays) entwickelt worden, und diese Anzeigen lassen ein Bild für das rechte Auge selektiv bei dem rechten Auge darstellen und ein Bild für das linke Auge selektiv bei dem linken Auge darstellen. Somit wird ein eine Tiefenwahrnehmung erzeugendes stereoskopisches Bild betrachtet. Eine Flüssigkristallanzeige wird mit einer linsenförmigen Platte mit einer vorbestimmten Teilung oder einer Maske mit in einem vorbestimmten Muster ausgebildeten Aperturen und Nichtaperturen (non-apertures) kombiniert, um einem Lichtstrahl von der Flüssigkristallanzeige eine Richtcharakteristik zu verleihen, und indem die Richtcharakteristik zu dem Muster des auf der Flüssigkristallanzeige dargestellten Bilds passend ausgebildet wird, betrachtet der Betrachter das Bild für das rechte Auge bei dem rechten Auge und das Bild für das linke Auge bei dem linken Auge. Der Betrachter erlebt somit das eine Tiefe darstellende Bild.
  • Herkömmlich wird das dargestellte Bild typischerweise durch eine Kamera des binokularen Typs mit zwei Objektivsätzen bzw. Linsensätzen erfaßt. Eine in der japanischen geprüften Patentveröffentlichung Nr. JP-A-8-27499 (Teleskopfernsehbildaufnahmevorrichtung) offenbarte Vorrichtung erfordert keine zwei Linsensätze. Diese Vorrichtung umfaßt zwei Flüssigkristallverschlüsse, einen Totalreflexionsspiegel und einen Halbspiegel und nimmt abwechselnd linke und rechte Parallaxenbilder durch einen einzelnen Linsensatz auf.
  • Ungeachtet des vorstehend beschriebenen binokularen Systems oder des abwechselnd linke und rechte Bilder in einer zeitlich gemultiplexten Art und Weise aufnehmenden Systems ist die Justierung bzw. Einstellung einer Parallaxe zwischen linken und rechten Bildern, das heißt die Einstellung der Konvergenz, während der Bilderfassung erforderlich. Die Konvergenzeinstellung wird typischerweise manuell ausgeführt.
  • Die vorstehend beschriebene Kamera des binokularen Typs wendet zwei Linsensätze an, einen zum Ausbilden des Bilds für das rechte Auge und den anderen zum Ausbilden des Bilds für das linke Auge, und der Benutzer empfindet eine Ermüdung, wenn er ein stereoskopisches Bild betrachtet, oder kann überhaupt keine Bildfusion erreichen, falls einem Herstellungsfehler (zum Beispiel bei Vergrößerung, Abweichung der optischen Achse, Tönung, Helligkeit, Verzerrung, Feldneigung und dergleichen) zuzuschreibende Leistungsunterschiede zwischen den zwei Linsen vorhanden sind. Um die zwei Linsensätze in der Leistung zueinander passend auszubilden, muß die Genauigkeit von Komponenten erhöht werden. Ferner ist eine Einstellung erforderlich, falls die verbesserte Genauigkeit von Komponenten immer noch nicht ausreicht. Zum Kompensieren eines Leistungsunterschieds werden Spezialeinrichtungen verwendet, zum Beispiel werden Bilder elektronisch korrigiert. Wenn eine Zoomlinse verwendet wird, müssen die Zoomvariatoroperationen des linken und rechten Linsensatzes in einem Zustand unter Berücksichtigung dieser Leistungen verzahnt werden. Es ist kostspielig und zeitaufwendig, diesen Aufbau herzustellen, und er ist für eine Massenproduktion unangemessen.
  • Zum Betrachten der durch die Kamera des binokularen Typs aufgenommenen Bilder sind typischerweise zwei Monitore erforderlich. Die Verwendung der zwei Monitore ist nicht praktisch. Zum Aufzeichnen der zwei Bilder wird eine spezielle Aufzeichnungsvorrichtung benötigt, um das eine Bild mit dem anderen zu synchronisieren. Ohne ihre Verwendung wird die Wandlung von zwei Bildsignalen in ein Bildsignal erwogen. Zum Wandeln der zwei Bildsignale in ein Bildsignal ist jedoch eine spezielle Wandlungseinrichtung erforderlich, um die linken und rechten Parallaxenbilder abwechselnd anzuzeigen und aufzuzeichnen. Verglichen mit einer Kamera mit einer einzelnen Linse bzw. einem einzelnen Objektiv ist die Kamera des binokularen Typs selbst sperrig. Dem die vorstehend beschriebenen Spezialvorrichtungen benötigenden ganzen System der Bildaufnahmevorrichtung mißlingt es wegen seines sperrigeren, kostspieligeren und weniger mobilen Entwurfs, eine weitverbreitete kommerzielle Akzeptanz unter Benutzern zu erreichen.
  • Die in der vorstehend angeführten japanischen geprüften Patentveröffentlichung Nr. JP-A-8-27499 vorgeschlagene Zeitmultiplexkamera kombiniert die optischen Wege für linke und rechte Parallaxenbilder bei einem Halbspiegel in einen optischen Weg, um Bilder zu einem einzelnen Objektiv zu führen. Wenn Bilder durch den Halbspiegel durchgelassen oder von ihm reflektiert werden, bevor sie in das Objektiv eintreten, wird die Lichtmenge auf die Hälfte oder weniger verringert. Der in der vorstehend angeführten japanischen geprüften Patentveröffentlichung Nr. JP-A-8-27499 offenbarte Aufbau zeigt theoretisch einen Unterschied zwischen den Längen der optischen Wege der linken und rechten Parallaxenbilder, wobei er einen Vergrößerungsunterschied zwischen den linken und rechten Bildern erleidet. Dies wird eine Ursache der Ermüdung des Benutzers, wenn er oder sie die aufgenommenen Bilder betrachtet, und folglich kann der Benutzer nicht die verschmolzenen bzw. fusionierten Bilder betrachten und kann sie nicht in einer stereoskopischen Ansicht betrachten.
  • Überdies offenbart das Dokument EP-A-0 641 132 eine stereoskopische Bildaufnahme- und -anzeigevorrichtung, bei der zwei Kameraaufbauten mit jeweils einer Objektivlinse betrieben werden und die Ausgangssignale weiter ausgewertet werden. Es wird eine Konvergenzsteuerung ausgeführt, so daß die optischen Achsen der Kameras an einem optimalen Punkt konvergieren, um sicherzustellen, daß die Parallaxe der erfaßten Bilder in den binokularen Fusionsbereich eines Betrachters kommt. Genauer ist eine Parallaxenberechnungseinrichtung zum Berechnen der Parallaxe eines Bilds bereitgestellt, und die Parallaxe des nächsten Objekts wird zum Berechnen der tiefenweisen (depth-wise) Position eines Objekts verwendet, das an dem nächsten Punkt wiederzugeben ist, wenn ein erfaßtes Bild durch die stereoskopische Bildanzeigevorrichtung angezeigt wird. Der Fusionsbereich wird bei der Tiefenanzeigepositionsberechnungseinrichtung definiert, und der Konvergenzwinkel wird in einer derartigen Weise gesteuert, daß das Objekt an dem nächsten Punkt in dem Fusionsbereich des Betrachters positioniert wird. Ferner wird eine Blickrichtungserfassungseinrichtung zum Erfassen des Punkts, auf den das Auge des Betrachters fokussiert ist, verwendet.
  • Ferner offenbart das Dokument JP-A-7 067 023 eine Mehraugenbildaufnahmevorrichtung mit unmittelbarer Bildaufnahme, bei der ein erster und ein zweiter Videokameraabschnitt zum Aufnehmen eines stereoskopischen Bilds bereitgestellt sind. Wenn beide Kameraabschnitte betrieben werden, wird die optische Achse davon gesteuert, und die Steuereinrichtung stellt die optischen Achsen des ersten und des zweiten Videokameraabschnitts auf vorbestimmte Winkel der optischen Achsen ein. Ferner umfaßt die Vorrichtung eine Einrichtung zur Augenachsenerfassung, durch die sie die Position des Augapfels und bei einer Datenauswertung die Blickrichtung des Benutzers bestimmt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Entsprechend besteht ein Ziel der vorliegenden Erfindung darin, eine Bildaufnahmevorrichtung bereitzustellen, durch die der Benutzer oder Betrachter während der Bildaufnahme leicht erfährt, ob ein Hauptobjekt in einen Bereich der Bildfusion fällt.
  • Dieses Ziel wird gemäß der vorliegenden Erfindung durch eine Bildaufnahmevorrichtung und ein Bildaufnahmeverfahren wie in den beigefügten Patentansprüchen definiert erreicht.
  • Die vorliegende Erfindung stellt eine Bildaufnahmevorrichtung zum Erfassen von Bildern zur stereoskopischen Betrachtung bereit, die eine Bildaufnahmeeinrichtung zum Aufnehmen von linken und rechten Parallaxenbildern eines Hauptobjekts jeweils für das linke und rechte Auge, eine Anzeigeeinrichtung zum Anzeigen der durch die Bildaufnahmeeinrichtung aufgenommenen linken und rechten Parallaxenbilder, eine Blickrichtungserfassungseinrichtung zum Erfassen der Blickrichtungen des die durch die Anzeigeeinrichtung angezeigten jeweiligen Bilder sehenden linken und rechten Auges und eine Bestimmungseinrichtung zum Bestimmen basierend auf der Ausgabe der Blickrichtungserfassungseinrichtung, ob das Hauptobjekt in einen Bereich, in dem ein Bild fusioniert werden kann (image-fusible range), fällt, umfaßt. Die Vorrichtung erfaßt die Blickrichtungen eines Betrachters, der die Anzeigeeinrichtung betrachtet, auf der das linke Parallaxenbild und rechte Parallaxenbild dargestellt werden, und bestimmt anstelle des Betrachters basierend auf den Blickrichtungen, ob das Objekt in den Bereich, in dem ein Bild fusioniert werden kann, fällt.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird das durch die Bestimmungseinrichtung bereitgestellte Bestimmungsergebnis dem Benutzer berichtet.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird ein Bereich, in dem ein Bild fusioniert werden kann, durch den Zwischenpupillenabstand und den Abstand des deutlichen Sehens eines Benutzers definiert.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden die Bilddaten der Parallaxenbilder im Ansprechen auf die Ausgabe der Bestimmungseinrichtung in einem Speicher gespeichert.
  • Da die erfaßten Blickrichtungen des Benutzers diejenigen sind, die nach den Anzeigeparallaxenbildern liegen, müssen die Daten über die Blickrichtungen in diejenigen in den Koordinatensystemen der Bildaufnahmeeinrichtung gewandelt werden. Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung umfaßt die Blickrichtungserfassungseinrichtung ferner eine Wandlungseinrichtung zum Wandeln der linken und rechten Blickrichtungen eines Benutzers in linke und rechte Richtungsvektoren, die jeweils in linken und rechten Koordinatensystemen der Bildaufnahmeeinrichtung ausgedrückt werden, und eine Koordinatenberechnungseinrichtung zum Berechnen der Koordinatenwerte des Kreuzungspunkts der linken und rechten Richtungsvektoren in dem Weltkoordinatensystem.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird der Bereich, in dem ein Bild fusioniert werden kann, gemäß einer entferntesten Position und einer nächsten Position von dem Betrachtungspunkt des Benutzers in der Richtung der Tiefe ausgedrückt. Bei einem bevorzugen Ausführungsbeispiel wird die entfernteste Position des Bereichs, in dem ein Bild fusioniert werden kann, derart eingestellt, daß sie ein Punkt derart ist, daß der horizontale Abstand zwischen zwei einem ersten Punkt (A) der entferntesten Position entsprechenden zweiten Punkten auf den linken und rechten Bildebenen der Bildaufnahmeeinrichtung im wesentlichen gleich dem Zwischenpupillenabstand des Benutzers ist. Die nächste Position des Bereichs, in dem ein Bild fusioniert werden kann, wird derart eingestellt, daß sie ein Punkt derart ist, daß eine Position (C'), bei der zwei einem ersten Punkt (C) der nächsten Position entsprechende Punkte auf den linken und rechten Bildebenen der Bildaufnahmeeinrichtung durch eine perspektivische Transformation basierend auf den linken und rechten Betrachtungspunkten des Benutzers zu dem Benutzer herausragend liegen, annähernd gleich dem Punkt bei dem Abstand des deutlichen Sehens des Benutzers ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild, das den Aufbau eines ersten Ausführungsbeispiels der vorliegenden Erfindung darstellt;
  • 2 zeigt eine erläuternde graphische Darstellung, die die Position der Augen eines Betrachters relativ zu einem optischen System einer Bildaufnahmevorrichtung des ersten Ausführungsbeispiels der vorliegenden Erfindung darstellt;
  • 3 zeigt ein Flußdiagramm, das einen Steuerprozeß zum Messen eines Abstands zu einem Objekt basierend auf den Blickrichtungsdaten des Betrachters bei dem ersten Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 4 zeigt eine erläuternde graphische Darstellung, die den in Schritt S8 bis Schritt S10 in dem in 3 gezeigten Steuerprozeß ausgeführten Betrieb darstellt;
  • 5 zeigt eine erläuternde graphische Darstellung, die das Prinzip des Bestimmens eines Bereichs, in dem ein Bild fusioniert werden kann, veranschaulicht;
  • 6 zeigt eine erläuternde graphische Darstellung, die das Prinzip des Bestimmens der entferntesten Position des Bereichs, in dem ein Bild fusioniert werden kann, veranschaulicht;
  • 7 zeigt eine erläuternde graphische Darstellung, die das Prinzip des Bestimmens der nächsten Position des Bereichs, in dem ein Bild fusioniert werden kann, veranschaulicht;
  • 8 zeigt eine erläuternde graphische Darstellung, die das Prinzip des Bestimmens der nächsten Position des Bereichs, in dem ein Bild fusioniert werden kann, veranschaulicht;
  • 9 zeigt ein Flußdiagramm, das den Steuerprozeß zum Bestimmen des Bereichs, in dem ein Bild fusioniert werden kann, darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Das bevorzugte Ausführungsbeispiel der Erfindung ist nachstehend mit Bezug auf die Zeichnungen erörtert.
  • <Erstes Ausführungsbeispiel> ··· Hardwarestruktur
  • 1 zeigt ein Blockschaltbild, das den Aufbau einer "stereoskopischen Bildaufnahmevorrichtung" gemäß einem ersten Ausführungsbeispiel der Erfindung darstellt.
  • Mit Bezug auf 1 ist eine Stereokamera 1 zum Erfassen einer Vielzahl von Parallaxenbildern gezeigt, und bei dem ersten Ausführungsbeispiel umfaßt die Stereokamera 1 ein rechtes optisches System 101 zum Erfassen eines Parallaxenbilds für das rechte Auge und ein CCD 103 eines photoelektrischen Wandlers sowie ein linkes optisches System 102 zum Erfassen eines Parallaxenbilds für das linke Auge und ein CCD 104 eines photoelektrischen Wandlers.
  • Das Paar aus optischem System 101 und CCD 103 ist in der optischen Spezifikation identisch mit dem Paar aus optischem System 102 und CCD 104. Das optische System 101 und CCD 103 sowie das optische System 102 und CCD 104 sind derart angeordnet, daß der Zwischenraum zwischen den zwei Paaren (auf den nachstehend als ein Basislinienabstand Bezug genommen ist) und der zwischen den zwei Paaren ausgebildete Winkel (auf den nachstehend als ein Konvergenzwinkel Bezug genommen ist) mit einem nicht gezeigten Mechanismus variabel eingestellt werden. Der Basislinienabstand und der Konvergenzwinkel werden durch eine bekannte Konvergenz-/Basislinienabstandseinstellungseinrichtung 11 eingestellt.
  • Eine Konvergenzwinkel-/Basislinienabstandserfassungseinrichtung 10 erfaßt den Konvergenzwinkel und Basislinienabstand mit ihrem nicht gezeigten Geber.
  • 2 zeigt die Positionen der optischen Systeme 101 und 102 relativ zu einem Hauptobjekt. Wie gezeigt läßt man θb den Konvergenzwinkel zwischen den optischen Systemen 101 und 102 darstellen und 2k den Basislinienabstand darstellen. Wie bereits beschrieben stellt die Einstellungseinrichtung 11 den Konvergenzwinkel θb und den Basislinienabstand 2k ein, und ein eingestellter Winkel wird durch die Erfassungseinrichtung 10 erfaßt und wird daraufhin zu einer nachstehend zu beschreibenden Berechnungseinheit 3 (1) gesendet.
  • Eine Bildanzeige 2 umfaßt eine rechte Anzeigeeinheit 201 für das rechte Auge, eine linke Anzeigeeinheit 202 für das linke Auge, eine rechte Blickrichtungserfassungseinrichtung 203 und eine linke Blickrichtungserfassungseinrichtung 204.
  • Die rechte Anzeigeeinheit 201 und linke Anzeigeeinheit 202 sind in der Spezifikation identisch und sind die sogenannte Netzhautanzeige bzw. Retinaanzeige (retinal display), die ein Bild durch den Nachbildeffekt (after image effect) bereitstellt, indem sie die Retina mit einem Lichtstrahlenbündel von einem Flüssigkristall, CRT, LED oder Laser, die jeweils mit einem optischen Betrachtungssystem ausgerüstet sind, bestrahlt und abtastet. Bei dem ersten Ausführungsbeispiel tasten die Anzeigeeinheiten 201 und 202 jeweils die linke und rechte Retina durch ein Lichtstrahlenbündel von einer LED-Schaltung 12 ab, um dem Benutzer linke und rechte stereoskopische Bilder zu bieten.
  • Eine rechte Blickrichtungserfassungseinrichtung 203 und linke Blickrichtungserfassungseinrichtung 204 in der Bildanzeige 2 wenden das Verfahren zum Erfassen der Blickrichtung aus dem sogenannten Hornhautreflexionslicht bzw. Kornealreflexionslicht (corneal reflection light) an. Zum Wandeln der unter Verwendung des Kornealreflexionslichts bestimmten Blickrichtungsinformationen in ein Koordinatensystem eines Bilds umfaßt die Bildanzeige 2 Flüssigkristallanzeigen LCD205 und LCD206. Dieses Verfahren ist in der japanischen ungeprüften Patentveröffentlichung Nr. JP-A-5-68188 ausführlich offenbart, und die Erörterung des Verfahrens ist in diesem Fall weggelassen. Die durch die Blickrichtungserfassungseinrichtungen 203 und 204 erhaltenen Blickrichtungsinformationen über den Augapfel werden zu der nachstehend zu beschreibenden Berechnungseinheit 3 gesendet und dienen als eine Grundlage für die Berechnung des Richtungsvektors der Blickrichtung.
  • Die Berechnungseinheit 3 der Bildaufnahmevorrichtung berechnet einen Bereich, in dem Bild aufgenommen werden kann (image-pickable range), der Stereokamera 1, der sicherstellt, daß die durch die Stereokamera 1 aufgenommenen linken und rechten Parallaxenbilder eine Bildfusion bei dem Benutzer bewirken (auf einen derartigen Bereich ist im folgenden als "Bereich, in dem ein Bild fusioniert werden kann" Bezug genommen).
  • Die im wesentlichen durch Computersoftware realisierte Berechnungseinheit 3 ist in einem Funktionsblockschaltbild in 1 gezeigt und umfaßt eine rechte Blickrichtungsbereichsberechnungseinrichtung 301, eine linke Blickrichtungsbereichsberechnungseinrichtung 302, eine Blickrichtungsvektorberechnungseinrichtung 303, eine Kreuzungspunktberechnungseinrichtung 307, eine Abstandsberechnungseinrichtung 305, eine Einrichtung 304 zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, und einen Vergleicher 306.
  • Die zwei Blickrichtungsbereichsberechnungseinrichtungen 301 und 302 sind jeweils mit der rechten Blickrichtungserfassungseinrichtung 203 und der linken Blickrichtungserfassungseinrichtung 204 verbunden und berechnen die Blickrichtungsbereiche für das linke und rechte Auge des Benutzers basierend auf den Ausgaben von den zwei Erfassungseinrichtungen 203 und 204. Die berechneten linken und rechten Blickrichtungsbereiche werden in die Blickrichtungsvektorberechnungseinrichtung 303 eingegeben, die die Richtungsvektoren der linken und rechten Blickrichtungen (dR und dL, die nachstehend zu beschreiben sind) berechnet. Die Kreuzungspunktberechnungseinrichtung 307 bestimmt die Koordinaten des Kreuzungspunkts der Blickrichtungen basierend auf den erfaßten Richtungsvektoren dR und dL der Blickrichtungen. Die Abstandsberechnungseinrichtung 305 berechnet einen Abstand 1 von dem Betrachtungspunkt des Benutzers zu dem Objekt basierend auf den erfaßten Richtungsvektoren der Blickrichtungen.
  • Die Einrichtung 304 zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, berechnet den Bereich, in dem ein Bild aufgenommen werden kann (das heißt zwischen der distalen Grenze A des Bereichs und der proximalen Grenze B des Bereichs in der Richtung der Tiefe). Der Vergleicher 306 vergleicht den durch die Abstandsberechnungseinrichtung 305 berechneten Abstand 1 zu dem Objekt mit den durch die Einrichtung 304 zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, berechneten Grenzwerten A und B, um zu bestimmen, ob das Objekt eine Bildfusionsbedingung erfüllt. Genauer befindet sich dann, wenn der durch die Abstandsberechnungseinrichtung 305 berechnete Abstand zu dem Objekt die folgende Gleichung B ≤ l ≤ A erfüllt, das Objekt in dem Bereich, in dem ein Bild aufgenommen werden kann, und es wird bestimmt, daß es die Bildfusionsbedingung erfüllt.
  • Eine Bildsteuereinrichtung 4 steuert die Einheiten in der Bildaufnahmevorrichtung. Genauer steuert die Bildsteuereinrichtung 4 rechte und linke Kameraverarbeitungseinrichtungen 5 und 6 für das rechte und linke Auge, die Bildsignale von den CCDs 103 und 104 in ein vorbestimmtes Bildformat wandeln. Diese Verarbeitungseinrichtungen 5 und 6 wandeln unter der Steuerung der Bildsteuereinrichtung 4 die durch die Stereokamera 1 aufgenommen linken und rechten Parallaxenbilder in das vorbestimmte Format und speichern sie in einem Bildspeicher 9.
  • Zum Darstellen von stereoskopischen Bildern für den Benutzer werden die Bilder in dem Bildspeicher 9 durch die Bildsteuereinrichtung 4 gelesen und in Videosignale gewandelt, und die Videosignale werden daraufhin über Ansteuereinrichtungen 7 bzw. 8 zu den Anzeigeeinheiten 201 und 202 gesendet. Die Bildsteuereinrichtung 4 tauscht Daten mit dem Bildspeicher 9 aus. Die Bildsteuereinrichtung 4 sendet auch ein Signal zu der LED-Schaltung 12, das die Beleuchtung und Löschung einer nicht gezeigten, in der Bildanzeige 2 installierten LED steuert.
  • <Betrieb> ··· Erstes Ausführungsbeispiel
  • Nachstehend ist eine Folge von Operationen des Systems erörtert.
  • 3 zeigt den bei den Blickrichtungserfassungseinrichtungen 203 und 204 beginnenden und mit der Berechnungseinheit 3 endenden Betrieb, insbesondere zu dem Prozeß zum Bestimmen der Richtungsvektoren der Blickrichtungen basierend auf den durch die Blickrichtungserfassungseinrichtungen 203 und 204 erfaßten Daten.
  • Zum Erfassen des Bereichs, in dem ein Bild fusioniert werden kann, bei dem ersten Ausführungsbeispiel wird das Objekt unter Verwendung der Stereokamera aufgenommen, und die Parallaxenbilder in stereoskopischer Ansicht werden unter Verwendung der Anzeige für den Benutzer dargestellt. Genauer sieht der Betrachter bei dem Betrachten der auf der Anzeige dargestellten linken und rechten Parallaxenbilder indirekt auf das Objekt. Die Bildaufnahmevorrichtung erfaßt daraufhin die Blickrichtungen der Augen des Betrachters.
  • Ein Schritt S1 entspricht den in 1 gezeigten Blickrichtungserfassungseinrichtungen 203 und 204, Schritte S2 und S3 entsprechen den in 1 gezeigten Blickrichtungsbereichserfassungseinrichtungen 301 und 302, ein Schritt S4 entspricht der Blickrichtungsvektorberechnungseinrichtung 303, Schritte S5, S6, S8, S9 und S10 entsprechen der Kreuzungspunktberechnungseinrichtung 307, und ein Schritt S7 entspricht der Abstandsberechnungseinrichtung 305.
  • In dem Schritt S1 werden die Blickrichtungen, das heißt die Richtungen der Drehung der Augäpfel, basierend auf dem Kornealreflexionsphänomen erfaßt. Wie vorstehend beschrieben weist jede der Blickrichtungserfassungseinrichtungen 203 und 204 ihr eigenes LCD und CCD auf. Das LCD 205 und das LCD 206 bestrahlen die Augäpfel des Betrachters durch Infrarotlichtstrahlenbündel mit einem bekannten Muster. Die mit einem Muster versehenen Strahlenbündel werden durch die Hornhäute bzw. Korneas reflektiert und werden daraufhin durch das CCD 207 und das CCD 208 als Bilder erfaßt. Da das LCD 205 und das LCD 206 im voraus jeweils nach dem CCD 207 und dem CCD 208 in ihren jeweiligen Koordinatensystemen ausgerichtet werden, gelten die Bildelementpositionen auf dem CCD 207 und dem CCD 208 als den jeweiligen Fleckpositionen auf dem LCD 205 und dem LCD 206 entsprechend. In dem Schritt S2 werden die Koordinatenwerte jedes Strahlenbündelflecks in jedem LCD-Koordinatensystem bestimmt. Die Koordinatenwerte des Strahlenbündelflecks in jedem LCD-Koordinatensystem stellen den Winkel der Drehung des jeweiligen Augapfels dar.
  • In dem Schritt S3 werden die in dem Schritt S2 erhaltenen Koordinatenwerte des Strahlenbündelflecks in jedem LCD-Koordinatensystem in die Koordinatenwerte in den Koordinatensystemen der Stereokamera 1 (das heißt den Koordinatensystemen des CCD 103 und des CCD 104) gewandelt. Der Schritt S4 bestimmt Richtungsvektoren dR und dL von geraden Linien, die die in den Koordinatensystemen der Stereokamera 1 ausgedrückten Koordinaten des linken Strahlenbündelflecks und des rechten Strahlenbündelflecks mit Bezugspunkten der optischen Systeme 101 und 102 verbinden. Die Richtungsvektoren sind in dem Weltkoordinatensystem ausgedrückte Blickrichtungen. Auf die in dem Weltkoordinatensystem ausgedrückte Blickrichtung ist im folgenden als "Blickrichtungsvektor" oder einfach "Richtungsvektor" Bezug genommen.
  • Der rechte Richtungsvektor dR und linke Richtungsvektor dL sind nicht notwendigerweise in der gleichen Ebene vorhanden. Es wird somit in dem Schritt S5 bestimmt, ob der rechte Richtungsvektor dR und linke Richtungsvektor dL in der gleichen Ebene vorhanden sind. Wenn es bestimmt wird, daß die zwei Vektoren in der gleichen Ebene vorhanden sind, geht die Steuereinrichtung 4 zu dem Schritt S6, um den (als X bezeichneten) Kreuzungspunkt des rechten Richtungsvektors dR und linken Richtungsvektors dL in dem Weltkoordinatensystem zu berechnen.
  • Wenn die zwei Vektoren nicht in der gleichen Ebene vorhanden sind, geht die Steuereinrichtung 4 zu dem Schritt S8, in dem eine Ebene P, in der der rechte Richtungsvektor dR und der Bezugspunkt des rechten optischen Systems 101 liegen, wie in 4 gezeigt bestimmt wird. In dem Schritt S9 wird ein orthogonaler Projektionsvektor dL' des linken Richtungsvektors dL mit Bezug auf die Ebene P bestimmt. In dem Schritt S10 werden die Koordinaten des (als X' bezeichneten) Kreuzungspunkts des rechten Richtungsvektors dR und des linken Richtungsvektors dL' in dem Weltkoordinatensystem berechnet. Der Schritt S7 bestimmt den Abstand l zwischen dem vorbestimmten Bezugspunkt der Stereokamera 1 (dem Mittelpunkt zwischen dem Bezugspunkt des rechten optischen Systems 101 und dem Bezugspunkt des linken optischen Systems 102) und dem in entweder dem Schritt S6 oder dem Schritt S10 bestimmten Kreuzungspunkt (X oder X').
  • Als nächstes ist die Berechnung des Bereichs 1 des Abstands zu dem Objekt, der die Bildfusionsbedingung erfüllt, das heißt des Bereichs des Abstands zu dem Objekt, in dem ein Bild aufgenommen werden kann, erörtert.
  • Ein Bereich, in dem Menschen auf Bildschirmen dargestellte linke und rechte Parallaxenbilder als ein stereoskopisches Bild fusionieren können (ein Bereich, in dem ein Bild fusioniert werden kann), ist abhängig von der distalen Seite (hinter den Bildschirmen) oder von der proximalen Seite (auf dieser Seite der Bildschirme) verschieden. Der Bereich, in dem ein Bild fusioniert werden kann, hängt von den Eigenschaften der menschlichen Augen ab. Unter Berücksichtigung dessen, daß der Abstand zwischen den Pupillen bzw. Zwischenpupillenabstand des Menschen etwa 65 mm breit ist und daß der Abstand des deutlichen Sehens des Menschen etwa 200 mm beträgt, bestimmt dieses System basierend auf dem menschlichen Zwischenpupillenabstand (etwa 65 mm) eine distale Grenze A und basierend auf dem Abstand des deutlichen Sehens eine proximale Grenze C.
  • Mit Bezug auf 5 ist der Bereich, in dem ein Bild fusioniert werden kann, erörtert.
  • Wie gezeigt stellt die y-Achse die Richtung der Tiefe dar, und die z-Achse stellt die vertikale Richtung der Vorrichtung dar. Die x-Achse ist senkrecht zu der Richtung der Tiefe. 5 ist in der z-Achse mit einer konstanten Größe gezeichnet.
  • Mit Bezug auf 5 sind ein Bezugspunkt OL des linken optischen Systems 102 (der Linsenmittelpunkt, wenn das optische System als eine einzelne dünne Linse betrachtet wird) und ein Bezugspunkt OR des rechten optischen Systems 101 (der Linsenmittelpunkt, wenn das optische System als eine einzelne dünne Linse betrachtet wird) gezeigt. Wenn die optischen Systeme 101 und 102 eingerichtet sind, sind die Bezugspunkte OL und OR festgelegte Punkte, und der Kreuzungspunkt B der optischen Achsen der optischen Systeme 101 und 102 wird ebenfalls festgelegt.
  • Man läßt A einen distalen Grenzpunkt des Bereichs, in dem ein Bild fusioniert werden kann, mit Bezug auf den Punkt B darstellen und läßt C einen proximalen Grenzpunkt des Bereichs, in dem ein Bild fusioniert werden kann, mit Bezug auf den Punkt B darstellen. Der Punkt B stimmt dann mit dem Mittelpunkt des Bildschirms der linken und rechten optischen Systeme 102 und 101 überein. Da der Punkt B null Parallaxe aufweist, erscheint der Punkt B für den auf das angezeigte stereoskopische Bild sehenden Betrachter als ein Punkt auf dem Bildschirm. Für den gleichen Betrachter erscheint der Punkt A als ein hinter dem Bildschirm vorhandener Punkt, und der Punkt C erscheint als ein Punkt auf dieser Seite des Bildschirms.
  • Mit dem bei dem Mittelpunkt des Basislinienabstands zwischen den Punkten OL und OR positionierten Ursprung der x-y-Koordinaten sind diese Punkte A(0,A), B(0,B), C(0,C), OL(–k,0) und OR (k,0). Ferner stellen θb, θa und θc die folgenden Winkel dar.
  • Figure 00200001
  • Da der Punkt B der Kreuzungspunkt der optischen Achsen der zwei optischen Systeme 101 und 102 ist wie bereits beschrieben, ist es möglich, eine Bildaufnahmeebene derart auszubilden, daß sie mit einer Ebene übereinstimmt, die zu jeder optischen Achse senkrecht ist und in der der Punkt B liegt. Mit Bezug auf 6 ist eine virtuelle Bildaufnahmeebene des linken optischen Systems 102 derart eingerichtet, daß sie auf den Punkt B ausgerichtet ist. Der distale Punkt A und der proximale Punkt C werden jeweils ein Punkt AL und ein Punkt CL auf der virtuellen Bildaufnahmeebene.
  • Man läßt 2θw den Objektivbetrachtungswinkel jedes der optischen Systeme 101 und 102 darstellen. Die die Parallaxenbilder darstellenden Anzeigeeinheiten 201 und 202 weisen jeweils eine horizontale Breite von 2WS auf und sind mit einem dazwischen zulässigen vorbestimmten Abstand ds vor dem Betrachter positioniert. Bei dieser Anordnung ist die Länge der in 6 gezeigten virtuellen Bildaufnahmeebene vorzugsweise gleich der horizontalen Dimension jeder der Anzeigeeinheiten 201 und 202. Mit diesem Aufbau ist die Größe der virtuellen Bildaufnahmeebene 2WS. Wie in 6 gezeigt sind die Punkte A und C in einem Winkelbereich von 2θw vorhanden.
  • Mit Bezug auf 6 sieht das linke Auge des Betrachters den Punkt A als den Punkt AL' auf der Bildaufnahmeebene, obwohl der Punkt A tatsächlich gerade vor dem Betrachter vorhanden ist. Der Grund dafür, daß ein Abstand BA'L zwischen dem Punkt B und dem Punkt A'L vorhanden ist, besteht darin, daß die zwei Augen des Menschen beabstandet sind, wobei sie eine Parallaxe aufweisen. Der Abstand BA'L ist die Größe, die als eine Parallaxe des Objekts bezeichnet werden kann, und wird in einer Abweichung auf dem Bild ausgedrückt. Man läßt DA die Abweichung des Punkts A darstellen und DB die Abweichung des Punkts C darstellen, und die folgende Gleichung gilt.
  • Figure 00210001
  • DA und DB werden somit durch die folgenden Gleichungen ausgedrückt.
  • Figure 00210002
  • Bei dem Bestimmen der Fusionsbedingung in dem Bildaufnahmesystem werden die linken und rechten Parallaxenbilder durch ein Aufnehmen eines Objekts 200 bei der Stereokamera 1 gemäß 1 (mit ihrem Basislinienabstand 2k und Konvergenzwinkel θb) erhalten, und die Parallaxenbilder werden auf den an einer Position vor dem Betrachter mit dem zulässigen vorbestimmten Abstand dS plazierten Anzeigeeinheiten 201 und 202 (mit ihren horizontalen Dimensionen von 2Ws) angezeigt. Es wird eine Bestimmung dahingehend ausgeführt, ob die linken und rechten Parallaxenbilder in einem fusionierten Zustand für die Augen des Betrachters angezeigt werden. Genauer wird die Bestimmung abhängig davon ausgeführt, ob der Abstand l von der Stereokamera 1 zu dem Objekt die vorstehend beschriebenen Parameter erfüllt (das heißt die nachstehend zu beschreibende Fusionsbedingung, die durch den Basislinienabstand von 2k, den Konvergenzwinkel von θb, den Abstand dS zu den Anzeigeeinheiten und die Größe 2WS der Anzeigeeinheiten bestimmt wird).
  • Man läßt 2dh den Zwischenpupillenabstand des Betrachters darstellen, und wie aus 6 ersehen werden kann, muß dann, wenn die Abweichung des Punkts A, das heißt der Abstand BA'L (=2DA), kleiner als 2dh ist, mit anderen Worten 2DA≤2dh, das Objekt auf dieser Seite des Punkts A fusioniert sein. Die folgende Gleichung gilt somit. dh ≥ DA... ...GL3, wobei tan(θa + θb) = A/K... ...GL4 tanθb = B/K ...GL5
  • Die folgende Gleichung wird aus GL1, GL3 bis GL5 abgeleitet.
  • Figure 00220001
  • Die rechte Seite von GL6 bedeutet den Bereich, in dem ein Bild fusioniert werden kann, hinter dem Bildschirm, wobei der Punkt B nach dem Mittelpunkt des Bildschirms ausgerichtet ist. Genauer befindet sich dann, wenn das Objekt 200 hinter dem Punkt B, aber auf dieser Seite des durch die folgende Gleichung definierten Punkts A vorhanden ist, das Objekt 200 in dem Bereich, in dem ein Bild fusioniert werden kann.
  • Figure 00230001
  • Wie bereits beschrieben werden k und θb durch die Konvergenzwinkel-/Basislinienabstandserfassungseinrichtung 10 erhalten. θW ist ein aus Objektivdaten bekannter Wert, und WS ist in dem Anzeigezustand ebenfalls ein bekannter Wert. Bei diesem Ausführungsbeispiel ist dh ein vorbestimmter Wert (65 mm/2 = 32,5 mm). Der Wert von dh ist jedoch nicht darauf beschränkt.
  • Mit Bezug auf 7 ist nachstehend der Punkt C berücksichtigt.
  • 7 zeigt nicht nur die virtuelle Bildaufnahmeebene 250L, sondern auch die virtuelle Bildaufnahmeebene 250R. Genauer werden den Punkten A und C entsprechende Bilder AL und CL in der rechten Bildaufnahmeebene 250L erhalten, und den Punkten A und C entsprechende Bilder AR und CR werden in der linken Bildaufnahmeebene 250R erhalten. Falls der Betrachter mit beiden Augen auf die Bildaufnahmeebene sieht, werden die linken und rechten Sehfelder auf einer einzelnen virtuellen Ebene 400 kombiniert. Auf der virtuellen Ebene 400 werden Punkte A'L und A'R für den Punkt A gebildet, und Punkte B'L und B'R werden für den Punkt B gebildet. Für den Betrachter scheint der Punkt A an einem Kreuzungspunkt A' vorhanden zu sein, wo eine das linke Auge mit dem Punkt A'L verbindende gerade Linie 300L eine das rechte Auge mit dem Punkt A'R verbindende gerade Linie 300R schneidet. Und der Punkt C scheint an einem Kreuzungspunkt C' vorhanden zu sein, wo eine das linke Auge mit dem Punkt C'L verbindende gerade Linie 350L eine das rechte Auge mit dem Punkt C'R verbindende gerade Linie 350R schneidet. Mit anderen Worten scheint der Punkt A um einen Abstand dB zurückgesetzt zu sein, und der Punkt C scheint um einen Abstand dP projiziert zu sein, wie es in 7 gezeigt ist.
  • 8 zeigt die Beziehung des Projektionsabstands dP, des Abstands dS zu der Anzeigeeinheit und der Abweichung DC. Wie aus 8 ersehen werden kann, gilt die folgende Gleichung.
  • Figure 00240001
  • Aus GL7,
    Figure 00240002
  • Da die folgende Gleichung gilt,
    Figure 00240003
  • Die rechte Seite von GL10 bedeutet den proximalen Grenzwert des Bereichs, in dem ein Bild fusioniert werden kann, wobei der Bildschirmmittelpunkt nach dem Punkt B ausgerichtet ist. Genauer befindet sich der Bereich, in dem ein Bild fusioniert werden kann, auf dieser Seite des Punkts B hinter dem Punkt C.
  • k und θb werden durch die Konvergenzwinkel-/Basislinienabstandserfassungseinrichtung 10 erhalten. θW ist ein aus Objektivdaten bekannter Wert, und WS und dS sind aus dem Anzeigezustand bekannte Werte. Bei diesem Ausführungsbeispiel sind dh und dP vorbestimmte Werte (dh=65 mm, dP=200 mm), obwohl die Erfindung nicht auf diese Werte beschränkt ist.
  • Von der vorstehenden Erörterung aus wird der Abstand l zu dem Objekt 200, der die Fusionsbedingung erfüllt, durch die folgende Gleichung ausgedrückt.
  • Figure 00250001
  • Das Prinzip der Bestimmung, ob das Objekt die Fusionsbedingung in dem Bildaufnahmesystem erfüllt, ist erörtert worden.
  • Das Bildaufnahmesystem weist eine Funktion des Bestimmens, ob das Objekt, das erfaßt wird, die Fusionsbedingung erfüllt, das heißt in den Bereich (C ≤ l ≤ A), in dem ein Bild aufgenommen werden kann, fällt, und des Informierens des Benutzers über das Bestimmungsergebnis auf.
  • 9 zeigt ein Flußdiagramm, das den Steuerprozeß darstellt, der die Benutzerinformationsfunktion umfaßt.
  • In einem Schritt S11 werden der Konvergenzwinkel θb und der Basislinienabstand 2k, die durch den Benutzer eingestellt werden, in die optischen Systeme 101 und 102 eingelesen. In einem Schritt S12 werden die bekannte Größe WS der Bildaufnahmevorrichtung, der Abstand dS zu den Anzeigeeinheiten, der Zwischenpupillenabstand dh und der Projektionsabstand dP ebenfalls gelesen.
  • In einem Schritt S13 wird der distale Fusionsgrenzpunkt A gemäß GL6 bestimmt. In einem Schritt S14 wird der proximale Fusionsgrenzpunkt C gemäß GL10 bestimmt. In einem Schritt S15 wird der Bereich, in dem ein Bild aufgenommen werden kann, bestimmt.
  • Der Vergleicher 306 vergleicht den durch die Abstandsberechnungseinrichtung 305 berechneten Abstand zu dem Objekt, auf das der Benutzer sieht, das heißt den Abstand l zu dem Objekt, von dem der Benutzer nun ein Bild aufnimmt, mit dem distalen Fusionsgrenzpunkt A und dem proximalen Fusionsgrenzpunkt C. Der Vergleicher 306 vergleicht daraufhin den in dem Schritt S11 bestimmten Abstand zu dem Ziel des Betrachtungspunkts mit dem in dem Schritt S15 bestimmten Bereich, in dem ein Bild aufgenommen werden kann. Genauer bestimmt es der Vergleicher 306, ob das Ziel des Betrachtungspunkts innerhalb oder außerhalb des Bereichs, in dem ein Bild aufgenommen werden kann, fällt. Das Vergleichsergebnis wird zu der Bildsteuereinrichtung 4 gesendet. Entweder die Anzeigeeinheit 201 oder die Anzeigeeinheit 202 oder beide sind mit (nicht gezeigten) LEDs versehen, und die Anzeigeeinheiten 201 und 202 beleuchten die LEDs oder lassen sie blinken, um es anzugeben, ob sich das Objekt innerhalb oder außerhalb des Bereichs befindet. Die LEDs können beleuchtet werden, um es anzugeben, daß das Objekt sich außerhalb des Bereichs befindet, und können gelöscht werden, um es anzugeben, daß das Objekt sich innerhalb des Bereichs befindet. Alternativ kann man die LEDs blinken lassen, um es anzugeben, daß das Objekt sich außerhalb des Bereichs befindet, und kann sie löschen, um es anzugeben, daß das Objekt sich innerhalb des Bereichs befindet. Die Bildanzeige 2 kann das Ergebnis der vorstehend beschriebenen Bestimmung darstellen.
  • Wie vorstehend beschrieben weiß der Benutzer bei einem Aufnehmen eines Bilds leicht, ob das Hauptobjekt sich innerhalb des Bereichs, in dem ein Bild fusioniert werden kann (Bereichs, in dem ein Bild aufgenommen werden kann), befindet.
  • Da es der Benutzer gemäß dem ersten Ausführungsbeispiel bei dem Erfassen eines Bilds leicht weiß, ob das Hauptobjekt sich in dem Bereich, in dem ein Bild fusioniert werden kann, befindet, nimmt der Benutzer ein stereoskopisches Bild auf, das leicht zu sehen ist und weniger Ermüdung schafft.
  • <Modifikation des ersten Ausführungsbeispiels und nicht beanspruchte Beispiele>
  • Eine Mannigfaltigkeit von Modifikationen des Ausführungsbeispiels wird erwogen.
  • Bei dem Ausführungsbeispiel sieht der Betrachter auf das auf den Anzeigeeinheiten angezeigte Bild des Objekts, und die Blickrichtungen des Betrachters werden daraufhin erfaßt. Ein nicht beanspruchtes Beispiel arbeitet auch zum Erfassen der Blickrichtungen des Betrachters (Benutzers), der direkt auf das Objekt sieht. Dies ist der Fall, da der Abstand l zu dem Objekt auch aus den Blickrichtungen des Benutzers, der direkt auf das Objekt sieht, bestimmt wird.
  • Es werden keine speziellen optischen Spezifikationen für das optische System 101 und das CCD 103 eingestellt. Beliebige Systeme sind vollkommen akzeptabel, solange das paarweise optische System 101 und CCD 103 jeweils in der optischen Spezifikation mit dem paarweisen optischen System 102 und CCD 104 identisch sind.
  • Bei dem Ausführungsbeispiel wird das Aufnehmen eines Bilds mit einem Kreuzverfahren ausgeführt, bei dem die optischen Achsen der Kamera einander kreuzen. Gemäß einem Beispiel wird das Aufnehmen eines Bilds mit einem Parallelverfahren ausgeführt, bei dem die optischen Achsen der Kamera parallel verlaufen.
  • Die Blickrichtungserfassung ist nicht auf das Verfahren beschränkt, bei dem der Winkel der Drehung des Augapfels erfaßt wird. Alternativ kann jedes andere Verfahren einschließlich des EPG-Verfahrens zum Verwenden eines Spannungsunterschieds zwischen den Spannungen der Augäpfel, des Verfahrens zum Verwenden eines Unterschieds des Reflexionsgrads zwischen dem Weißen und der Pupille bei der Lederhaut bzw. Sklera des Auges und des Suchspulenverfahrens, bei dem eine Kontaktlinse mit einer eingebetteten Spule bei dem Vorhandensein eines Magnetfelds aufgesetzt wird, um die Bewegung der Augäpfel zu messen, verwendet werden.
  • Die Bildanzeige 2 bei dem Ausführungsbeispiel ist von einem festen Typ. Das Ausführungsbeispiel arbeitet auch bei einer beliebigen anderen passenden Anzeigeeinrichtung wie beispielsweise einem Datenhelm (HMD).
  • Der Träger des Bildspeichers 9 bei dem Ausführungsbeispiel ist ein Magnetband. Das Ausführungsbeispiel ist nicht darauf beschränkt. Alternativ kann der Bildspeicher 9 ein IC-Speicher, eine magneto-optische Platte, eine DVD-Scheibe, eine CD-ROM-Scheibe oder eine PD-Scheibe sein.

Claims (24)

  1. Bildaufnahmevorrichtung zum Erfassen von Bildern zur stereoskopischen Betrachtung, mit: einer Bildaufnahmeeinrichtung (1) zum Aufnehmen von linken und rechten Parallaxenbildern einschließlich eines Hauptobjekts jeweils für das linke und rechte Auge; einer Anzeigeeinrichtung (2) zum Anzeigen der durch die Bildaufnahmeeinrichtung aufgenommenen linken und rechten Parallaxenbilder; einer Blickrichtungserfassungseinrichtung (203, 204) zum Erfassen der Blickrichtungen des zu den durch die Anzeigeeinrichtung (2) angezeigten jeweiligen Bildern sehenden linken und rechten Auges in dem Koordinatensystem der Anzeigeeinrichtung; einer Abstandsberechungseinrichtung (303, 307, 305) zum Berechnen eines Kreuzungspunkts der durch die Blickrichtungserfassungseinrichtung erfaßten Blickrichtungen des linken und rechten Auges, Bestimmen des Hauptobjekts auf der Grundlage des berechneten Kreuzungspunkts der Blickrichtungen in dem Koordinatensystem der Bildaufnahmeeinrichtung und Berechnen eines Abstands von der Bildaufnahmeeinrichtung zu dem bestimmten Hauptobjekt; einer Einrichtung (304) zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, zum Berechnen eines Bereichs, in dem ein Bild fusioniert werden kann, basierend auf Winkeln der jeweiligen Bildaufnahmeeinrichtung, einem Abstand zwischen den Bildaufnahmeeinrichtungen, einem Abstand von dem linken und rechten Auge zu der Anzeigeeinrichtung, einer menschlichen Pupillenabstandsgrenze und einer auf dem Abstand des deutlichen Sehens von menschlichen Augen basierenden proximalen Grenze; und einer Bestimmungseinrichtung (306) zum Bestimmen, ob der durch die Abstandsberechnungseinrichtung berechnete Abstand von der Bildaufnahmeeinrichtung zu dem Hauptobjekt in den durch die Einrichtung zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, berechneten Bereich, in dem ein Bild fusioniert werden kann, fällt.
  2. Bildaufnahmevorrichtung nach Anspruch 1, ferner mit einer Informationseinrichtung zum Informieren eines Benutzers über ein durch die Bestimmungseinrichtung (306) bereitgestelltes Bestimmungsergebnis.
  3. Bildaufnahmevorrichtung nach Anspruch 2, wobei die Informationseinrichtung das Bestimmungsergebnis anzeigt.
  4. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Ausgabe der Bildaufnahmeeinrichtung (1) im Ansprechen auf die Ausgabe der Bestimmungseinrichtung in einem Speicher gespeichert wird.
  5. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Blickrichtungserfassungseinrichtung (203, 204) ferner umfaßt: eine Wandlungseinrichtung (303, 304) zum Wandeln der linken und rechten Blickrichtungen eines Benutzers in linke und rechte Richtungsvektoren, die jeweils in linken und rechten Koordinatensystemen der Bildaufnahmeeinrichtung ausgedrückt werden; und eine Koordinatenberechnungseinrichtung (307) zum Berechnen der Koordinatenwerte des Kreuzungspunkts der linken und rechten Richtungsvektoren in dem Weltkoordinatensystem.
  6. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Einrichtung (304) zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, den Bereich, in dem ein Bild fusioniert werden kann, gemäß einer entferntesten Position und einer nächsten Position von der Bildaufnahmeeinrichtung in der Richtung der Tiefe ausdrückt.
  7. Bildaufnahmevorrichtung nach Anspruch 6, wobei die Einrichtung (304) zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, die entfernteste Position des Bereichs, in dem ein Bild fusioniert werden kann, derart einstellt, daß sie ein Punkt derart ist, daß der horizontale Abstand zwischen zwei einem ersten Punkt (A) der entferntesten Position entsprechenden zweiten Punkten auf den linken und rechten Bildebenen der Bildaufnahmeeinrichtung (1) im wesentlichen gleich dem Zwischenpupillenabstand des Benutzers ist.
  8. Bildaufnahmevorrichtung nach Anspruch 6, wobei die Einrichtung (304) zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, die nächste Position des Bereichs, in dem ein Bild fusioniert werden kann, derart einstellt, daß sie ein Punkt derart ist, daß eine Position (C'), bei der zwei einem ersten Punkt (C) der nächsten Position entsprechende Punkte auf den linken und rechten Bildebenen der Bildaufnahmeeinrichtung (1) durch eine perspektivische Transformation basierend auf den linken und rechten Betrachtungspunkten des Benutzers zu dem Benutzer herausragend liegen, annähernd gleich dem Punkt bei dem Abstand des deutlichen Sehens des Benutzers ist.
  9. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Bildanzeigeeinrichtung (2) und die Blickrichtungserfassungseinrichtung (203, 204) in einen Datenhelm eingebaut sind.
  10. Bildaufnahmevorrichtung nach Anspruch 9, wobei der Datenhelm eine Leuchtdiode umfaßt.
  11. Bildaufnahmeverfahren zum Erfassen von Bildern zur stereoskopischen Betrachtung, mit: einem Bildaufnahmeschritt des Aufnehmens von linken und rechten Parallaxenbildern einschließlich eines Hauptobjekts jeweils für das linke und rechte Auge durch eine Bildaufnahmeeinrichtung; einem Anzeigeschritt des Anzeigens der aufgenommenen linken und rechten Parallaxenbilder durch eine Anzeigeeinrichtung; einem Blickrichtungserfassungsschritt (S1) des Erfassens der Blickrichtungen des zu den jeweiligen angezeigten Bildern sehenden linken und rechten Auges in dem Koordinatensystem der Anzeigeeinrichtung; einem Abstandsberechungsschritt des Berechnens eines Kreuzungspunkts der durch den Blickrichtungserfassungsschritt erfaßten Blickrichtungen des linken und rechten Auges, Bestimmens des Hauptobjekts auf der Grundlage des berechneten Kreuzungspunkts der Blickrichtungen in dem Koordinatensystem der Bildaufnahmeeinrichtung und Berechnens eines Abstands von der Bildaufnahmeeinrichtung zu dem bestimmten Hauptobjekt; einem Schritt zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, des Berechnens eines Bereichs, in dem ein Bild fusioniert werden kann, basierend auf Winkeln der jeweiligen Bildaufnahmeeinrichtung, einem Abstand zwischen den Bildaufnahmeeinrichtungen, einem Abstand von dem linken und rechten Auge zu der Anzeigeeinrichtung, einer menschlichen Pupillenabstandsgrenze und einer auf dem Abstand des deutlichen Sehens von menschlichen Augen basierenden proximalen Grenze; und einem Bestimmungsschritt des Bestimmens, ob der durch den Abstandsberechnungsschritt berechnete Abstand von der Bildaufnahmeeinrichtung zu dem Hauptobjekt in den durch den Schritt zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, berechneten Bereich, in dem ein Bild fusioniert werden kann, fällt.
  12. Bildaufnahmeverfahren nach Anspruch 11, ferner mit dem Schritt des Informierens eines Benutzers über das Bestimmungsergebnis des Bestimmungsschritts.
  13. Bildaufnahmeverfahren nach Anspruch 12, wobei der Informationsschritt das Bestimmungsergebnis anzeigt.
  14. Bildaufnahmeverfahren nach Anspruch 11, wobei der Bestimmungsschritt den Bereich, in dem ein Bild fusioniert werden kann, gemäß dem Zwischenpupillenabstand und dem Abstand des deutlichen Sehens eines Benutzers definiert.
  15. Bildaufnahmeverfahren nach Anspruch 11, ferner mit dem Schritt des Speicherns der Ausgabe des Bildaufnahmeschritts in einem Speicher im Ansprechen auf die Ausgabe des Bestimmungsschritts.
  16. Bildaufnahmeverfahren nach Anspruch 11, wobei der Schritt des Erfassens der Blickrichtungen den Schritt des Wandelns der linken und rechten Blickrichtungen eines Benutzers in linke und rechte Richtungsvektoren, die jeweils in linken und rechten Koordinatensystemen bei dem Bildaufnahmeschritt ausgedrückt werden; und den Schritt des Berechnens der Koordinatenwerte eines Kreuzungspunkts der linken und rechten Richtungsvektoren in dem Weltkoordinatensystem umfaßt.
  17. Bildaufnahmeverfahren nach Anspruch 16, wobei der Bestimmungsschritt bestimmt, ob die berechneten Koordinatenwerte des Kreuzungspunkts in dem Weltkoordinatensystem in den Bereich, in dem ein Bild fusioniert werden kann, fallen.
  18. Bildaufnahmeverfahren nach Anspruch 11, wobei der Schritt zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, den Bereich, in dem ein Bild fusioniert werden kann, gemäß einer entferntesten Position und einer nächsten Position von der Bildaufnahmeeinrichtung in der Richtung der Tiefe ausdrückt.
  19. Bildaufnahmeverfahren nach Anspruch 18, wobei der Schritt zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, die entfernteste Position des Bereichs, in dem ein Bild fusioniert werden kann, derart einstellt, daß sie ein Punkt derart ist, daß der horizontale Abstand zwischen zwei einem ersten Punkt (A) der entferntesten Position entsprechenden zweiten Punkten in den linken und rechten Bildebenen des Bildaufnahmeschritts im wesentlichen gleich dem Zwischenpupillenabstand des Benutzers ist.
  20. Bildaufnahmeverfahren nach Anspruch 18, wobei der Schritt zur Berechnung eines Bereichs, in dem ein Bild aufgenommen werden kann, die nächste Position des Bereichs, in dem ein Bild fusioniert werden kann, derart einstellt, daß sie ein Punkt derart ist, daß eine Position (C'), bei der zwei einem ersten Punkt (C) der nächsten Position entsprechende Punkte auf den linken und rechten Bildebenen des Bildaufnahmeschritts durch eine perspektivische Transformation basierend auf den linken und rechten Betrachtungspunkten des Benutzers zu dem Benutzer herausragend liegen, annähernd gleich dem Punkt bei dem Abstand des deutlichen Sehens des Benutzers ist.
  21. Bildaufnahmevorrichtung nach Anspruch 1, ferner mit: einer Aufzeichnungseinrichtung zum Aufzeichnen des linken Parallaxenbildsignals und des rechten Parallaxenbildsignals von der Bildaufnahmeeinrichtung (1) gemäß der Ausgabe der Bestimmungseinrichtung.
  22. Bildaufnahmeverfahren nach Anspruch 11, ferner mit: dem Aufzeichnungsschritt des Aufzeichnens des linken Parallaxenbildsignals und des rechten Parallaxenbildsignals, die durch den Bildaufnahmeschritt erhalten werden, gemäß der Ausgabe des Bestimmungsschritts.
  23. Bildaufnahmevorrichtung nach Anspruch 1, wobei die Bildaufnahmeeinrichtung (1) eine Einstellungseinrichtung zum Einstellen entweder des Basislinienabstands zwischen den ersten und zweiten optischen Systemen oder des Konvergenzwinkels zwischen den ersten und zweiten optischen Systemen oder zum Einstellen sowohl des Basislinienabstands als auch des Konvergenzwinkels umfaßt.
  24. Durch einen Computer lesbarer Aufzeichnungsträger zum Speichern eines Programms, das durch einen Computer ausgeführt wird, wobei der Träger ein Programm speichert, das das Verfahren nach Anspruch 11 ausführt.
DE69830459T 1997-12-03 1998-12-02 Stereoskopische Bildaufnahmevorrichtung Expired - Lifetime DE69830459T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP33299597 1997-12-03
JP33299597A JP3976860B2 (ja) 1997-12-03 1997-12-03 立体映像撮像装置
JP10323691A JP2000152282A (ja) 1998-11-13 1998-11-13 立体映像撮影装置
JP32369198 1998-11-13

Publications (2)

Publication Number Publication Date
DE69830459D1 DE69830459D1 (de) 2005-07-14
DE69830459T2 true DE69830459T2 (de) 2006-03-23

Family

ID=26571274

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69830459T Expired - Lifetime DE69830459T2 (de) 1997-12-03 1998-12-02 Stereoskopische Bildaufnahmevorrichtung

Country Status (3)

Country Link
US (2) US6762794B1 (de)
EP (1) EP0921694B1 (de)
DE (1) DE69830459T2 (de)

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6483484B1 (en) 1998-12-18 2002-11-19 Semiconductor Energy Laboratory Co., Ltd. Goggle type display system
KR100354840B1 (ko) * 2000-05-09 2002-10-05 최부진 입체영상 취득을 위한 촬영기 및 촬영방법
JP2002027496A (ja) * 2000-07-03 2002-01-25 Canon Inc 撮影レンズユニット、撮影装置及び撮影システム
JP2002095015A (ja) * 2000-09-11 2002-03-29 Canon Inc 撮像システム、レンズユニット、撮像装置
DE10063380B4 (de) * 2000-12-19 2005-06-09 Heraeus Med Gmbh Verfahren und Vorrichtung zur Video-Aufnahme eines beleuchteten Feldes
US6953249B1 (en) 2001-01-29 2005-10-11 Maguire Jr Francis J Method and devices for displaying images for viewing with varying accommodation
US8085293B2 (en) * 2001-03-14 2011-12-27 Koninklijke Philips Electronics N.V. Self adjusting stereo camera system
JP2003016435A (ja) * 2001-06-27 2003-01-17 Matsushita Electric Ind Co Ltd 個体認証装置及び方法
US7715595B2 (en) * 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
AU2003215836A1 (en) * 2002-03-29 2003-10-13 Koninklijke Philips Electronics N.V. Method, system and computer program for stereoscopic viewing of 3d medical images
JP3788394B2 (ja) * 2002-06-13 2006-06-21 ソニー株式会社 撮像装置および撮像方法、並びに表示装置および表示方法
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US20040041906A1 (en) * 2002-09-04 2004-03-04 Fruit Theodoric Benjamin Method for producing a real-time, moving, stereoscopic, preview image
JP3926244B2 (ja) * 2002-09-26 2007-06-06 株式会社島津製作所 撮影装置
JP2004179892A (ja) * 2002-11-26 2004-06-24 Sanyo Electric Co Ltd 撮像装置
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP2006005608A (ja) * 2004-06-17 2006-01-05 Hitachi Ltd 撮像装置
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법
US8827899B2 (en) * 2004-09-24 2014-09-09 Vivid Medical, Inc. Disposable endoscopic access device and portable display
US9033870B2 (en) * 2004-09-24 2015-05-19 Vivid Medical, Inc. Pluggable vision module and portable display for endoscopy
US8878924B2 (en) * 2004-09-24 2014-11-04 Vivid Medical, Inc. Disposable microscope and portable display
US8858425B2 (en) * 2004-09-24 2014-10-14 Vivid Medical, Inc. Disposable endoscope and portable display
US8982181B2 (en) * 2006-06-13 2015-03-17 Newbery Revocable Trust Indenture Digital stereo photographic system
US20080013184A1 (en) * 2006-07-14 2008-01-17 Motorola, Inc. Head's up display ambiguity eliminator
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
JP5507797B2 (ja) * 2007-03-12 2014-05-28 キヤノン株式会社 頭部装着型撮像表示装置及び画像生成装置
JP4714176B2 (ja) * 2007-03-29 2011-06-29 富士フイルム株式会社 立体撮影装置及び光軸調節方法
JP2009055554A (ja) * 2007-08-29 2009-03-12 Fujifilm Corp 複数の撮像素子を搭載したフレキシブル撮像装置
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US7802883B2 (en) 2007-12-20 2010-09-28 Johnson & Johnson Vision Care, Inc. Cosmetic contact lenses having a sparkle effect
US8115825B2 (en) 2008-02-20 2012-02-14 Apple Inc. Electronic device with two image sensors
CN102016877B (zh) 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
JP5079549B2 (ja) * 2008-03-03 2012-11-21 パナソニック株式会社 撮像装置および撮像装置本体
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
JP5210843B2 (ja) * 2008-12-12 2013-06-12 パナソニック株式会社 撮像装置
CN101588513B (zh) * 2009-01-07 2011-05-18 深圳市掌网立体时代视讯技术有限公司 一种立体摄像装置及方法
GB2480193B (en) * 2009-01-19 2015-01-21 Minoru Inaba Stereoscopic video imaging display system
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
JP5409107B2 (ja) * 2009-05-13 2014-02-05 任天堂株式会社 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム
JP5356952B2 (ja) * 2009-08-31 2013-12-04 レムセン イノベーション、リミティッド ライアビリティー カンパニー 表示装置
CN102033414B (zh) * 2009-09-27 2012-06-20 深圳市掌网立体时代视讯技术有限公司 一种立体数码成像会聚装置及方法
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
JP5405264B2 (ja) 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
US8780185B2 (en) * 2009-11-25 2014-07-15 Olympus Imaging Corp. Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
JP2011139296A (ja) * 2009-12-28 2011-07-14 Sony Corp 映像信号処理装置及び映像信号処理方法
EP2355526A3 (de) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computerlesbares Speichermedium mit einem Anzeigesteuerungsprogramm darauf, Anzeigesteuerungsvorrichtung, Anzeigesteuerungssystem und Anzeigesteuerungsverfahren
JP5446949B2 (ja) * 2010-02-03 2014-03-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5432365B2 (ja) 2010-03-05 2014-03-05 パナソニック株式会社 立体撮像装置および立体撮像方法
JP5444452B2 (ja) 2010-03-05 2014-03-19 パナソニック株式会社 立体撮像装置および立体撮像方法
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
US8994788B2 (en) * 2010-05-25 2015-03-31 Panasonic Intellectual Property Corporation Of America Image coding apparatus, method, program, and circuit using blurred images based on disparity
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
CN103069818B (zh) * 2010-05-31 2015-08-26 富士胶片株式会社 立体图像控制设备以及控制其操作的方法和程序
EP2395764B1 (de) 2010-06-14 2016-02-17 Nintendo Co., Ltd. Speichermedium mit darauf gespeichertem stereoskopischem Bildanzeigeprogramm, stereoskopische Bildanzeigevorrichtung, stereoskopisches Bildanzeigesystem und stereoskopisches Bildanzeigeverfahren
US20130128003A1 (en) * 2010-08-19 2013-05-23 Yuki Kishida Stereoscopic image capturing device, and stereoscopic image capturing method
KR101700363B1 (ko) * 2010-09-08 2017-01-26 삼성전자주식회사 적절한 밝기를 갖는 입체 영상을 생성하는 디지털 영상 촬영 장치 및 이의 제어 방법
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US8718973B2 (en) * 2011-09-09 2014-05-06 Kabushiki Kaisha Toshiba Method, device, and system for calculating a geometric system model using an area-simulating-volume algorithm in three dimensional reconstruction
JP6113411B2 (ja) * 2011-09-13 2017-04-12 シャープ株式会社 画像処理装置
JP2013092768A (ja) * 2011-10-03 2013-05-16 Canon Inc 立体撮影装置
CN103809737A (zh) * 2012-11-13 2014-05-21 华为技术有限公司 一种人机交互方法及装置
TW201428675A (zh) 2013-01-08 2014-07-16 Pixart Imaging Inc 影像產生系統與影像產生方法
JP6209740B2 (ja) * 2013-03-15 2017-10-11 パナソニックIpマネジメント株式会社 カメラコントローラ装置
US9161020B2 (en) * 2013-04-26 2015-10-13 B12-Vision Co., Ltd. 3D video shooting control system, 3D video shooting control method and program
US9503705B2 (en) * 2013-12-12 2016-11-22 Lenovo (Singapore) Pte. Ltd. Stereoscopic image generation
CN105025193B (zh) 2014-04-29 2020-02-07 钰立微电子股份有限公司 手提式立体扫描仪和产生对应对象的立体扫描结果的方法
US9507241B1 (en) 2015-11-17 2016-11-29 Lenovo (Singapore) Pte, Ltd. Adjustable camera field of view
WO2018076202A1 (zh) * 2016-10-26 2018-05-03 中国科学院深圳先进技术研究院 能够进行人眼追踪的头戴式可视设备及人眼追踪方法
EP3415078A1 (de) * 2017-06-16 2018-12-19 Essilor International Verfahren und system zur bestimmung des pupillenabstands eines individuums
CN109936677B (zh) * 2017-12-15 2021-07-27 浙江舜宇智能光学技术有限公司 应用于多目相机的视频同步方法
CN109710477B (zh) * 2018-12-28 2019-10-18 哈尔滨拓博科技有限公司 一种对平面互动投影进行自动化测试的系统和方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3251933A (en) * 1962-10-31 1966-05-17 Vare Ind Inc Three-dimensional television system
US4437745A (en) * 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
DE3640731A1 (de) 1986-11-28 1988-06-09 Standard Elektrik Lorenz Ag Anordnung zum uebertragen stereoskopischer videobilder
JPH0827499B2 (ja) 1987-12-03 1996-03-21 松下電器産業株式会社 立体テレビジョン用撮像装置
US5003385A (en) * 1988-08-24 1991-03-26 Kabushiki Kaisha Toshiba Stereoscopic television system
EP0514819B1 (de) * 1991-05-23 1996-05-01 Hitachi, Ltd. Breitbildschirmfernsehempfänger mit Bildseitenverhältnisumwandlungsfunktion und Verfahren zur Darstellung eines vergrösserten Abschnittes
JPH0568188A (ja) 1991-09-06 1993-03-19 Canon Inc ビデオカメラ
JPH05292543A (ja) * 1992-04-15 1993-11-05 Komatsu Ltd 視覚装置
JP2888713B2 (ja) * 1993-01-14 1999-05-10 キヤノン株式会社 複眼撮像装置
US5625408A (en) * 1993-06-24 1997-04-29 Canon Kabushiki Kaisha Three-dimensional image recording/reconstructing method and apparatus therefor
US5864360A (en) * 1993-08-26 1999-01-26 Canon Kabushiki Kaisha Multi-eye image pick-up apparatus with immediate image pick-up
JPH0767023A (ja) 1993-08-26 1995-03-10 Canon Inc 複眼撮像装置
DE69417824T4 (de) 1993-08-26 2000-06-29 Matsushita Electric Ind Co Ltd Stereoskopischer Abtastapparat
JP3054002B2 (ja) * 1993-09-01 2000-06-19 キヤノン株式会社 複眼撮像装置
JPH0847000A (ja) * 1994-08-02 1996-02-16 Canon Inc 複眼撮像装置、画像信号変換装置、表示装置及び複眼撮像画像記録再生装置
JP3478606B2 (ja) * 1994-10-12 2003-12-15 キヤノン株式会社 立体画像表示方法および装置
DE69627497T2 (de) * 1995-05-24 2003-12-24 Olympus Optical Co Stereoskopisches endoskop und tv-bildaufnahmesystem für das endoskop
US5864359A (en) * 1995-05-30 1999-01-26 Smith & Nephew, Inc. Stereoscopic autofocusing based on comparing the left and right eye images
US5532777A (en) * 1995-06-06 1996-07-02 Zanen; Pieter O. Single lens apparatus for three-dimensional imaging having focus-related convergence compensation
US5828913A (en) 1995-06-06 1998-10-27 Zanen; Pieter O. Method for three dimensional measurement and imaging having focus-related convergence compensation
US6683652B1 (en) * 1995-08-29 2004-01-27 Canon Kabushiki Kaisha Interchangeable lens video camera system having improved focusing
US6088006A (en) * 1995-12-20 2000-07-11 Olympus Optical Co., Ltd. Stereoscopic image generating system for substantially matching visual range with vergence distance
JP3771964B2 (ja) * 1996-03-12 2006-05-10 オリンパス株式会社 立体映像ディスプレイ装置
JPH1070742A (ja) * 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP2000354257A (ja) * 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
US6864910B1 (en) * 1999-06-30 2005-03-08 Canon Kabushiki Kaisha Optical apparatus
JP2001218228A (ja) * 2000-02-01 2001-08-10 Canon Inc 立体画像撮影用光学系及びそれを用いた立体画像撮影装置

Also Published As

Publication number Publication date
EP0921694B1 (de) 2005-06-08
US20040150728A1 (en) 2004-08-05
EP0921694A3 (de) 2001-03-28
EP0921694A2 (de) 1999-06-09
US6762794B1 (en) 2004-07-13
DE69830459D1 (de) 2005-07-14

Similar Documents

Publication Publication Date Title
DE69830459T2 (de) Stereoskopische Bildaufnahmevorrichtung
DE69433556T2 (de) Bildanzeigevorrichtung
DE69631496T2 (de) Stereoskopisches Fernsehgerät
DE69728633T2 (de) Vorrichtung und Verfahren zur Anzeige dreidimensionaler Bilder
DE69534763T2 (de) Vorrichtung zur Darstellung stereoskopischer Bilder und Bildaufnahmevorrichtung dafür
EP0836332B1 (de) Positionsadaptiver, autostereoskoper Monitor (PAM)
DE60131274T2 (de) Verringerung der rechenzeit für dreidimensionale anzeigen
EP0722256B1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
EP0776576B1 (de) Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
DE4435426C2 (de) Auf ein Breitwand-Fernsehsystem abgestimmtes Mikroskop-System
EP3440501A1 (de) Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung
EP3108282A2 (de) Erzeugen eines beobachtungsbildes eines objektbereichs
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
EP3293558B1 (de) Vorrichtung zum erfassen eines stereobilds
DE202007010389U1 (de) Vorrichtung zur automatischen Positionierung von gekoppelten Kameras zur plastischen Bilddarstellung
DE10133671B4 (de) Mikroskopeinrichtung
DE60027055T2 (de) System zur Bildbeobachtung
DE102017102922A1 (de) Kameravorrichtung
DE102017109021B4 (de) System für das stereoskopische Visualisieren eines Objektbereichs sowie Objektbereich-Visualisierungsverfahren
DE60133693T2 (de) Stereoskopische Bildanzeigevorrichtung
DE4417762C1 (de) Vorrichtung und Verfahren zum Projizieren und Empfangen von Bildinformation mittels eines Bildschirms
DE102014223181B3 (de) Visualisierungsvorrichtung für einen Operationssitus
WO2005098508A2 (de) Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem
DE112021003347T5 (de) Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm
DE19720851A1 (de) Ophthalmologisches Untersuchungsgerät sowie Verfahren zu dessen Betrieb

Legal Events

Date Code Title Description
8364 No opposition during term of opposition