CN1893673B - 立体图像显示设备 - Google Patents

立体图像显示设备 Download PDF

Info

Publication number
CN1893673B
CN1893673B CN2006101006265A CN200610100626A CN1893673B CN 1893673 B CN1893673 B CN 1893673B CN 2006101006265 A CN2006101006265 A CN 2006101006265A CN 200610100626 A CN200610100626 A CN 200610100626A CN 1893673 B CN1893673 B CN 1893673B
Authority
CN
China
Prior art keywords
data
display device
depth information
right eye
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2006101006265A
Other languages
English (en)
Other versions
CN1893673A (zh
Inventor
宋明燮
李璋斗
张亨旭
李玗钟
金贤淑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Mobile Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Mobile Display Co Ltd filed Critical Samsung Mobile Display Co Ltd
Publication of CN1893673A publication Critical patent/CN1893673A/zh
Application granted granted Critical
Publication of CN1893673B publication Critical patent/CN1893673B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Abstract

提供了一种立体图像显示设备。该立体图像显示设备,包括:显示单元,其包括矩阵形式排列的多个像素,各个像素包括在行方向上排列的右眼/左眼像素;区域检测器,用于从多个输入数据中检测分别对应于至少部分像素的第一数据;数据转换器,用于将该第一数据转换成对应于右眼/左眼像素的右眼/左眼数据;数据组合器,用于通过排列右眼/左眼数据组合立体图像数据;以及数据驱动器,用于将对应于该立体图像数据的数据信号施加到该显示单元。

Description

立体图像显示设备
技术领域
本发明涉及立体图像显示设备,更具体地,涉及用于实现包括立体图像的用户界面的立体图像显示设备。
背景技术
通常,立体图像显示设备无需诸如偏振镜之类的任何额外设备而为用户提供不同的右/左眼图像,从而用户感受到距离感和3D(或立体)效果。
通过在显示面板的前面提供视差格栅(parallax barrier)、双凸透镜(lenticular lens)、显微透镜阵列,立体图像显示设备使用空间分割方法,其中分别在左眼方向和右眼方向上分割显示面板上显示的左眼图像和右眼图像。
立体图像显示设备通过用户界面操纵。用户界面为用户提供设置/控制机制。此外,当用户设置和控制相应的设备时,用户界面显示其结果。因而,当用户从用户界面的菜单中选择项目时,所选择的项目将被与其它项目不同地显示。
背景部分中所公开的上述信息仅为了增强对本发明背景的理解,因而其可能包含不构成为本领域普通技术人员在该国已公知的现有技术的信息。
发明内容
本发明的一个方面提供了一种具有包括立体图像的用户界面的立体图像显示设备。
特别地,本发明的一个方面提供了一种立体图像显示设备,其通过将至少部分输入数据转换成立体图像数据以便实现用户界面而能够以立体图像表达至少部分用户界面。
根据本发明实施例的一种示例性立体图像显示设备包括:显示单元,其包括以矩阵形式排列的多个像素,各个像素包括在行方向上排列的右眼/左眼像素;区域检测器,用于从多个输入数据中检测分别对应于至少部分像素的第一数据;数据转换器,用于将该第一多个数据转换成对应于右眼/左眼像素的右眼/左眼数据;数据组合器,用于通过排列右眼/左眼数据生成立体图像数据;以及数据驱动器,用于将相应于该立体图像数据的数据信号施加到该显示单元。
在另一实施例中,一种立体图像显示设备,包括:显示单元,其包括以矩阵形式排列的多个像素,各个像素包括在行方向上排列的右眼/左眼像素;深度信息提取器,用于使用输入数据中包括的3D空间信息从输入数据中提取深度信息;数据转换器,用于使用该深度信息将输入数据转换成分别对应于右眼/左眼像素的右眼/左眼数据;数据组合器,用于通过排列右眼/左眼数据组合立体图像数据;以及数据驱动器,用于将相应于该立体图像数据的数据信号施加到该显示单元。
在另一实施例中,一种立体图像显示设备,包括:显示单元,其包括以矩阵形式排列的多个像素,各个像素包括在行方向上排列的右眼/左眼像素;区域检测器,用于检测在多个输入数据中分别对应于至少部分像素的第一数据;第一数据转换器,用于当该第一数据是2D图像数据时,将该第一数据转换成分别对应于右眼/左眼像素的右眼/左眼数据;第二数据转换器,用于当该第一数据是3D图像数据时,使用深度信息将该第一数据转换成分别对应于右眼/左眼像素的右眼/左眼数据,该深度信息是使用第一数据中包括的3D空间信息相对于相应的第一数据而提取的;立体图像组合器,用于通过排列从第一数据转换器或者第二数据转换器生成的右眼/左眼数据来组合立体图像数据;以及数据驱动器,用于将相应于该立体图像数据的数据信号施加到该显示单元。
附图说明
图1是根据视觉像差由用户感知的立体图像的示意图。
图2是根据本发明示例性实施例的立体图像显示设备的示意图。
图3图示了其中图2的立体图像显示设备显示立体图像的原理。
图4图示了根据本发明示例性实施例的数据处理器的配置。
图5A图示了根据本发明示例性实施例的立体图像用户界面,在其上立体图像显示设备立体地显示菜单中所选择的项目。
图5B图示了根据本发明示例性实施例的立体图像用户界面,在其上立体图像显示设备立体地显示菜单中所选择的图标和文本项目。
图5C图示了根据本发明示例性实施例的立体图像用户界面,在其上立体图像显示设备立体地显示整个屏幕。
图6图示了根据本发明另一示例性实施例的用于2D图像的数据处理器的配置。
图7图示了根据本发明另一示例性实施例的用于3D图像的数据处理器的配置。
图8图示了包括根据本发明示例性实施例的立体图像显示设备的移动通信终端。
图9图示了传统用户界面的菜单树型结构。
图10图示了根据本发明示例性实施例的用户界面的菜单树型结构。
具体实施方式
下文将参照附图更详细地描述本发明的实施例。
在下面的详细描述中,仅通过举例说明示出和描述了本发明的仅某些示例性实施例。如本领域技术人员将认识到的,可以以各种不同方式对所描述的实施例进行修改,而不背离本发明的精神或范围。
据此,附图和描述应被视为本质上是说明性的,而不是限制性的。贯穿整个说明书,相同的标号表示相同的元件。
首先,在描述根据本发明示例性实施例的立体图像显示设备之前,将示意性地描述显示立体图像的原理。
通常,由于观察者以右眼和左眼略微不同的位置观察3D(或立体)物体,所以观察者通过这两只眼睛感知不同的图像信息。观察者组合该不同的图像信息以获得3D物体的深度信息并且感知3D(或立体)效果。
立体图像显示设备通过提供分别由观察者右眼和左眼观看的图像从而使得观察者能够看到物体的立体图像。
这里,在由左眼和右眼观看的两个图像之间产生两只眼睛的视觉像差(disparity)。当视觉像差给定为正值时,观察者感知到该立体物体被放置在比预定参照近的位置。当视觉像差给定为负值时,观察者感知到该立体物体被放置在比预定参照远的位置。
图1是根据视觉像差由用户感知的立体图像的示意图。如图1所示,观察者感知到,在比预定参照近的位置放置了正视觉像差的圆柱状图像,而在比预定参照远的位置放置了具有负视觉像差的矩形状图像。观察者感知到在预定的参照表面放置了零视觉像差的心形图像。在该实施例中,“立体图像”可以指观察者感知到处于比显示设备的显示单元的预定参照近的位置或远的位置的图像。另一方面,“平面图像”可用指观察者感知到处于预定参照表面的图像。此外,“立体图像显示设备”可以指能够显示上述立体图像的显示设备。
在本实施例中,立体图像显示设备采用一种视差格栅(parallax barrier)方法,其使用视差格栅分离右眼/左眼图像以获得3D效果。但是,应该理解,视差格栅方法仅仅是示例,本发明的实施例可以应用于采用利用双凸透镜(lenticular lens)的双凸透镜方法的立体图像显示设备。
此外,立体图像显示设备被形成为液晶显示设备。但是,应该理解,液晶显示设备仅仅是示例,本发明的实施例可以应用于其它显示器,诸如OLED显示设备、等离子显示设备和/或场致发射显示设备。
图2是根据本发明示例性实施例的立体图像显示设备的示意图。
如图2所示,立体图像显示设备包括显示单元100、格栅100′、扫描驱动器200、数据处理器300、数据驱动器400、光源500、光源控制器600、模式转换器700、和定时控制器800。光源500被形成为表面光源并且被提供在显示单元100的后部。但是,为了更好理解以及易于描述本发明,在图2中将光源500图示为在显示单元100的下面。
显示单元100包括:多个扫描线S1到Sn,用于传送选择信号;多个数据线D1到Dn,用于传送数据信号,并且与多个扫描线S1到Sn交叉但是隔离开地形成;以及多个子像素(未示出),位于由多个扫描线和多个数据线的交叉限定的区域处。
此外,显示单元100的多个像素包括:右眼像素,用于形成要由右眼观看的右眼图像;以及左眼像素,用于形成要由左眼观看的左眼图像。
格栅100′被提供在显示单元100的一个表面上,并且包括根据右眼/左眼像素的排列而形成的不透明区域(未示出)和透明区域(未示出)。使用不透明区域和透明区域,格栅100′将分别自右眼/左眼像素传送的右眼/左眼图像分离到左眼方向和右眼方向。根据左眼像素和右眼像素的排列可以以条形或Z字形图案的形式排列不透明区域和透明区域。
在本实施例中,格栅100′包括被施以不同电平电压的一对电极和在其间形成的液晶单元。通过响应于从定时控制器800输入的模式信号Sm而向电极施加电压,格栅100′通过改变液晶的排列而将液晶单元转变成透明的或不透明的。
此外,为了在显示单元100上显示平面图像,立体图像显示设备的格栅100′控制不透明区域变成透明的。在这种情况下,数据驱动器400在不分离右眼/左眼数据的情况下施加数据信号,显示单元100的像素在不区分右眼/左眼像素的情况下根据数据信号显示图像。为了在显示单元100上显示立体图像,格栅100′控制不透明区域变成不透明的。在这种情况下,数据驱动器400适当地施加包括用于左眼像素和右眼像素的右眼/左眼数据的数据信号,以为观察者提供立体图像。
下文中,将参照图3示意性地描述观察者可以如何通过图2的显示单元100和格栅100′感知立体图像。图3是沿图2的线A-A′的显示单元100和格栅100′的截面图,以示出观察者如何通过右眼/左眼像素感知立体图像。
如图3所示,显示单元100包括交替排列的多个左眼像素150和多个右眼像素160,以及格栅100′包括以与多个左眼像素150和多个右眼像素160的排列相同的方向交替排列的多个不透明区域150′和透明区域160′。左眼像素150通过透明区域160′向左眼180传送左眼图像,而右眼像素160通过透明区域160′向右眼170传送右眼图像。不透明区域150′形成一光学路径,从而右眼/左眼像素160分别通过透明区域160′向右眼/左眼传送图像。
观察者通过格栅100′的透明区域160′观看要显示在显示单元100上的图像。在这种情况下,分别由右眼170和左眼180通过同一透明区域160′观看显示单元100的不同区域。即,分别由右眼170和左眼180通过同一透明区域160′观看显示在邻近左眼像素150和右眼像素160上的图像。
左眼像素150上显示的左眼图像相对于右眼像素160上显示的右眼图像具有第一视觉像差,而右眼图像相对于左眼图像具有第二视觉像差,其中可以预先确定该第一和第二视觉像差。因而,当观察者以右眼和左眼观看分别从左眼和右眼像素150和160传送的右眼/左眼图像时,观察者获得用于感知立体效果的深度信息并因而感知所述图像仿佛正由右眼和左眼观看实际的立体物体。
再次参照图2,光源控制器600响应于从定时控制器800输出的控制信号Sb控制发光二极管的发光时间。在这种情况下,可以通过定时控制器800所提供的控制信号而使当数据驱动器400向数据线D1到Dm施加数据信号时的时段和当光源600点亮红(R)、绿(G)、蓝(B)发光二极管时的时段彼此同步。
模式转换器700控制格栅100′使得响应于从定时控制器800输入的模式信号Sm使液晶排列变成透明或不透明。
响应于所接收到的信号,例如从外部或者从图形控制器(未示出)接收的水平同步信号Hsync和垂直同步信号Vsync,定时控制器800分别向扫描驱动器200、数据处理器300、模式转换器700提供所需要的控制信号Sg、Sd、和Sb,以及模式信号Sm。
在这种情况下,定时控制器800处接收的数据可以是平面图像数据、立体图像数据或者组合数据,在组合数据中平面图像数据和立体图像数据被部分地组合。
扫描驱动器200响应于从定时控制器800输出的控制信号(Sg)顺序生成选择信号并且将选择信号施加到扫描线S1到Sn。
数据驱动器400响应于从定时控制器800输入的控制信号Sd将从定时控制器800输入的数据转换成数据信号,并且将数据信号施加到数据线D1到Dm。
在图2中,示例性地示出了定时控制器800控制数据驱动器400;然而,应该理解,本发明并不限于此。
响应于立体图像显示激活信号,数据处理器300向定时控制器800传送输入数据,将至少部分输入数据转换成右眼/左眼数据以组合立体图像数据,并且将组合的立体图像数据传送到定时控制器800。定时控制器800向数据驱动器400传送该输入数据。在图2中,示例性地示出了在定时控制器800的前面形成的数据处理器300。但是,应该理解,数据处理器300的位置不限于此。
参照图4更详细地描述根据本发明示例性实施例的数据处理器300。图4图示了根据本发明示例性实施例的数据处理器300的配置。
如图4所示,数据处理器300包括数据路径确定器310、区域检测器320、第一数据转换器330、数据组合器340、深度信息提取器350、第二数据转换器360、多路复用器370。
响应于立体显示激活信号,数据路径确定器310确定数据处理路径以及是否将输入数据转换成立体图像数据。立体显示激活信号确定是否将至少部分输入数据转换成立体图像数据。所述部分输入数据可以包括对应于这样的区域的数据,该区域包括在该处用户在用户界面中设置预定定点机制所在的位置。
可以通过用户界面直接施加立体显示激活信号,或者可以在立体显示设备满足预定条件时产生立体显示激活信号。
当立体图像显示设备是移动通信终端时,该预定条件可以包括接收电话呼叫或短消息服务(short message service,SMS)。在这种情况下,立体显示设备在接收电话呼叫或SMS时产生立体显示激活信号,并且向数据路径确定器310发送所产生的激活信号。此外,响应于立体显示激活信号,数据路径确定器310提供与用户接收电话呼叫或SMS对应的预定立体图像。
此外,数据路径确定器310分析输入数据的类型,并且确定适于该类型的数据处理路径,以便将至少部分输入数据转换成立体图像数据。输入数据的类型包括2D图像数据、3D图像数据或立体图像数据。输入数据的类型可以基于包括在输入数据中的空间(spatial)信息来确定。更具体地,当输入数据包括X、Y、Z坐标信息时,确定为3D图像数据,以及当数据被分离成右眼/左眼数据时,确定为立体图像数据。
对于2D图像数据,数据路径确定器310通过第一数据处理路径传送数据,该第一数据处理路径穿过区域检测器320、第一数据转换器330、数据组合器340。对于3D图像数据,数据路径确定器310通过第二数据处理路径传送数据,该第二数据处理路径穿过深度信息提取器350、第二数据转换器360、数据组合器340。当数据是立体图像数据时,数据路径确定器310直接向多路复用器370传送数据。
下面将更详细地描述与2D图像数据处理路径相关联的组件。
区域检测器320检测输入数据中要以立体图像表达的数据,并且将所检测的数据传送到第一数据转换器330。更详细地,在分别相应于显示单元100中排列的全部像素的全部数据之中,区域检测器320检测与要以立体图像表达的至少部分像素区域(下文中,称作“立体图像显示区域”)对应的数据。全部数据可以形成用户界面。
用户界面包括一个或多个菜单图标,所述菜单图标分别相应于提供给用户的功能。当用户选择了用户界面中的特定菜单图标时,区域检测器320检测与所选择的菜单图标对应的数据。通过预定控制机制(例如,遥控器、键盘等)选择菜单图标以控制立体图像显示设备。即,根据用户界面中控制机制的控制(例如,方向键的控制)顺序选择菜单图标,并且区域检测器320顺序检测相应于立体图像的数据。
此外,当用户通过触摸板、触摸屏等从用户界面直接选择特定菜单图标时,区域检测器320通过对用户在显示单元100选择的位置采样而获得所选择的位置信息(例如,X和Y坐标信息),并且检测包括相应位置信息的相应于菜单图标的数据。
第一数据转换器330将相应于立体图像显示数据的数据转换成右眼/左眼数据。
在本实施例中,第一数据转换器330通过将输入数据在右或左方向上移动一距离而将输入数据转换成右眼/左眼数据,其中该距离可以是预先确定的。根据本发明的示例性实施例,假定在不以立体图像表达的区域中,对于右眼/左眼像素输入相同的数据。在这种情况下,第一数据转换器330将数据左移第一数目的像素以形成左眼数据,并且它将数据右移第二数目的像素以形成右眼数据,其中所述第一数目和第二数目可以是预先已经确定的。
依据所选择的菜单图标的大小、立体图像显示方法(例如,视差格栅方法或双凸透镜方法)、在视差格栅方法的情况中的孔径比、和显示单元100的大小,可以将通过第一数据转换器330将数据在右/左方向移动的像素数目设置为不同。
下文中,将更详细地描述3D图像数据处理路径。
深度信息提取器350提取包括在输入3D图像数据中的深度信息,并且将所提取的深度信息传送到第二数据转换器360。
3D图像数据包括用于相应数据的空间信息(例如,X、Y、D坐标)以便表达3D图像中的数据。深度信息提取器350通过使用数据的空间信息提取数据的深度信息。更详细地,深度信息提取器350可以相应于空间坐标之中的Z坐标提取深度信息。可以通过限定正负方向上的深度信息的最大值是10和0而从Z坐标提取深度信息。
立体图像数据可以形成包括预定菜单图标、背景等的用户界面。在这种情况下,深度信息提取器350提取对于相应菜单图标和背景的相应深度信息,并且将该相应深度信息传送到第二数据转换器360。
虽然在图4的3D图像数据处理路径中没有示出,但是根据本发明实施例的3D图像数据处理路径也可以包括区域检测器。在一个实施例中,该区域检测器是与2D图像数据处理路径中相关联的相同的区域检测器320。在这种情况下,深度信息提取器350可以将深度信息(例如,预定的深度信息或者2)加到所检测的数据上。例如,当对于所检测的数据,将初始深度信息给定为7时,最终深度信息可以给定为7+2=9。
第二数据转换器360从深度信息提取器350接收3D图像数据的深度信息,并且使用所接收的深度信息提取相应于3D图像数据的右眼/左眼数据。已经关于2D图像数据处理路径详细描述了对于输入数据使用相应的深度信息生成右眼/左眼数据的方法。据此,将不再详细描述这样的方法。
数据组合器340通过接收来自第一数据转换器330或第二数据转换器360的右眼/左眼数据并且通过排列右眼/左眼数据以便可以分别将右眼/左眼数据应用于显示单元100的右眼/左眼像素来组合立体图像数据。在这种情况下,数据组合器340相应于右眼/左眼像素的排列而排列右眼/左眼数据。
数据组合器340可以依据右眼/左眼像素的排列而不同地排列右眼/左眼数据。此外,因为某些数据没有被区域检测器320检测到,所以这些数据可能不被转换成右眼/左眼数据。为了组合立体图像数据,数据组合器340可以与右眼/左眼数据一起排列这样的未经转换的数据,以便它们对应于数据显示单元100的像素。
多路复用器370接收组合的立体图像数据,并且响应于立体显示激活信号向数据驱动器400传送该立体图像数据。
当不使用立体图像用户界面时,用户将不施加立体显示激活信号。在这种情况下,多路复用器370直接接收数据并且将所接收的数据传送到数据驱动器400。但是,当使用立体图像用户界面时,用户将施加立体显示激活信号。结果是,至少部分数据通过2D图像数据或3D图像数据处理路径被转换成右眼/左眼数据,以便组合立体图像数据。多路复用器370接收立体图像数据,并且响应于立体显示激活信号,将其通过定时控制器800传送到数据驱动器400。
数据驱动器400接收输入数据或立体图像数据,将输入数据或立体图像数据转换成与之相应的模拟数据电压形式的数据信号,并且将该数据信号施加到显示单元100的数据线。数据驱动器400可以包括数/模转换器、电平移动器、电阻梯(resistance ladder)等,以便可以将输入数据或立体图像数据从数字信号转换成模拟信号。
图5A图示了根据本发明示例性实施例的立体图像用户界面,其上立体图像显示设备立体地显示了菜单中的所选项目。图5B图示了根据本发明示例性实施例的立体图像用户界面,其上立体图像显示设备立体地显示了所选图标和文本项目。图5C图示了根据本发明示例性实施例的立体图像用户界面,其上立体图像显示设备立体地显示了整个屏幕。在图5A到5C中,使用箭头来指示立体图像显示区域。
现在将参照图6更详细地描述根据本发明另一示例性实施例的用于使用2D图像数据实现立体图像用户界面的2D图像数据处理器。
图6图示了根据本发明另一示例性实施例的2D图像数据处理器的配置。
2D图像数据单元包括数据路径确定器310′、区域检测器320′、深度信息加法器325′、数据转换器330′、数据组合器340′、和多路复用器370′。
数据路径确定器310′接收立体显示激活信号数据,确定输入数据是否是2D图像数据,并且在接收到2D图像数据时将相应数据传送到区域检测器320′。更详细地,数据路径确定器310′通过使用2D/3D图像标识信号确定输入信号是否是2D图像数据。数据路径确定器310′在接收到2D图像数据时将输入数据传送到区域检测器320′。在图6中,应该理解,使用2D/3D图像标识信号确定数据类型仅作为示例给出,本发明并不限于此。例如,可替代地可以通过使用数据中包含的空间信息来确定数据类型。图6的数据路径确定器310′基本上与先前已详述的图4的数据路径处理器310相同。这样,为描述方便起见将不详细描述图6的数据路径确定器310′。
在输入数据之中,区域检测器320′检测相应于立体图像显示区域的数据(即,要以立体图像表达的数据),并且将所检测的数据传送到深度信息加法器325′。检测相应于立体图像显示区域的数据的方法已经作了详细描述,将不再对之进行详细描述。
深度信息加法器325′使用所存储的深度信息映射(map)将相应的深度信息加到对应于立体图像显示区域的数据上,该深度信息映射可以是预先确定的。当参照表面给定为显示单元100的屏幕时,深度信息对应于参照表面与观察者所观看的图像之间的距离。更详细地,当深度信息包括10个级别时,10的在深度信息处,图像被示出相对于参照表面最接近于观察者;在0的深度信息处,相对于参照表面最远离观察者;而在5的深度信息处,与参照表面处于同一水平。可以相应于视觉相差定义深度信息。即,10的深度信息可以被设置为5的视觉像差、5的深度信息可以被设置为0的视觉像差,而0的深度信息可以被设置为-5的视觉像差。此外,可以相应于此深度信息相应地设置将数据移动以产生右眼/左眼数据的像素距离。例如,像素移动距离对于10的深度信息可以给定为8个像素,而对于8的深度信息可以给定为4个像素。
通过将相应的深度信息匹配到用户界面中要表达的预定菜单图标等来确定深度信息映射。更详细地,当以预定菜单图标和背景形成用户界面时,将预定深度信息加到相应菜单图标和背景上。例如,可以分别将10、8、5的深度信息加到第一菜单图标、第二菜单图标、和背景上。当输入数据相应于第一菜单图标时,数据转换器相应于10的深度信息将数据在右/左方向上移动8个像素以形成右眼/左眼数据。
这样的深度信息映射的设置方法并不限于上述示例。另外,例如可以在菜单图标的内部设置最大的10的深度信息,而从其开始深度信息的级别变低,从而例如在图标边界设置了7的深度信息并且在背景处设置了5的深度信息。
相应于用户界面设置深度信息映射,从而将其存储在数据转换器330′。当存在多个用户界面时,数据转换器330′分别存储用于各用户界面的深度信息映射。深度信息映射以及其中的用于菜单图标、和背景等的深度信息可以由用户改变。但是,当如图6所示使用深度信息加法器325′时,深度信息加法器325′通过将深度信息加到数据上可以更明确地表达立体图像。
尽管图6中未示出,但是也可以包括效果加法器以便与深度信息一起提供附加效果信息给数据,该数据对应于从区域检测器320′转送的立体图像显示区域。附加的效果信息可以包括色彩信息、闪动信息、和声音信息。当与深度信息一起添加色彩信息时,所选择的菜单图标可以被表达为预定色彩的突显立体图像。当与深度信息一起添加闪动信息时,所选择的菜单图标可以被表达为以预定间隔闪动的立体图像。当与深度信息一起添加声音信息时,所选择的菜单图标可以在被表达为立体图像的同时伴有预定声音效果。
数据转换器330′使用从深度信息加法器325′发送的深度信息将与区域检测器320′所检测的立体图像显示区域对应的数据转换成右眼/左眼数据,并且将所转换的数据传送到数据组合器340′。连同图4的第一数据转换器330的描述一起详细描述了用于转换数据的方法。因此,不再详述这样的方法。
数据组合器340′通过获得来自数据转换器330’的右眼/左眼数据并且通过依据右眼/左眼像素的排列而排列所获得的数据来组合立体图像数据。组合立体图像数据的方法已经随图4的数据组合器340的描述一起作了详细描述。因此,不再详述这样的方法。
现在,参照图7更详细地描述根据本发明另一实施例的利用3D图像数据实现立体图像用户界面的3D图像数据处理器。
图7图示了根据本发明另一实施例的用于3D图像的数据处理器的配置。
该立体图像数据处理器包括数据路径确定器310″、区域检测器320″、深度信息提取器350″、效果加法器355″、数据转换器360″、数据组合器340″、和多路复用器370″。
响应于立体显示激活信号,数据路径确定器310″接收数据,确定输入数据是否是3D图像数据,并且在接收到3D图像数据时将相应数据传送到区域检测器320″。更详细地,数据路径确定器310″通过使用2D/3D图像标识信号确定输入信号是否是3D图像数据。数据路径确定器310″在接收到3D图像数据时将输入数据传送到区域检测器320″。
区域检测器320″检测在立体图像显示中要被表达的数据,并且将所检测的数据传送到深度信息提取器350″。检测立体图像数据的方法先前已经作了详细描述,因此这里将不再对之进行更详细的描述。
深度信息提取器350″使用在输入3D图像数据中包含的空间信息计算该数据的相应深度信息,并且将计算得到的深度信息传送到数据转换器360″。如图7所示,深度信息提取器350″使用3D图像数据中包含的空间坐标信息计算右眼/左眼数据的相应空间坐标,并且从所计算的相应空间坐标计算深度信息。
在本实施例中,深度信息提取器350″从对于由区域检测器320″检测的数据的相应空间信息之中提取深度信息,然后将所存储的深度信息(其可以是预先确定的)加到所提取的深度信息上。在这种情况下,区域检测器器320″检测的数据与没有由此检测的数据相比较具有不同的深度信息。
效果加法器355″向所检测的数据添加效果(其可以是预先确定的)。这样的预定效果可以包括色彩、闪动或声音效果。当相应的效果分别是色彩效果、闪动效果或声音效果时,效果加法器355″分别将预定色彩信息、闪动信息或声音信息添加到与从区域检测器320″检测的区域对应的数据上。
数据转换器360″接收来自深度信息提取器350″的深度信息和来自效果加法器355″的效果信息。然后,数据转换器360″通过使用所接收的深度信息或效果信息将数据转换成右眼/左眼数据,并且将所转换的数据传送到数据组合器340″。
数据组合器340″通过获得来自数据转换器360″的右眼/左眼数据并且通过依据右眼/左眼像素的排列而排列所获得的数据来组合立体图像数据。
现在,参照图8描述包括根据本发明示例性实施例的立体图像显示设备的移动通信终端。图8图示了包括根据本发明示例性实施例的立体图像显示设备的移动通信终端。
如图8所示,移动通信终端包括显示单元910和主体920。
显示单元910可以包括根据本发明示例性实施例的立体图像显示设备的显示单元100和格栅100′。
主体920包括键盘、通信模块、和控制器。键盘用于输入用户数据,控制器用于发觉和处理该输入数据,而通信模块用于执行移动通信。在这种情况下,控制器可以包括在根据本发明的示例性实施例的立体图像显示设备中使用的数据处理器300、定时控制器800等。如图8所示,移动通信终端将所存储的数据或者所接收的数据转换成立体图像,并且在显示单元910上显示该立体图像。显示单元910可以显示用户界面,尤其是其上部分具有立体图像的用户界面。
根据本发明的示例性实施例,立体图像显示设备可以通过以立体图像实现部分用户界面而以立体图像突显和表达至少部分用户界面。更详细地,在2D图像用户界面中,为所选择的菜单图标添加深度信息,从而可以以立体图像或者以立体图像用户界面表达所选择的菜单图标,为所选择的菜单图标添加不同的深度信息,从而与其它周边部分相比所选择的菜单图标被突显。
此外,根据本发明的示例性实施例,通过以立体图像表达用户界面的菜单树,立体图像显示设备使得用户可以直接选择末端菜单而无需顺序经过主菜单和中间菜单。这样,立体图像显示设备可以具有改进的或更方便的用户界面。
现在,参照图9和图10描述根据本发明示例性实施例的用户界面的菜单树结构。
图9图示了常规用户界面的菜单树结构。图10图示了根据本发明示例性实施例的用户界面的菜单树结构。
在图9所示的菜单树结构中,为了在主菜单项屏幕中选择末端菜单项,必须顺序选择主菜单项选择屏幕、中间菜单项选择屏幕、和末端菜单项选择屏幕。此外,为了在末端菜单项之后选择主菜单项,则必须再次选择居中的(或中间的)菜单项选择屏幕,然后必须选择主菜单项。然而,在如图10所示的根据本发明示例性实施例的菜单树结构中,可以直接选择末端菜单项,而无需顺序选择主和中间菜单项选择屏幕,这是因为该菜单树是以立体图像表达的。如图10所示,将高、中、和低深度信息分别应用到主、中间、和末端菜单项上。
可以根据预定条件改变图10的用户界面中所应用的深度信息。例如,通过转动图10屏幕中的相机观察点可以在右侧观察用户界面。在这种情况下,可能第n末端菜单将被放置得离用户最近。因而,必须增加第n末端菜单的深度信息同时必须减少主菜单的深度信息。在这种情况下,用户不需要选择主菜单以选择中间菜单或末端菜单。即,用户通过转动相机观察点可以直接选择中间菜单或末端菜单。因而,根据本发明的示例性实施例,能够实现立体图像用户界面的立体图像显示设备可以设计得更方便于用户。
如上所述,当已经以2D图像实现了用户界面时,根据本发明示例性实施例的具有立体图像用户界面的立体图像显示设备可以以立体图像表达部分用户界面。因而,根据本发明示例性实施例的立体图像显示设备可以通过以立体图像表达部分用户界面为用户提供更可识别和方便的立体图像用户界面。此外,当用户界面数据是3D图像数据时,根据本发明示例性实施例的立体图像显示设备可以以立体图像表达至少部分用户界面。此外,根据本发明示例性实施例的立体图像显示设备可以立体地配置菜单树结构以便用户可以直接选择菜单。
虽然已经结合某些示例性实施例描述了本发明,但本领域技术人员应该理解,本发明并不限于所公开的实施例,而是相反,旨在覆盖包括在所附权利要求和其等同的精神和范围内的各种修改。

Claims (16)

1.一种立体图像显示设备,包括:
显示单元,其包括矩阵形式排列的多个像素,各个像素包括在行方向上排列的右眼/左眼像素;
数据处理器,包括数据路径确定器,所述数据路径确定器用于分析输入数据的类型和确定数据处理路径,所述数据处理路径包括用于2D图像数据的第一数据处理路径、用于3D图像数据的第二数据处理路径和用于立体图像数据的第三数据处理路径;以及
数据驱动器,用于将相应于所述立体图像数据的数据信号施加到所述显示单元;
其中,用于2D图像数据的所述第一数据处理路径包括:
区域检测器,用于从多个输入数据中检测分别对应于至少部分像素的、待以立体图像表达的第一数据;和
第一数据转换器,用于将所述第一数据转换成对应于所述右眼/左眼像素的右眼/左眼数据;
其中,用于3D图像数据的所述第二数据处理路径包括:
深度信息提取器,用于使用所述输入数据中包括的3D空间信息从输入数据中提取深度信息;和
第二数据转换器,用于将所述输入数据转换成分别对应于所述右眼/左眼像素的右眼/左眼数据;
其中,所述第一和第二数据处理路径还包括:
数据组合器,用于通过接收来自所述第一数据转换器或所述第二数据转换器的所述右眼/左眼数据并且排列所述右眼/左眼数据来组合立体图像;以及
其中,用于立体图像数据的所述第三数据处理路径直接将所述输入数据传送到多路复用器,所述多路复用器进一步连接至所述数据组合器、并被设置为将所述立体图像传送到所述数据驱动器。
2.如权利要求1所述的立体图像显示设备,其中所述第一数据转换器通过在所述行方向将第二数据从所述像素的相应一个分别右移/左移第一和第二数目个像素而将该第二数据转换成所述右眼/左眼数据,以及其中该第二数据是所述第一数据的至少一部分。
3.如权利要求1所述的立体图像显示设备,其中,用于2D图像数据的所述第一数据处理路径还包括深度信息加法器,用于使用深度信息映射将相应于所述第一数据的深度信息传送到所述第一数据转换器,其中所述深度信息映射包括分别相应于所述第一数据的深度信息。
4.如权利要求2所述的立体图像显示设备,
其中所述第一数据转换器通过在所述行方向上将第二数据从所述像素的相应一个分别右移第一数目个像素而将该第二数据转换成右眼数据,
其中所述第一数据转换器通过在所述行方向上将第二数据从所述像素的相应一个分别左移第二数目个像素而将该第二数据转换成左眼数据,以及
其中依据分别相应于第二数据的深度信息确定该第一数目或第二数目。
5.如权利要求1所述的立体图像显示设备,其中,由所述像素表达的图像形成用户界面。
6.如权利要求5所述的立体图像显示设备,其中,所述第一数据被包括在用户界面的所选区域中。
7.如权利要求5所述的立体图像显示设备,其中,所述区域检测器检测对应于一区域的数据作为第一数据,所述区域包括在其中在该用户界面处用户设置了预定指示机制的位置。
8.如权利要求1所述的立体图像显示设备,其中,所述数据组合器依据多个右眼/左眼像素的排列来排列右眼/左眼数据。
9.如权利要求1所述的立体图像显示设备,其中,所述数据组合器组合从所述第一数据转换的右眼/左眼数据和去除第一数据的第二数据,并且将所组合的数据传送到数据驱动器,以及其中所组合的数据包括立体图像数据。
10.如权利要求1所述的立体图像显示设备,还包括格栅,其具有如此排列的透明区域和不透明区域,使得分别将右眼/左眼图像从右眼/左眼像素传送到右眼方向和左眼方向。
11.如权利要求10所述的立体图像显示设备,其中,所述格栅通过根据所施加的电压改变其排列而将该透明区域或不透明区域转换成透明的或不透明的。
12.如权利要求2所述的立体图像显示设备,其中,由用户改变该第一数目、第二数目或深度信息。
13.一种通信终端,包括:
有线或无线通信设备;
显示单元,用于实现包括至少部分立体图像的用户界面;以及
根据权利要求1-12任一项所述的立体图像显示设备,用于在该显示单元上显示通过该有线或无线通信设备接收的数据或所存储的数据。
14.如权利要求13所述的通信终端,其中,响应于立体图像激活信号,转换预定数据并且以立体图像显示。
15.如权利要求14所述的通信终端,其中,当输入信号或通信终端满足预定条件时生成该立体图像激活信号。
16.如权利要求15所述的通信终端,其中,该预定条件包括其中该移动通信终端接收来自另一有线或无线通信设备的电话呼叫或SMS信号的条件。
CN2006101006265A 2005-06-30 2006-06-30 立体图像显示设备 Active CN1893673B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR57788/05 2005-06-30
KR1020050057788A KR100649523B1 (ko) 2005-06-30 2005-06-30 입체 영상 표시 장치

Publications (2)

Publication Number Publication Date
CN1893673A CN1893673A (zh) 2007-01-10
CN1893673B true CN1893673B (zh) 2012-04-04

Family

ID=36785854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006101006265A Active CN1893673B (zh) 2005-06-30 2006-06-30 立体图像显示设备

Country Status (6)

Country Link
US (1) US8111906B2 (zh)
EP (1) EP1739980B1 (zh)
JP (1) JP2007013914A (zh)
KR (1) KR100649523B1 (zh)
CN (1) CN1893673B (zh)
DE (1) DE602006008537D1 (zh)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340422B2 (en) * 2006-11-21 2012-12-25 Koninklijke Philips Electronics N.V. Generation of depth map for an image
US8558832B1 (en) * 2007-06-19 2013-10-15 Nvida Corporation System, method, and computer program product for generating a plurality of two-dimensional images and depth maps for a scene at a point in time
US8296461B2 (en) * 2007-08-07 2012-10-23 Object Innovation Inc. Data transformation and exchange
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US8531509B2 (en) * 2007-12-27 2013-09-10 Texas Instruments Incorporated Method and system for three-dimensional displays
JP2009246625A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
JP4925354B2 (ja) * 2008-03-31 2012-04-25 富士フイルム株式会社 画像処理装置、画像表示装置、撮像装置及び画像処理方法
JP4386298B1 (ja) * 2008-07-15 2009-12-16 健治 吉田 裸眼立体映像表示装置
WO2010032399A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 立体視映像再生装置、及び立体視映像表示装置
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
JP4802231B2 (ja) * 2008-10-10 2011-10-26 東芝テック株式会社 電子メニュー装置及びそのプログラム
DE102009004820A1 (de) * 2009-01-13 2010-07-15 Adp Gauselmann Gmbh Verfahren zur Darstellung von virtuellen 3-D-Objekten mit einer in einem münzbetätigten Unterhaltungsautomaten angeordneten matrixbasierenden Anzeigeeinheit
JP2010169777A (ja) * 2009-01-21 2010-08-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
KR100989126B1 (ko) * 2009-02-05 2010-10-20 삼성모바일디스플레이주식회사 전자 영상 기기 및 그 구동 방법
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
KR20100099896A (ko) * 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
JP4915456B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2010268431A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
KR101643418B1 (ko) * 2009-05-21 2016-07-27 엘지전자 주식회사 아이콘 표시 방법 및 이를 적용한 이동 통신 단말기
WO2010140866A2 (ko) * 2009-06-05 2010-12-09 엘지전자 주식회사 영상표시장치 및 그 동작방법
CN102804789B (zh) * 2009-06-23 2015-04-29 Lg电子株式会社 接收系统和提供3d图像的方法
EP2448271A4 (en) * 2009-06-24 2015-04-22 Lg Electronics Inc STEREOSCOPIC IMAGE PLAYING DEVICE AND METHOD FOR PROVIDING A 3D USER INTERFACE
US8872900B2 (en) * 2009-06-26 2014-10-28 Lg Electronics Inc. Image display apparatus and method for operating the same
KR20140010171A (ko) * 2009-07-07 2014-01-23 엘지전자 주식회사 3차원 사용자 인터페이스 출력 방법
US8413073B2 (en) * 2009-07-27 2013-04-02 Lg Electronics Inc. Providing user interface for three-dimensional display device
JP5338549B2 (ja) * 2009-08-05 2013-11-13 ソニー株式会社 表示装置及び表示方法
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP4875127B2 (ja) * 2009-09-28 2012-02-15 パナソニック株式会社 三次元画像処理装置
CN105530551B (zh) * 2009-10-16 2019-01-29 Lg电子株式会社 指示3d内容的方法和处理信号的装置
KR20110044573A (ko) * 2009-10-23 2011-04-29 삼성전자주식회사 디스플레이장치 및 그 영상표시방법
US20110102556A1 (en) * 2009-11-03 2011-05-05 Kim Sungdo Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same
JP4733764B2 (ja) * 2009-11-10 2011-07-27 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法
KR101635567B1 (ko) * 2009-11-12 2016-07-01 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101631451B1 (ko) * 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR20110055096A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 휴대용 단말기에서 입체 효과 설정 방법 및 장치
US9307224B2 (en) 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
US20110126160A1 (en) * 2009-11-23 2011-05-26 Samsung Electronics Co., Ltd. Method of providing 3d image and 3d display apparatus using the same
KR20110057629A (ko) 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
KR101634388B1 (ko) * 2009-12-07 2016-06-28 엘지전자 주식회사 이동 통신 단말기에서 방송 데이터를 표시하는 방법 및 이를 적용한 이동 통신 단말기
KR101626310B1 (ko) * 2010-03-25 2016-06-13 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8908015B2 (en) 2010-03-24 2014-12-09 Appcessories Llc Apparatus and method for producing images for stereoscopic viewing
KR101739043B1 (ko) * 2010-04-05 2017-06-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 입체 영상 표시 방법
JP2013530413A (ja) * 2010-04-20 2013-07-25 エントロピック・コミュニケーションズ・インコーポレイテッド 3次元ディスプレイでユーザーインターフェースを表示するためのシステムおよび方法
GB2479784B (en) * 2010-04-23 2012-11-07 Nds Ltd Image scaling
US10194132B2 (en) 2010-08-03 2019-01-29 Sony Corporation Establishing z-axis location of graphics plane in 3D video display
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
KR20120015165A (ko) * 2010-08-11 2012-02-21 엘지전자 주식회사 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기
JP2012060236A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、画像処理方法およびコンピュータプログラム
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
KR101279661B1 (ko) * 2010-11-05 2013-07-05 엘지디스플레이 주식회사 입체 영상 표시장치와 그 전원 제어방법
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
JP2012103980A (ja) * 2010-11-11 2012-05-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
IT1402995B1 (it) * 2010-11-12 2013-09-27 Sisvel Technology Srl Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
EP2461238B1 (en) 2010-12-02 2017-06-28 LG Electronics Inc. Image display apparatus including an input device
JP5025786B2 (ja) * 2010-12-21 2012-09-12 株式会社東芝 画像処理装置、及び画像処理方法
EP2472878A1 (en) * 2010-12-31 2012-07-04 Advanced Digital Broadcast S.A. Method and apparatus for combining images of a graphic user interface with a stereoscopic video
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法
JP5081316B1 (ja) * 2011-06-08 2012-11-28 シャープ株式会社 立体映像表示装置
US9420268B2 (en) 2011-06-23 2016-08-16 Lg Electronics Inc. Apparatus and method for displaying 3-dimensional image
TWI457887B (zh) * 2011-07-19 2014-10-21 Au Optronics Corp 子像素陣列的佈局方法
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
JP6242569B2 (ja) * 2011-08-25 2017-12-06 東芝メディカルシステムズ株式会社 医用画像表示装置及びx線診断装置
KR101841750B1 (ko) * 2011-10-11 2018-03-26 한국전자통신연구원 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법
CN102523467A (zh) * 2011-12-09 2012-06-27 彩虹集团公司 一种2d视频转3d的简易方法
US9786253B2 (en) * 2012-01-25 2017-10-10 Lumenco, Llc Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
WO2013169865A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
EP3185116B1 (en) 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
KR20140016735A (ko) * 2012-07-31 2014-02-10 삼성전자주식회사 3d 영상 변환 방법 및 이를 적용한 디스플레이 장치
TWI495327B (zh) * 2013-02-07 2015-08-01 Au Optronics Corp 顯示裝置及其操作方法
US9798461B2 (en) * 2013-03-15 2017-10-24 Samsung Electronics Co., Ltd. Electronic system with three dimensional user interface and method of operation thereof
KR20140115854A (ko) * 2013-03-22 2014-10-01 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
US9292906B1 (en) * 2013-09-06 2016-03-22 Google Inc. Two-dimensional image processing based on third dimension data
KR102115930B1 (ko) * 2013-09-16 2020-05-27 삼성전자주식회사 디스플레이 장치 및 영상 처리 방법
CN104660900B (zh) * 2013-10-30 2018-03-02 株式会社摩如富 图像处理装置及图像处理方法
EP3082428A4 (en) * 2013-12-09 2017-08-02 Respira Therapeutics, Inc. Pde5 inhibitor powder formulations and methods relating thereto
US9952677B2 (en) 2014-09-08 2018-04-24 Atheer, Inc. Method and apparatus for distinguishing features in data
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN108828774A (zh) * 2018-07-02 2018-11-16 京东方科技集团股份有限公司 虚拟现实显示设备
KR102506873B1 (ko) * 2018-07-18 2023-03-08 현대자동차주식회사 차량 입체 클러스터, 그를 포함한 시스템 및 그 입체 화면 제공 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023277A (en) * 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
CN1496177A (zh) * 2002-09-17 2004-05-12 ������������ʽ���� 具有二维和三维显示功能的电子设备
CN1497923A (zh) * 2002-09-25 2004-05-19 ������������ʽ���� 电子设备
EP1235438B1 (en) * 1999-11-26 2004-09-29 Sanyo Electric Co., Ltd. Method for converting two-dimensional video to three-dimensional video
EP1549084A1 (en) * 2002-08-29 2005-06-29 Sharp Kabushiki Kaisha Device capable of easily creating and editing a content which can be viewed in three-dimensional way

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875034A (en) * 1988-02-08 1989-10-17 Brokenshire Daniel A Stereoscopic graphics display system with multiple windows for displaying multiple images
JP3083635B2 (ja) * 1992-04-03 2000-09-04 日本電信電話株式会社 3次元立体画像/2次元画像共存型表示装置
JPH07114451A (ja) 1993-10-19 1995-05-02 Canon Inc 3次元メニュー選択方法とその装置
JPH0879800A (ja) * 1994-09-06 1996-03-22 Olympus Optical Co Ltd 映像表示装置
JP3459721B2 (ja) * 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP2973867B2 (ja) * 1995-05-26 1999-11-08 日本電気株式会社 視点追従型立体表示装置および視点追従方法
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
EP0817123B1 (en) * 1996-06-27 2001-09-12 Kabushiki Kaisha Toshiba Stereoscopic display system and method
DE19801801C2 (de) * 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JPH10232626A (ja) * 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH1139135A (ja) * 1997-07-22 1999-02-12 Sanyo Electric Co Ltd カーソル表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000078611A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
CN1162681C (zh) * 1999-03-19 2004-08-18 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取系统
JP3619063B2 (ja) * 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
US7477284B2 (en) * 1999-09-16 2009-01-13 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for capturing and viewing stereoscopic panoramic images
EP1098498A1 (fr) 1999-11-04 2001-05-09 Koninklijke Philips Electronics N.V. Appareil comportant un écran pour des images stéréoscopiques
JP2001251403A (ja) 2000-03-07 2001-09-14 Sony Corp 電話装置
JP3983953B2 (ja) * 2000-03-10 2007-09-26 パイオニア株式会社 立体的2次元画像表示装置及び画像表示方法
JP3980242B2 (ja) * 2000-03-10 2007-09-26 パイオニア株式会社 立体的2次元画像表示装置及び画像表示方法
US20040239763A1 (en) * 2001-06-28 2004-12-02 Amir Notea Method and apparatus for control and processing video images
WO2003017680A1 (en) * 2001-08-15 2003-02-27 Koninklijke Philips Electronics N.V. 3d video conferencing system
CA2361341A1 (en) * 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
US20040027267A1 (en) * 2002-03-22 2004-02-12 Rousso Armand M. 3D entertainment system
JP4061473B2 (ja) 2002-04-26 2008-03-19 日本電気株式会社 折り畳み型携帯電話機
JP2004112175A (ja) * 2002-09-17 2004-04-08 Sharp Corp 2d(2次元)及び3d(3次元)表示機能を備える電子機器
JP3700707B2 (ja) * 2003-03-13 2005-09-28 コニカミノルタホールディングス株式会社 計測システム
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
WO2004099965A1 (ja) * 2003-05-07 2004-11-18 Seijiro Tomita 画像表示方法及び装置
KR100561401B1 (ko) * 2003-07-28 2006-03-16 삼성전자주식회사 2차원 및 3차원 영상의 호환이 가능한 다 시점 3차원 영상시스템의 영상표시부
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体
US20050088516A1 (en) * 2003-10-23 2005-04-28 Myoung-Seop Song Display device for both two-dimensional and three-dimensional images and display method thereof
JP2005175566A (ja) * 2003-12-08 2005-06-30 Shinichi Hirabayashi 立体表示システム
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
DE602004004581T2 (de) * 2004-04-19 2008-02-21 Sony Deutschland Gmbh Modulares Projektionssystem für Stereoskopie mit nur einer Lichtquelle und zeitsequentieller Farbsteuerung
US7656403B2 (en) * 2005-05-13 2010-02-02 Micoy Corporation Image processing and display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023277A (en) * 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
EP1235438B1 (en) * 1999-11-26 2004-09-29 Sanyo Electric Co., Ltd. Method for converting two-dimensional video to three-dimensional video
EP1549084A1 (en) * 2002-08-29 2005-06-29 Sharp Kabushiki Kaisha Device capable of easily creating and editing a content which can be viewed in three-dimensional way
CN1496177A (zh) * 2002-09-17 2004-05-12 ������������ʽ���� 具有二维和三维显示功能的电子设备
CN1497923A (zh) * 2002-09-25 2004-05-19 ������������ʽ���� 电子设备

Also Published As

Publication number Publication date
DE602006008537D1 (de) 2009-10-01
CN1893673A (zh) 2007-01-10
KR100649523B1 (ko) 2006-11-27
US8111906B2 (en) 2012-02-07
JP2007013914A (ja) 2007-01-18
EP1739980B1 (en) 2009-08-19
US20070003134A1 (en) 2007-01-04
EP1739980A1 (en) 2007-01-03

Similar Documents

Publication Publication Date Title
CN1893673B (zh) 立体图像显示设备
EP1742491B1 (en) Stereoscopic image display device
JP6046192B2 (ja) 3D映像の提供方法、3D映像の変換方法、GUI提供方法及びこれを適用した3Dディスプレイ装置、そして3D映像の提供システム{Methodforproviding3Dimage、methodforconverting3Dimage、GUIprovidingmethodrelatedto3Dimageand3Ddisplayapparatusandsystemforproviding3Dimage}
US8854531B2 (en) Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
EP2385454B1 (en) Method for displaying a 3D settings menu and corresponding device
EP1742490B1 (en) Stereoscopic image display device
EP1742489B1 (en) Image display device and graphic processor for stereoscopic display of 3D graphic objects
JP6563043B2 (ja) 映像表示システム
CN107710108B (zh) 内容浏览
CN106454307A (zh) 针对多个用户的光场渲染的方法和设备
US9319674B2 (en) Three-dimensional image display device and driving method thereof
US8731279B2 (en) Method and device for generating multi-viewpoint image
CN102183840A (zh) 显示系统和方法
JP2007048293A (ja) 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法
EP3182702B1 (en) Multiview image display device and control method therefor
CN104079913A (zh) 光栅式立体显示器兼容2d-3d显示的子像素排列方法、装置
CN103578392A (zh) 裸眼式立体显示器及其驱动方法
US20140139517A1 (en) Three dimensional image display system and adjusting method thereof
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2005175538A (ja) 立体映像表示装置及び映像表示方法
KR20160051404A (ko) 무안경 입체영상표시장치 및 그 구동방법
KR101639310B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR100670152B1 (ko) 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR101742230B1 (ko) 입체시 검사 장치 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20090109

Address after: Gyeonggi Do, South Korea

Applicant after: Samsung Mobile Display Co., Ltd.

Address before: Gyeonggi Do, South Korea

Applicant before: Samsung SDI Co., Ltd.

ASS Succession or assignment of patent right

Owner name: SAMSUNG MOBILE DISPLAY CO., LTD.

Free format text: FORMER OWNER: SAMSUNG SDI CO., LTD.

Effective date: 20090109

C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: SAMSUNG DISPLAY CO., LTD.

Free format text: FORMER OWNER: SAMSUNG MOBILE DISPLAY CO., LTD.

Effective date: 20121017

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20121017

Address after: Gyeonggi Do, South Korea

Patentee after: Samsung Display Co., Ltd.

Address before: Gyeonggi Do, South Korea

Patentee before: Samsung Mobile Display Co., Ltd.