CN102763420B - 深度相机兼容性 - Google Patents
深度相机兼容性 Download PDFInfo
- Publication number
- CN102763420B CN102763420B CN201180007815.7A CN201180007815A CN102763420B CN 102763420 B CN102763420 B CN 102763420B CN 201180007815 A CN201180007815 A CN 201180007815A CN 102763420 B CN102763420 B CN 102763420B
- Authority
- CN
- China
- Prior art keywords
- depth
- depth image
- camera
- virtual
- depth camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N2013/40—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
- H04N2013/405—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
Abstract
通过接收具有与深度图像消费者不兼容的不支持深度相机参数的本机深度图像并将该本机深度图像转换成具有与该深度图像消费者相兼容的支持的虚拟深度相机参数的虚拟深度图像来提供深度图像消费者和多个不同的深度图像生产者之间的兼容性。随后,可以将这种虚拟深度图像输出给所述深度图像消费者。
Description
背景技术
相机可用于捕捉场景的静止图像。快速连续拍摄的若干静止图像可用于生成包括多个帧的电影,每一帧对应于不同的静止图像。尽管这样的图像在各种不同的应用中是非常有用的,但这样的图像并非很好地适于某些目的。具体而言,常规的静止图像和电影不提供足以准确地评估在场景中所捕捉的各种表面的相对深度的信息。已经开发了不同类型的深度相机以满足这种需求。然而,各种不同类型的深度相机可能产生在一个或多个方面都彼此不同的深度图像。这样,使用深度图像的应用仅仅与产生具有期望特性的深度图像的特定类型的深度相机相兼容。
发明内容
提供本发明内容以便以简化形式介绍将在以下详细描述中进一步描述的一些概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
根据本公开的一个方面,可以通过接收具有与深度图像消费者不兼容的不支持深度相机参数的本机深度图像并将该本机深度图像转换成具有与该深度图像消费者相兼容的支持的虚拟深度相机参数的虚拟深度图像来提供深度图像消费者和多个不同的深度图像生产者之间的兼容性。随后,可以将这种虚拟深度图像输出给所述深度图像消费者。
附图说明
图1示出示例的深度图像使用环境。
图2示出根据本公开的一实施例的深度相机可交替系统。
图3A和3B图解示出深度相机视锥体。
图4A-4C示出根据本公开的示例深度图像生产者。
图5示出用于提供在一个深度相机消费者和多个不同的深度相机生产者之间的兼容性的示例方法。
图6示出提供深度相机兼容性的另一示例方法。
图7图解示出在离开光源一定距离处的传感器上所创建的阴影效果的示例。
图8图解示出说明通过阴影合成算法查找附有阴影的像素的示例图示。
图9图解示出在深度抽象层内的示例图像处理块。
图10更加详细地图解示出了图9的示例图像处理块。
图11示意性地示出根据本公开的一实施例的计算系统。
具体实施方式
本公开涉及深度相机兼容性。如在此所述,兼容性技术允许同一计算系统使用不同型号的深度相机。一个应用开发者可以容易地创建与各种不同的深度相机相兼容的应用,这些深度相机包括在应用开发者创建应用时还不存在的深度相机。根据本公开的一个方面,应用开发者可以创建被配置为与通用虚拟深度相机一起工作的应用,并且兼容性技术可以将来自各种不同的深度相机的本机输入转换成一种与通用虚拟深度相机相兼容的形式。这样,应用可以与各种不同的深度相机相兼容,包括使用完全不同的深度查找技术(例如结构化光、飞行时间、立体视觉等)的深度相机。
使用在此所述的技术,应用开发者不需要知晓用于支持各种不同的深度相机的乏味且艰难的工作,代之以可以为单个通用虚拟深度相机进行开发。同时,兼容性技术促进了可以提供改进性能、更低制造和/或操作成本、改进的能量效率和/或其他有用特性的新的深度相机的开发和实现。这样,当开发了新的相机技术时,这种技术就能在与先前开发的应用向后兼容的新相机中实现。
图1示出计算系统10的非限制性示例,该计算系统可以设计具有提供如上所介绍的相机兼容性的深度相机可交替系统。具体而言,图1示出了游戏控制台12,该游戏控制台12可以用于玩各种各样不同的游戏、播放一种或多种不同的媒体类型、和/或控制或操纵非游戏应用。图1还示出高清电视(即或HDTV 16)形式的显示器14,该显示器14可被用于向用户(诸如,用户18)呈现视觉信息。此外,图1示出了深度相机20形式的捕捉设备,该捕捉设备可被用于视觉地监视一个或多个用户(例如,用户18)。虽然是在游戏系统上下文中描述的,但应该理解可以在配置用于使用来自深度相机的深度图像的几乎任意计算系统中实现深度相机可交替系统。
诸如游戏控制台12的计算系统可以用于识别、分析和/或跟踪诸如用户18之类的一个或多个目标。可将目标移动解释为操作系统和/或应用控制。事实上,操作系统和/或应用的任何可控方面可以通过用户18之类的目标的移动来控制。
另外或可替换地,通过深度相机20获取的深度信息可以用于除跟踪目标之外的目的。作为示例,深度相机20可以被用于可视地调查一个房间和/或一个或多个物体。从深度相机20获取的深度信息可以被用于创建正被调查的房间和/或物体的三维计算机可读的模型。
作为另一个示例,可以将深度相机用作在诸如车辆或机器人之类移动的计算系统上的近程传感器。
诸如深度相机20之类的深度相机可以被用于提供这些和各种其他有用的功能。具体而言,可以为提供任意数目的不同的利用来自深度相机的深度信息的功能而开发和部署应用。然而,大多数应用包括用于减少来自深度相机的视场的真实世界的特性的复杂的算法和处理策略。例如,骨骼跟踪算法和处理策略可以被用于用跟踪诸如用户18的目标的骨骼的机器表示来建模该目标。作为另一个示例,地板查找算法可以被用于查找场景中的地板。
没有使用在此所述的相机兼容性技术的应用可以被设计为接收特定格式和/或具有特定参数的深度信息。这种应用不能使用与所期望的格式和/或参数不匹配的深度信息。在一些情况中,与所期望的格式和/或参数不匹配的深度信息可能破坏这样的应用。
每种不同类型的深度相机可以产生具有一个或多个格式化差异和/或不同的参数的深度信息。这样,直到现在,应用是考虑针对特定深度相机来设计的。然而,当应用被设计成仅与一个特定深度相机一起使用,该应用也就不能支持可以以未知格式和或用意料之外的参数来输出深度信息的新相机。
图2图解地示出了提供在一个深度图像消费者32和多个不同的深度图像生产者34(例如深度图像生产者34a、深度图像生产者34b以及深度图像生产者34c)之间的兼容性的深度相机可交替系统30。如在此所用,深度图像消费者是指被配置为利用来自深度相机的深度信息的任意操作系统、应用、服务、进程、模块、引擎或其他对象。
深度相机可交替系统30相对于深度图像消费者可以使用的深度相机的型号提供了更多的灵活性。具有不同参数的相机、基于不同的深度查找技术的相机以及产生不同类型的深度图像的相机可以可交替地与深度相机可交替系统30一起使用。
作为示例,深度图像生产者34a可以包括使用结构化光技术来估计深度图像的深度相机;并且深度图像生产者34b可以包括使用飞行时间技术来估计深度图像的深度相机。由于深度相机可交替系统30,这两个相机都与深度图像消费者32相兼容。深度图像消费者32不需要针对与这两个相机中的任一个相机的兼容性而特别设计。可以在这两个相机中的任一个相机发布之前开发深度图像消费者32。换句话说,深度相机可交替系统30促进了深度图像消费者和各种不同的深度相机(包括在深度图像消费者开发之后所开发的深度相机)之间的兼容性。
如图2所示,深度相机可交替系统30包括初始化模块36、捕捉模块38、虚拟化模块40以及输出模块42。在至少一些实施例中,深度相机可交替系统30的初始化模块、捕捉模块、虚拟化模块、输出模块和/或其他组件可以被实现为应用编程接口(API)的一部分。API可以由操作系统、应用、库和/或其他对象实现以建立在深度图像生产者和深度图像消费者之间使用的通信约定。API可以包括用于在深度图像生产者和深度图像消费者之间通信的例程、数据结构、对象类和协议的规范。而且,API可以包括功能块或与功能块对接,所述功能块被配置为处理深度图像的各个方面,例如,如下参考虚拟化模块40和仿真模块44所描述的。
初始化模块36可以被配置为了解诸如深度图像消费者32之类的深度图像消费者所支持的虚拟深度相机参数。为了允许这样的了解,可以开发诸如骨骼跟踪游戏应用之类的深度图像消费者以与除了特定深度相机(例如特定构造和型号的结构化光深度相机)之外的或取代特定深度相机的虚拟深度相机相兼容。在这种实例中,深度图像消费者可以被配置为提供深度图像消费者所期望的虚拟深度相机参数的指示(例如x-y-z分辨率、视锥体、深度图像类型等)。而且,初始化模块可以被配置为从深度图像消费者接收所支持的虚拟深度相机参数的指示。如上所述,初始化模块可被可选地实现为API的一部分,深度图像消费者和深度图像生产者可以使用它来彼此通信。
所支持的虚拟深度相机参数的指示可以指定虚拟深度相机的期望视锥体和/或虚拟深度相机的期望分辨率。这样的期望的视锥体和/或期望分辨率可以不同于特定深度相机的本机视锥体和本机分辨率。所支持的虚拟深度相机参数的指示可以指定虚拟深度相机所基于的实际深度相机的型号。下面的描述概述了初始化模块36可以了解的不同参数的非限制性采样。
深度相机通常在每个像素处测量从最近的表面到深度相机传感器的径向距离。通过从深度相机沿光线将该距离投射入建模真实世界的三维空间中,可以将这个距离转换成世界坐标。这种处理产生了不存在紧密的线性边界的三维样本区域。实际上,这些点由深度相机的视锥体(在两个同心球体的两个三维弧之间所捕获的空间(假设没有透镜畸变))来划界。图3A示出示例深度相机48的示例视锥体46。
由深度相机可测量的景深来确定同心球体的位置。较小的同心球体具有等同于该深度相机的最小可测量距离的半径,而较大的同心球体具有等同于该深度相机的最大可测量距离的半径。在空间中的三维弧的大小由该深度相机的视野(例如视角)来确定。深度相机的视锥体的位置和方向由深度相机的物理位置和物理朝向来确定。在视锥体中包括了多少不同的像素是由该深度相机的分辨率来确定的。深度的敏感度(分辨率)取决于作为来自该深度相机的输出而被接收的每像素的位数。然而,实际的敏感度可能更低。
参数(例如景深、视野、分辨率、位置、方向、透镜畸变等)对于不同的相机来说可以是不同的。在相机之间的参数中的差异可以造成困难,因为深度图像消费者对于这种差异可以是高度敏感的。这样,取代为接收来自具有某种深度相机参数的特定深度相机的深度图像来进行开发,可以开发深度图像消费者以与具有虚拟深度相机参数的虚拟深度相机相兼容。如下所述,深度相机可交替系统可以根据虚拟深度相机的虚拟参数有效地转换从实际相机接收到的深度信息,这样,深度图像的消费者可以使用来自实际相机的深度信息。
在一些实施例中,可以配置初始化模块36以生成瞄准指令37来方便瞄准与深度图像消费者的所支持的虚拟深度相机参数相兼容的深度相机。作为示例,深度图像消费者可能期望一个向下朝着地板瞄准的深度相机,以便扫描用户的脚。这样,可以生成瞄准指令以传达该期望。在深度相机包括定位电动机或其他自动重定位其自身的装置(例如深度图像生产者34c的深度相机)的实施例中,初始化模块可以被配置为向深度相机发送瞄准指令,以便深度相机可以根据该瞄准指令重定位自己。在一些实施例中,可以通过视觉和/或音频指令将瞄准指令传递给用户,以便用户手动重定位深度相机。
在一些实施例中,可以将坐标系统抽象化,以便深度图像消费者将接收具有期望坐标系统的深度图像。在一些实例中,这可能涉及通过使用测量视线的硬件或通过测量地板相对于相机的角度来旋转坐标系统以与地板(例如)对齐。
捕捉模块38可被配置为接收来自深度图像生产者的本机深度图像。作为一个非限制性示例,捕捉模块可以接收来自包括飞行时间相机的深度图像生产者的本机深度图像。如上所述,捕捉模块可被可选地实现为API的一部分,深度图像消费者和深度图像生产者可以使用它来彼此通信。
深度图像生产者可以仅包括深度相机,或者深度图像生产者可以包括深度相机以及板外(off-board)处理引擎。如图4A所示,深度图像生产者34′可以包括相机上处理器52,它被配置为将原始深度数据(未示出)转换成本机深度图像54。在这样的情况下,可以配置捕捉模块38’来通过相机上处理器52接收本机深度图像54。如图4B所示,深度图像生产者34”可以包括相机外处理器56,它将原始深度数据60转换成本机深度图像54”。相机外处理器56可以是其上运行了深度图像消费者32”的计算系统10”的一部分。在这样的情况下,可以配置捕捉模块38”来通过相机外处理器56接收本机深度图像。如图4C所示,深度图像生产者34”’可以包括相机上处理器52”’和相机外处理器56”’,它们合作以将原始深度数据(未示出)转换成本机深度图像54”’。在这样的情况下,可以配置捕捉模块38”’以通过相机上处理器52”’和相机外处理器56”’接收本机深度图像54”’。具体而言,相机上处理器52”’可以向相机外处理器56”’传递已经相对于原始深度相机数据被部分处理过的中间数据62。如在图4B的示例中,相机外处理器56”’可以是其上运行例如深度图像消费者32”’的计算系统10”’的一部分。
转回到图2,可以配置虚拟化模块40以将本机深度图像转换成具有与所述深度图像消费者相兼容的所支持的虚拟深度相机参数的虚拟深度图像。具体而言,可以配置虚拟化模块以根据通过初始化模块从深度图像消费者接收的虚拟参数的指示将本机深度图像转换成虚拟深度图像。虚拟化模块可以可选择地被实现为API的一部分或作为与深度图像消费者和深度图像生产者用于通信的API相兼容的应用或服务。
作为一个示例转换,可以配置虚拟化模块40以通过剪辑本机深度图像的视锥体来将本机深度图像转换成虚拟深度图像。在图3B中稍微图解示出了这种转换的一个示例。以实线示出了虚拟视锥体70。可以由虚拟深度相机参数来指定虚拟视锥体70。在同一视图中所叠加的是实际深度相机74的本机视锥体72。本机视锥体72以虚线示出。通过比较可以看出,本机视锥体72具有比虚拟视锥体70更宽的视野和更深的景深。这样,本机视锥体72不能与期望虚拟视锥体70的深度图像消费者相兼容。
虚拟化模块可以剪辑本机视锥体到虚拟视锥体。换句话说,可以从深度图像中移除由深度相机74读取的位于虚拟视锥体的视野和/或景深之外的深度信息。在一些实施例中,所移除的信息可以简单地被忽略,而保持虚拟视锥体中的深度信息不变。在一些实施例中,所移除的深度信息可以被用于有选择地修改虚拟视锥体中的深度信息。
作为另一个示例转换,可以配置虚拟化模块40以通过改变本机深度图像的分辨率(例如降低本机深度图像的分辨率)来将本机深度图像转换成虚拟深度图像。虚拟化任意重采样算法可被用于改变分辨率。作为非限制性示例,可以使用最近-邻居算法,其中具有希望分辨率的采样网格与来自实际深度相机的深度图像概念上对齐。采样网格的每个采样像素可以分配来自实际深度相机的与该采样像素最近的像素的深度值。作为其他非限制性示例,重采样算法可以取最近像素的平均或距离加权平均。
上述提供的剪辑视锥体和改变分辨率的示例是非限制性的。应该理解,可以将深度图像消费者设计为期望具有任意数目的不同虚拟参数的虚拟相机,并且可以根据这样的参数来转换实际深度图像以便实现与深度图像消费者的虚拟深度相机的兼容。
转回图2,在一些实施例中,虚拟化模块40可以包括仿真模块44,该仿真模块44被配置为通过将本机深度图像处理为具有深度图像消费者所支持的支持类型的仿真深度图像来将本机深度图像转换为虚拟深度图像。换句话说,深度图像消费者可以被设计为期望使用特定型号的深度相机和/或特定深度获取技术(例如结构化光或飞行时间)来创建的深度图像。当来自不同类型的深度相机的深度图像最终产生其中每个像素被分配了一个深度值的深度图像时,所述不同类型的深度相机之间的差异可以导致被分配给每个像素的深度值之间的各种差异。可以设计深度图像消费者来处理来自特定深度相机的特定类型的深度图像。这样,可以配置仿真模块44以将来自不支持的深度相机的深度图像改变为看上去好像其源自支持的深度相机。
例如,仿真模块44可以将来自飞行时间深度相机的本机深度图像转换成仿真由结构化光深度相机所产生的深度图像的仿真深度图像。这个示例是非限制性的。可以配置仿真模块44以将来自几乎任意相机技术的本机深度图像转换成仿真由几乎任意其他类型的相机技术所产生的深度图像的仿真深度图像。
当仿真模块44可以是一些实施例中的虚拟化模块40的一部分时,应该理解在此所述的仿真技术可以独立于诸如视锥体剪辑和/或分辨率改变的任意其他虚拟化技术来执行。在任一情况下,仿真模块44可以可选地被实现为API的一部分或作为与深度图像消费者和深度图像生产者用于通信的API相兼容的应用或服务。
当包括仿真模块时,仿真模块可以包括下述一项或多项:噪声抑制模块80、边缘增强模块82、无效模块84、深度量化模块86、小物体校正模块88以及阴影模拟模块90。
噪声抑制模块80可被配置为保持本机深度图像中具有不同深度值的邻近像素区域之间的深度边缘。下面参考图6的118详细描述噪声抑制模块80的功能性。
边缘增强模块82可被配置为增强本机深度图像中具有不同深度值的邻近像素区域之间的深度边缘。下面参考图6的126详细描述边缘增强模块82的功能性。
无效模块84可以被配置为无效在预定范围之外的具有组合的照明度和倾斜度的像素。下面参考图6的120-124详细描述无效模块84的功能性。
深度量化模块86可被配置为量化深度值。下面参考图6的128详细描述深度量化模块86的功能性。
小物体校正模块88可被配置为将更深的深度值分配给属于在阈值大小之下的物体的像素。下面参考图6的130详细描述小物体校正模块88的功能性。
阴影模拟模块90可被配置为将阴影像素值分配给基本上由与飞行时间深度相机基本上隔开的虚拟照明器的虚拟有利位置所封闭的像素。下面参考图6的132详细描述阴影模拟模块90的功能性。
虚拟化模块40将来自实际深度相机的本机深度图像转换为具有与深度图像消费者相兼容的所支持的虚拟深度相机参数的虚拟深度图像。输出模块42被配置为将这个虚拟深度图像输出给深度图像消费者。随后,深度图像消费者可以接收虚拟深度图像以用于分析和/或进一步处理。输出模块可被可选地实现为API的一部分,深度图像消费者和深度图像生产者可以使用它来彼此通信。虽然初始化模块36、捕捉模块38、虚拟化模块40以及输出模块42在以上是作为分离的模块来描述的,但应该理解,这些模块中的两个或更多模块可以在操作上组合到一个公共API中。
图5示出用于提供在一个深度相机消费者和多个不同的深度相机生产者之间的兼容性的方法100。方法100可使用例如图2的深度相机可交替系统30来实现。
在102,方法100包括接收所支持的虚拟深度相机参数的指示。如上所述,虚拟深度相机参数可以指定虚拟深度相机的视锥体、虚拟深度相机的分辨率、虚拟深度相机所基于的实际深度相机的型号和/或虚拟深度相机的其他特性。
在104,方法100包括接收具有与深度图像消费者不兼容的不支持的深度相机参数的本机深度图像。在106,方法100包括将本机深度图像转换为虚拟深度图像,所述虚拟深度图像具有与深度图像消费者相兼容的所支持的虚拟深度相机参数。如上所述,转换本机深度图像可以包括下述一项或多项:剪辑本机深度图像的视锥体、减少本机深度图像的分辨率和/或将本机深度图像处理成具有由深度图像消费者所支持的支持类型的仿真深度图像。
在108,方法100包括将虚拟深度图像输出到深度图像消费者。由于虚拟深度图像被特别针对所支持的虚拟深度相机参数进行了定制,深度图像消费者可以使用所述虚拟深度图像。然而,由于方法100可以应用到来自不同的深度相机的各种不同的本机深度图像,深度图像消费者并没有被局限于接收来自单个特定类型的深度相机的深度图像。
图6示出提供深度相机兼容性的另一方法110。在112,方法110包括从深度图像消费者接收该深度图像消费者所支持的虚拟深度相机参数。这包括,例如,接收与深度图像消费者相兼容的模型深度相机(例如结构化光深度相机)的指示。
在114,方法110包括接收具有深度图像消费者所不支持的不支持类型的本机深度图像。例如,本机深度图像可以来自源,而不是模型深度相机。这样,本机深度图像可能与深度图像消费者不兼容并具有不支持的类型。继续上面介绍的示例,深度图像消费者可以支持来自结构化光深度相机的深度图像。然而,可以从诸如飞行时间深度相机之类的另一个源处接收本机深度图像,并且因此,该本机深度图像具有深度图像消费者不支持的类型。
在116,方法110包括将本机深度图像处理成具有深度图像消费者所支持的支持类型的仿真深度图像。换句话说,可以修改仿真深度图像以仿真与深度图像消费者相兼容的深度图像,例如由模型深度相机产生的深度图像。继续上面介绍的示例,例如,从飞行时间相机接收的本机深度图像可以被处理成仿真深度图像,该仿真深度图像仿真了由结构化光深度相机所产生的深度图像。
如图6所示,将本机深度图像处理成仿真深度图像可以利用各种技术,如下将详细描述的那样。应该理解的是这样的技术并不是限制性的。而且,也可替换地或另外地应用在图6中未示出的其它技术。
在118,方法110可以包括将边缘保持滤波器应用于本机深度图像。在处理从飞行时间深度相机所接收的本机深度图像的情况下,这样的本机深度图像可以具有随机噪声,所述随机噪声是飞行时间深度相机的标准副产品。然而,结构化光深度相机本身具有更加平滑的信号,并且这样的信号甚至可以在软件中进一步过滤。这样,为了仿真这种类型的更平滑的信号,从飞行时间深度相机所接收的本机深度图像可以被处理以抑制来自飞行时间深度图的噪声而无需损害显著的深度特征。为了这样做,可以使用边缘保持滤波器来抑制来自本机深度图像的噪声。例如通过使用在Perona-Malik的著作(使用各向不均扩散的缩放空间和边缘检测,关于图案分析和机器智能的IEEE会报,v.12n.7,p.629-639,1990)中所描述的那些内容的非线性部分差分方程以及Weickert等人(J.Weickert,B.M.ter Haar Romeny,M.A.Viergever,用于非线性扩散滤波器的效率和可靠性方案,IEEE会报,图像处理,v.7n.3,pp.398-410,1998)来使用任意适合的方案。可以将边缘阈值参数设定到相机的深度准确度的上限(例如K=10[cm])。通过将边缘保持滤波器应用到本机深度图像上,本机深度图像中的噪声等级可以显著下降,而本机深度图像中物体之间的断开性也能很好地被保留。
继续图6,在120,方法110可以包括通过在照明图像(例如当从IR光检测到用于照明飞行时间分析中的场景时)上实施中值滤波器来构建置信图。在处理从飞行时间深度相机所接收的本机深度图像来仿真结构化光深度相机的深度图像的情况下,这样的置信图可以被用于仿真在结构化光深度相机中发生的像素无效现象。在结构化光技术中,通过查找图案匹配来计算深度;如果找到匹配,则可以相对准确地计算深度,然而如果找不到匹配,则不能计算深度且在该像素处的测量无效。在飞行时间技术中,通常可以在各处测量深度,但以不同的准确度(例如取决于照明等级)来测量。这样,在飞行时间深度图像中的照明等级可以容易地预测在哪里深度测量是不准确的(例如所述信号在阴暗区域中有太多噪声),从而仿真结构化光深度图像。为了这样做,可以使用照明图像作为输入来构建置信图。通过首先在照明图像上实施中值滤波器以移除轮廓并抑制噪声来构建所述置信图。随后,对于每个像素,可以使用软阈值函数,例如
其中,参数k可以在相机版本间变化。作为示例,在一些实施例中k可以被设为60。
除了构建置信图之外,还期望标识图像中的其他区域。这样,在122,方法110可以包括从本机深度图像中构建斜面图(oblique surface map)。在处理从飞行时间相机接收的本机深度图像以仿真结构化深度相机的深度图像的情况下,通过标识很可能对应于图案匹配困难的区域来进一步仿真在结构化深度相机中发生的像素无效现象。由结构化光照明设备所投影的图案可以涂抹在倾斜物体上(即相对于照明光线的锐角的表面),并且在那图案匹配经常失败并产生无效测量。因此,从飞行时间深度相机接收的本机深度图像可以通过构建斜面图来标识倾斜表面来处理。这可包括计算每个像素的世界表面角,例如,使用诸如视野和分辨率之类的相机参数并随后通过高斯滤波来对其平滑。而且,可以使用软阈值函数,例如如上定义的Fk,其中k=45。
在124,方法110可以包括将置信图和斜面图统一成无效测试图。在置信图和斜面图都具有在0到1之间的值时,可例如通过将这两个图相乘并以0.5的阈值来进行限阈来统一这两个图。可以使用中值滤波器来规范结果。这种处理可以被用于使位于预定范围之外的像素无效。
继续图6,在126,方法110可以包括用本机深度图像中不同的深度值来增强在邻近像素区域之间的边缘。在处理从飞行时间深度相机接收的本机深度图像的情况下,这样的飞行时间深度相机趋向于模糊边缘,因为在这种技术中计算的深度值是在像素视野中的深度的平均。然而,在边缘上的结构化光深度相机的深度通常不被测量,并且数据被合成,从而创建物体之间的锐转变。这样,为了仿真来自结构化光深度相机的深度图像,可以处理来自飞行时间深度相机的本机深度图像来用不同的深度值增强邻近像素区域之间的边缘以使得边缘更加锐利。对于这样的边缘增强,可以使用任意适合的方案,并且一个这样的适合方案将在下面详细描述。
可以为一个像素计算在x方向中的前向差异D+和后向差异D-。随后,可以如下确定掩码:Mask_x=1if(min(D+,D-)>4cm),0 otherwise,通过弯曲倾斜(ramp)以避免台阶边缘。随后可以在y方向上完成类似的计算以完成Mask_y。那么,对于每个像素,Mask_x或Mask_y中任一个==1,则取3x3邻居中的最大值。
继续图6,在128,方法110可以包括量化深度值。在处理从飞行时间深度相机接收的本机深度图像的情况下,深度值被量化以仿真从结构化光深度相机接收的深度图像。结构化光技术是基于三角测量来计算所述深度。所述深度是图案位移的函数,因为本机传感器分辨率是有限的,因此它被量化。在飞行时间技术中,深度测量不涉及本机分辨率。这样,可以期望将量化效果结合到经转换的深度图中。这可以按任何合适的方案完成。一种这样的合适方案包括取结构化光深度相机的参数(例如视野、本机传感器分辨率、焦距、传感器和照明中心之间的距离)以及深度图来构造类似于在基于三角测量的相机中出现的公式相类似的非线性量化公式。作为示例,可以如下将像素中的转换T定义为深度D的函数,
T(D)=INT(focal_length*(camera_illum/D+TAN(angle))/pixel_size+0.5)
,(T(D)=INT(焦距*(相机_照明/D+TAN(角度))/像素大小+0.5))
其中,focal_length是结构化光深度相机的焦距,pixel_size是传感器像素大小,camera_illum是相机传感器和照明中心之间的距离,而angle是物体相对于垂直于相机传感器中心的线的角度。那么,作为转换T(D)的函数的量化Q可以如下描述,
Q(T)=camera_illum/((T)*pixel_size/focal_length-TAN(angle))
-camera_illum/((T+1)*pixel_size/focal_length-TAN(angle)).
(Q(T)=相机_照明/(T)*像素大小/焦距-TAN(角度)))
-相机_照明/(T+1)*像素大小/焦距-TAN(角度))
这样,深度图具有与结构化光技术中的三角测量计算所创建的深度相类似的方式经量化的深度。
继续图6,在130,方法110可以包括将更深的深度值分配给属于在阈值大小之下的物体的像素。在处理从飞行时间深度相机接收的本机深度图像的情况下,更深的深度值可以被分配给小物体的像素以仿真从结构化光深度相机接收的深度图像。结构化光深度相机是基于图案,该图案不能被很好地投射到那些太小的物体上。因此,这样的小物体通常被分配给背景深度值。可以以任何适合的方式将更深的深度值分配给小物体的像素。一种这样的方案包括执行形态闭合。这样,结构化元素取决于分辨率。作为示例,可以使用具有大约3x3大小的球状元素。这样,可以校正在深度图像中可以观察到的最小物体大小,并且效果类似于在结构化光深度相机中实现的后期处理。
继续图6,在132,方法110可以包括将阴影像素值分配给在空间上虚拟地离开飞行时间深度相机的虚拟照明器的虚拟有利位置所虚拟阻塞的像素。在处理从飞行时间深度相机接收的本机深度图像的情况下,分配阴影像素值以仿真从结构化光深度相机接收的深度图像。如上所述,结构化光深度相机在三角测量的原理上工作。由于这个事实,光源与传感器相间隔,并且在相机的传感器上创建“阴影”效果。这样,“阴影像素”是对于传感器可见但从光源的位置来看不是直接可见的像素,如图7所示。在此,第一物体140阻塞第二物体142接收来自光发射器144的直射光。这样,除了接收第一物体140的图像146和第二物体142的图像148之外,传感器150还接收第二物体142的阴影像素152。
这样,可以期望在从飞行时间深度相机所接收的本机深度图像中模拟这种“阴影”人工产物。应该理解,由于在传感器和周围的发射器之间的小距离,在飞行时间深度相机中已经出现了阴影效果,然而,这可以在相机中归一化,并且因此,所述阴影效果在所产生的深度视频中不可见。
一种用于合成阴影的示例使用了轻量算法。该算法在光发射器将位于模型深度相机中的相同位置处创建虚拟相机。随后,该算法将深度采样从原始传感器转换成该虚拟传感器。这种转换可使用下述公式来完成:
被封闭在这个虚拟传感器中的采样被阴影化。扫描“发射器x图像”的每个行,并且如果像素不具有在已经扫描的值中的最大的X发射器图像值,则阴影化这些像素。图8示出由于在值X世界中下跌,阴影像素152被考虑为阴影化的理念。
为了克服由于深度测量的不准确性带来的某些小波动,可以向“阴影像素”的图应用形态“开放”滤波。该步骤移除了小的阴影,并且使得边缘看起来更加像方形,这样,仿真了来自结构化光深度相机的边缘。
继续图6,在134,方法110包括输出具有支持类型的仿真深度图像。这种仿真图像可以被不能处理来自深度相机的本机深度图像的深度图像消费者所使用。使用上述示例,设计成处理来自结构化光深度相机的结构化光深度图像的应用可以基于使用飞行时间深度相机所测量的本机深度图像来接收并处理仿真深度图像。
图9是示出在深度抽象层中的示例图像处理块160的高级实现图表。图10更加详细地示出了图9的图像处理块160。如图9和10所示,图像处理块160可以接收原始深度图、与IR照明图像相关的信息以及深度相机参数以作为输入。图像处理块可以输出可由深度图像消费者使用的经抽象的仿真深度图像162,如上所述。
如下面参考图1所述,可以使用各种不同的计算系统,而不偏离本公开的精神。参考图1描述的操作环境是作为示例来提供的,但并不意味着以任何方式来进行限制。相反,所示出的操作环境旨在展示可以在不背离本公开的范围的情况下应用于各种各样不同的操作环境的一般概念。类似地,图2中所说明的深度相机可交替系统的图解描述提供了用于描述深度图像虚拟化和深度图像仿真的简化框架,但并不旨在将本申请仅仅局限于在附图中所示出的这些配置。相反,在此所述的方法和过程可以绑定到各种不同类型的计算系统。
图1示出非限制性的示例计算系统,该计算系统可被配置为实现具有游戏控制台12和深度相机20的深度相机可交替系统。作为另一更通用的示例,图11示意性地示出可执行此处描述的深度图像抽象和/或深度图像仿真的计算系统170。计算系统170可以采取各种不同的形式,尤其包括但不限于:游戏控制台、个人计算系统、军用跟踪和/或定标系统、以及提供绿屏或者运动捕捉功能的特征采集系统。
计算系统170可包括逻辑子系统172、在操作上连接到逻辑子系统的数据保持子系统174、显示子系统176、和/或深度图像生产者178。计算系统可任选地包括未示出在图11中的组件,并且/或者示出在图11中的某些组件可以是未被集成在计算系统中的外围组件。
逻辑子系统172可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统可被配置为执行一个或多个指令,该一个或多个指令是一个或多个程序、例程、对象、组件、数据结构、应用编程接口或其他逻辑构造的一部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、从不同的计算对象通信信息和/或将信息通信到不同的计算对象,或以其他方式得到所希望的结果。逻辑子系统可包括被配置为执行软件指令的一个或多个处理器。附加地或替代地,逻辑子系统可包括被配置成执行硬件或固件指令的一个或多个硬件或固件逻辑机。逻辑子系统可任选地包括分布在两个或更多个设备上的独立组件,这些独立组件在一些实施例中可被远程放置。
数据保持子系统174可包括一个或多个物理的、非瞬时的设备,这些设备被配置成保持数据和/或可由该逻辑子系统执行的指令,以实现此处描述的方法和过程。在实现这样的方法和过程时,可以变换数据保持子系统174的状态(例如,以保持不同的数据)。数据保持子系统174可包括可移动介质和/或内置设备。数据保持子系统174可以包括光学存储器设备、半导体存储器设备(如RAM、EEPROM、闪存等)、和/或磁存储器设备等。数据保持子系统174可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,可以将逻辑子系统172和数据保持子系统174集成到一个或更多个常见设备中,如专用集成电路或片上系统。
术语“模块”和“引擎”可用于描述被实现以执行一个或多个特定功能的计算系统170的一个方面。在某些情况下,可经由逻辑子系统172通过执行由数据保持子系统174保存的指令来实例化此类模块或引擎。应该理解,可从相同的应用、代码块、对象、例程、和/或功能实例化不同模块和/或引擎。同样,在某些情况下,可通过不同的应用、代码块、对象、例程、和/或功能来实例化相同的模块和/或引擎。作为示例,在此参考图2所描述的一个或多个模块可以作为一个API实现。
显示子系统176可用于呈现由数据保持子系统174所保持的数据的可视表示。在此处所描述的方法和过程改变由数据保持子系统保持的数据,并由此变换数据保持子系统的状态时,同样可以变换显示子系统176的状态以在视觉上表示底层数据的改变。显示子系统176可以包括使用实际上任何类型的技术的一个或多个显示设备。可将这些显示设备与逻辑子系统172和/或数据保持子系统174一起组合在共享封装中,或这些显示设备可以是外围显示设备,如图1所示。
计算系统170还包括被配置成获得一个或多个目标和/或场景的深度图像的深度图像生产者178。深度图像生产者178可以被配置为通过任何合适的技术(例如,飞行时间、结构化光、立体图像等等)捕获具有深度信息的视频。如此,深度图像生产者178可包括深度相机、摄像机、立体相机、和/或其他合适的捕捉设备。如上述参考图4A4C所述,深度图像生产者可以包括一个或多个相机上处理器和/或相机外处理器以将原始深度数据转换成深度图像。换句话说,深度相机可选地包括一个或多个配置用于执行一个或多个深度分析功能的一个或多个板载处理单元。深度相机可以包括固件以促进更新这样的板载处理逻辑。
例如,在飞行时间分析中,深度图像生产者178可包括配置用于发射红外光到场景随后使用传感器检测来自场景表面的反向散射光的飞行时间相机。在某些情形中,可以使用脉冲式红外光,其中可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从捕捉设备到场景中的特定位置的物理距离。在某些情形中,可比较向外的光波的相位和向内的光波的相位以确定相位偏移,相位偏移可用于确定从捕捉设备到场景中的特定位置的物理距离。
在另一示例中,可使用飞行时间分析,通过经由例如快门式光脉冲成像的技术来分析反射光束随时间的强度变化以间接地确定从捕捉设备到场景中的特定位置的物理距离。
在另一示例中,结构化光分析可以被深度图像生产者178用于捕捉深度信息。在这样的分析中,图案化光(即,被显示成诸如网格图案或条纹图案等已知图案的光)可以被投影到场景上。在场景的表面上,图案成为变形的,而图案的这一变形可被研究以确定从捕捉设备到场景中的特定位置的物理距离。
在另一示例中,捕捉设备可包括两个或更多物理上分离的相机,它们从不同角度观察场景以获得可视立体数据。在这些情形中,可解析视觉立体数据以生成深度图像。在其他实施例中,深度图像生产者178可以使用其他技术来测量和/或计算深度值。
在一些实施例中,可以将两个或更多不同的相机合并成深度图像生产者的一部分。例如,深度相机和摄像机(例如RGB摄像机)可以被合并到深度图像生产者中。当使用视频摄像机时,它可用于提供目标追踪数据、确认数据以用于场景分析、图像捕捉、脸部识别、高精度手指(或其他小特征)追踪、光感应、和或其他功能的错误修正。
而且,当上述描述着眼于单个深度相机的使用/仿真时,应该理解,上述兼容性技术也可用于同时使用/仿真两个或更多深度相机。例如,可使用两个相机来查看邻近的场景,并且API可以有效地将来自这两个相机的信息组合在一起以仿真具有更宽视野的单个相机。作为另一个示例,可以使用单个、广角相机,并且API可以产生两个分离的深度图像,就像是由在不同方向上查看的具有窄视野的两个相机所产生的图像。
在一些实施例中,可使用两个或更多深度相机来从不同有利位置查看同一场景。在这种情况中,API可以有效地组合来自这两个相机的信息以便以对深度图像消费者透明的方式来提供更多/更好的3D数据。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行、或者在某些情况下被省略。同样,可以改变上述过程的次序。
本公开的主题包括各种过程、系统和配置、此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效物的所有新颖和非显而易见的组合和子组合。
Claims (15)
1.一种深度相机可交替系统,包括:
用于了解深度图像消费者所支持的虚拟深度相机参数的初始化模块;
用于从深度图像生产者处接收本机深度图像的捕捉模块,所述本机深度图像具有与所述深度图像消费者不兼容的不支持的深度相机参数;
用于将所述本机深度图像转换成虚拟深度图像的虚拟化模块,所述虚拟深度图像具有与所述深度图像消费者相兼容的所支持的虚拟深度相机参数;以及
用于将所述虚拟深度图像输出给所述深度图像消费者的输出模块。
2.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述初始化模块被配置为从所述深度图像消费者处接收所述所支持的虚拟深度相机参数的指示。
3.如权利要求2所述的深度相机可交替系统,其特征在于,其中所述所支持的虚拟深度相机参数的指示指定了虚拟深度相机的视锥体。
4.如权利要求2所述的深度相机可交替系统,其特征在于,其中所述所支持的虚拟深度相机参数的指示指定了虚拟深度相机的分辨率。
5.如权利要求2所述的深度相机可交替系统,其特征在于,其中所述所支持的虚拟深度相机参数的指示指定了虚拟深度相机所基于的实际深度相机的型号。
6.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述初始化模块被配置为生成瞄准指令以方便瞄准与所述深度图像消费者的所支持的虚拟深度相机参数相兼容的深度相机。
7.如权利要求6所述的深度相机可交替系统,其特征在于,其中所述初始化模块被进一步配置为将瞄准指令发送给所述深度相机。
8.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述虚拟化模块被配置为通过剪辑所述本机深度图像的视锥体来将所述本机深度图像转换成所述虚拟深度图像。
9.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述虚拟化模块被配置为通过降低所述本机深度图像的分辨率来将所述本机深度图像转换成所述虚拟深度图像。
10.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述深度图像生产者包括将原始深度相机数据转换成所述本机深度图像的相机上处理器,并且所述捕捉模块被配置为通过所述相机上处理器来接收所述本机深度图像。
11.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述深度图像生产者包括将原始深度相机数据转换成所述本机深度图像的相机外处理器,并且所述捕捉模块被配置为通过所述相机外处理器来接收所述本机深度图像。
12.如权利要求1所述的深度相机可交替系统,其特征在于,其中所述深度图像生产者包括协作将原始深度相机数据转换成所述本机深度图像的相机上处理器和相机外处理器,并且所述捕捉模块被配置为通过所述相机上处理器和相机外处理器来接收所述本机深度图像。
13.如权利要求1所述的深度相机可交替系统,其特征在于,所述初始化模块、捕捉模块、虚拟化模块以及输出模块被作为应用编程接口的一部分来实现。
14.一种提供在深度图像消费者和多个不同的深度图像生产者之间的兼容性的方法,所述方法包括:
接收具有与深度图像消费者不兼容的不支持的深度相机参数的本机深度图像;
将所述本机深度图像转换成虚拟深度图像,所述虚拟深度图像具有与所述深度图像消费者相兼容的所支持的虚拟深度相机参数;以及
将所述虚拟深度图像输出给所述深度图像消费者。
15.如权利要求14所述的方法,其特征在于,进一步包括:接收所支持的虚拟深度相机参数的指示,所述指示指定了:虚拟深度相机的视锥体、虚拟深度相机的分辨率以及虚拟深度相机所基于的实际深度相机的型号中的一项。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/698,940 US8687044B2 (en) | 2010-02-02 | 2010-02-02 | Depth camera compatibility |
US12/698,940 | 2010-02-02 | ||
PCT/US2011/020690 WO2011097049A2 (en) | 2010-02-02 | 2011-01-10 | Depth camera compatibility |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102763420A CN102763420A (zh) | 2012-10-31 |
CN102763420B true CN102763420B (zh) | 2015-07-29 |
Family
ID=44341280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180007815.7A Active CN102763420B (zh) | 2010-02-02 | 2011-01-10 | 深度相机兼容性 |
Country Status (8)
Country | Link |
---|---|
US (1) | US8687044B2 (zh) |
EP (1) | EP2531979B1 (zh) |
JP (1) | JP5778182B2 (zh) |
KR (1) | KR101783379B1 (zh) |
CN (1) | CN102763420B (zh) |
CA (1) | CA2786436C (zh) |
HK (1) | HK1177311A1 (zh) |
WO (1) | WO2011097049A2 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110292036A1 (en) * | 2010-05-31 | 2011-12-01 | Primesense Ltd. | Depth sensor with application interface |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8654219B2 (en) * | 2011-04-26 | 2014-02-18 | Lg Electronics Inc. | Method and apparatus for restoring dead pixel using light intensity map in a time-of-flight camera |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US10366299B2 (en) * | 2011-10-25 | 2019-07-30 | Bull Hn Information Systems, Inc. | Sorting/scanning system camera upgrade apparatus with backwards compatibility |
US8660362B2 (en) | 2011-11-21 | 2014-02-25 | Microsoft Corporation | Combined depth filtering and super resolution |
US8989455B2 (en) * | 2012-02-05 | 2015-03-24 | Apple Inc. | Enhanced face detection using depth information |
US20140104394A1 (en) * | 2012-10-15 | 2014-04-17 | Intel Corporation | System and method for combining data from multiple depth cameras |
KR20150103240A (ko) * | 2013-03-14 | 2015-09-09 | 인텔 코포레이션 | 깊이 기반 사용자 인터페이스 제스처 제어 |
CN103543830B (zh) * | 2013-10-28 | 2017-02-15 | 四川大学 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
CN106575158B (zh) * | 2014-09-08 | 2020-08-21 | 英特尔公司 | 环境映射虚拟化机构 |
US10181085B2 (en) * | 2014-11-05 | 2019-01-15 | Trw Automotive U.S. Llc | Augmented object detection using structured light |
KR102369792B1 (ko) | 2015-03-05 | 2022-03-03 | 한화테크윈 주식회사 | 촬영 장치 및 촬영 방법 |
CN106709865B (zh) | 2015-11-13 | 2020-02-18 | 杭州海康威视数字技术股份有限公司 | 一种深度图像合成方法及装置 |
KR101893368B1 (ko) * | 2018-01-31 | 2018-09-04 | 공간정보기술 주식회사 | 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법 및 시스템 |
US11393115B2 (en) * | 2018-11-27 | 2022-07-19 | Infineon Technologies Ag | Filtering continuous-wave time-of-flight measurements, based on coded modulation images |
CN110276791B (zh) * | 2019-06-28 | 2021-04-06 | 北京航空航天大学 | 一种参数可配置的深度相机仿真方法 |
CN116256769A (zh) * | 2021-12-10 | 2023-06-13 | 浙江舜宇智能光学技术有限公司 | iToF深度计算装置、方法、iToF相机模组和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101156175A (zh) * | 2005-04-11 | 2008-04-02 | 三星电子株式会社 | 3d对象的基于深度图像呈现方法和使用该方法的建模方法和设备以及渲染方法和设备 |
CN101616237A (zh) * | 2008-06-27 | 2009-12-30 | 索尼株式会社 | 图像处理装置、图像处理方法、程序和记录介质 |
Family Cites Families (197)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4288078A (en) * | 1979-11-20 | 1981-09-08 | Lugo Julio I | Game apparatus |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
DE69229474T2 (de) | 1991-12-03 | 2000-03-02 | French Sportech Corp | Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
JPH07114636A (ja) * | 1993-10-15 | 1995-05-02 | Ricoh Co Ltd | 画素密度変換装置 |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
JP2000510013A (ja) | 1996-05-08 | 2000-08-08 | リアル ヴィジョン コーポレイション | 位置検出を用いたリアルタイムシミュレーション |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
JP2001504605A (ja) | 1996-08-14 | 2001-04-03 | ラティポフ,ヌラフメド,ヌリスラモビチ | 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europ Ltd | Verfahren und System zur Erkennung von Handgesten |
US6111582A (en) | 1996-12-20 | 2000-08-29 | Jenkins; Barry L. | System and method of image generation and encoding using primitive reprojection |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6124864A (en) | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
DE19716958A1 (de) | 1997-04-17 | 1998-10-22 | Zbigniew Rybczynski | Optisches Abbildungssystem |
US5949430A (en) | 1997-05-20 | 1999-09-07 | Microsoft Corporation | Peripheral lenses for simulating peripheral vision on a display device |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
AU9808298A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
JP3969852B2 (ja) * | 1998-06-29 | 2007-09-05 | キヤノン株式会社 | 移動体間通信システム、通信装置 |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
WO2000034919A1 (en) | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
WO2000036372A1 (en) | 1998-12-16 | 2000-06-22 | 3Dv Systems, Ltd. | Self gating photosurface |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6373489B1 (en) | 1999-01-12 | 2002-04-16 | Schlumberger Technology Corporation | Scalable visualization for interactive geometry modeling |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US20040218269A1 (en) * | 2002-01-14 | 2004-11-04 | Divelbiss Adam W. | General purpose stereoscopic 3D format conversion system and method |
US7607509B2 (en) | 2002-04-19 | 2009-10-27 | Iee International Electronics & Engineering S.A. | Safety device for a vehicle |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4355341B2 (ja) * | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
EP3190546A3 (en) | 2003-06-12 | 2017-10-04 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
JP2005117475A (ja) | 2003-10-09 | 2005-04-28 | Canon Inc | カメラサーバの色補正方法 |
US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
GB0329312D0 (en) | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
JP4125252B2 (ja) * | 2004-03-02 | 2008-07-30 | 株式会社東芝 | 画像生成装置、画像生成方法、及び画像生成プログラム |
WO2005104010A2 (en) | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
US7671894B2 (en) * | 2004-12-17 | 2010-03-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
EP2487624B1 (en) | 2005-01-07 | 2020-02-19 | Qualcomm Incorporated(1/3) | Detecting and tracking objects in images |
CN101198964A (zh) | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
US8009871B2 (en) * | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
CN101208723A (zh) * | 2005-02-23 | 2008-06-25 | 克雷格·萨默斯 | 用于3维照相机和3维视频的自动场景建模 |
JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
BRPI0520196A2 (pt) * | 2005-04-25 | 2009-04-22 | Yappa Corp | sistema de geraÇço e exibiÇço de imagem em 3d |
BRPI0613165A2 (pt) | 2005-05-17 | 2010-12-21 | Gesturetek Inc | saìda de sinal sensìvel à orientação |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
WO2007035720A2 (en) * | 2005-09-20 | 2007-03-29 | Deltasphere, Inc. | Methods, systems, and computer program products for acquiring three-dimensional range information |
WO2007035988A1 (en) | 2005-09-27 | 2007-04-05 | Spatial Freedom Holdings Pty Ltd | An interface for computer controllers |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
US7340098B2 (en) * | 2006-03-15 | 2008-03-04 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for image conversion |
JP4847184B2 (ja) * | 2006-04-06 | 2011-12-28 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
US7680633B2 (en) | 2006-04-25 | 2010-03-16 | Hewlett-Packard Development Company, L.P. | Automated process for generating a computed design of a composite camera comprising multiple digital imaging devices |
US7573475B2 (en) | 2006-06-01 | 2009-08-11 | Industrial Light & Magic | 2D to 3D image conversion |
CN101479765B (zh) * | 2006-06-23 | 2012-05-23 | 图象公司 | 对2d电影进行转换用于立体3d显示的方法和系统 |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8179969B2 (en) * | 2006-08-18 | 2012-05-15 | Gwangju Institute Of Science And Technology | Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US7835569B2 (en) * | 2006-10-13 | 2010-11-16 | Apple Inc. | System and method for raw image processing using conversion matrix interpolated from predetermined camera characterization matrices |
EP2081376B1 (en) | 2006-11-10 | 2019-12-25 | Mitsubishi Electric Corporation | Network image synthesizing display system |
US20080112610A1 (en) * | 2006-11-14 | 2008-05-15 | S2, Inc. | System and method for 3d model generation |
DE102006055641B4 (de) | 2006-11-22 | 2013-01-31 | Visumotion Gmbh | Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US8358332B2 (en) * | 2007-07-23 | 2013-01-22 | Disney Enterprises, Inc. | Generation of three-dimensional movies with improved depth control |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
KR20090055803A (ko) | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
US8542907B2 (en) * | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
TWI362628B (en) * | 2007-12-28 | 2012-04-21 | Ind Tech Res Inst | Methof for producing an image with depth by using 2d image |
KR100954281B1 (ko) * | 2008-02-14 | 2010-04-23 | 한국전자통신연구원 | 다시점 영상의 엘리애징 제거를 위한 필터링 장치 및 방법 |
KR101488199B1 (ko) * | 2008-03-12 | 2015-01-30 | 삼성전자주식회사 | 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
JP4956483B2 (ja) * | 2008-05-19 | 2012-06-20 | 株式会社東芝 | 同期信号制御回路 |
CN201254344Y (zh) | 2008-08-20 | 2009-06-10 | 中国农业科学院草原研究所 | 植物标本及种子存贮器 |
US8619122B2 (en) * | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
-
2010
- 2010-02-02 US US12/698,940 patent/US8687044B2/en active Active
-
2011
- 2011-01-10 CN CN201180007815.7A patent/CN102763420B/zh active Active
- 2011-01-10 WO PCT/US2011/020690 patent/WO2011097049A2/en active Application Filing
- 2011-01-10 JP JP2012551984A patent/JP5778182B2/ja active Active
- 2011-01-10 EP EP11740159.6A patent/EP2531979B1/en active Active
- 2011-01-10 CA CA2786436A patent/CA2786436C/en active Active
- 2011-01-10 KR KR1020127020257A patent/KR101783379B1/ko active IP Right Grant
-
2013
- 2013-04-15 HK HK13104543.9A patent/HK1177311A1/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101156175A (zh) * | 2005-04-11 | 2008-04-02 | 三星电子株式会社 | 3d对象的基于深度图像呈现方法和使用该方法的建模方法和设备以及渲染方法和设备 |
CN101616237A (zh) * | 2008-06-27 | 2009-12-30 | 索尼株式会社 | 图像处理装置、图像处理方法、程序和记录介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102763420A (zh) | 2012-10-31 |
KR20120138741A (ko) | 2012-12-26 |
EP2531979B1 (en) | 2016-04-06 |
HK1177311A1 (zh) | 2013-08-16 |
US8687044B2 (en) | 2014-04-01 |
WO2011097049A3 (en) | 2011-11-24 |
JP5778182B2 (ja) | 2015-09-16 |
US20110187819A1 (en) | 2011-08-04 |
EP2531979A4 (en) | 2013-04-24 |
EP2531979A2 (en) | 2012-12-12 |
CA2786436A1 (en) | 2011-08-11 |
KR101783379B1 (ko) | 2017-09-29 |
JP2013519089A (ja) | 2013-05-23 |
CA2786436C (en) | 2017-11-07 |
WO2011097049A2 (en) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102763420B (zh) | 深度相机兼容性 | |
CN102741887B (zh) | 深度相机兼容性 | |
Kadambi et al. | 3d depth cameras in vision: Benefits and limitations of the hardware: With an emphasis on the first-and second-generation kinect models | |
CN109084746A (zh) | 用于具有辅助传感器的自主平台引导系统的单目模式 | |
US20120155744A1 (en) | Image generation method | |
JP7337091B2 (ja) | 飛行時間カメラの低減された出力動作 | |
CN102982560A (zh) | 根据rgb和深度图像的表面分割 | |
CN109314775A (zh) | 用于增强深度相机系统的信噪比性能的系统和方法 | |
US20210019900A1 (en) | Recording medium, object detection apparatus, object detection method, and object detection system | |
US20220180545A1 (en) | Image processing apparatus, image processing method, and program | |
US11893707B2 (en) | Vehicle undercarriage imaging | |
US8818124B1 (en) | Methods, apparatus, and systems for super resolution of LIDAR data sets | |
Gschwandtner | Augmentation of a Radar Sensor with a Depth Camera for Pedestrian Tracking/submitted by Harald Gschwandtner | |
Zhu et al. | A System Approach to Adaptive Multi-modal Sensor Designs | |
Mufti | 3D image analysis and smart automotive applications | |
PI et al. | A System Approach to Adaptive Multi-Modal Sensor Designs | |
Crijns et al. | AUGMENTED REALITY FOR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150720 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150720 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |