CN105264401B - 用于tof系统的干扰减小 - Google Patents

用于tof系统的干扰减小 Download PDF

Info

Publication number
CN105264401B
CN105264401B CN201480028101.8A CN201480028101A CN105264401B CN 105264401 B CN105264401 B CN 105264401B CN 201480028101 A CN201480028101 A CN 201480028101A CN 105264401 B CN105264401 B CN 105264401B
Authority
CN
China
Prior art keywords
light
period
light source
pulse
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480028101.8A
Other languages
English (en)
Other versions
CN105264401A (zh
Inventor
A·佩恩
C·巴姆吉
D·易
B·汤普森
Z·徐
B·罗兰多
L·普拉瑟
T·佩里
M·芬顿
S·阿查亚
A·古代迪斯
M·莫里斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105264401A publication Critical patent/CN105264401A/zh
Application granted granted Critical
Publication of CN105264401B publication Critical patent/CN105264401B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)

Abstract

本文公开的实施例涉及飞行时间(TOF)系统以及与其一起使用的方法,即显著减小TOF系统对被配置成无线接收和响应IR光信号的至少一个其它系统可能带来的干扰。一些这样的实施例涉及发射具有低频(LF)功率包络的IR光,所述LF功率包络被成形为显著减少已知被可能紧邻该TOF系统的至少一个其它系统所使用的至少一个频率范围内的频率内容。这样的实施例还可涉及检测所发射的RF调制IR光中的被一个或多个对象反射掉的至少一部分。TOF系统能独立于所述检测的结果产生深度图像,以及独立于深度图像更新应用。

Description

用于TOF系统的干扰减小
背景
各种消费者电子设备,诸如电视机、机顶盒和媒体播放器,被配置成通过手持式遥控设备遥控,所述手持式遥控设备传送经调制红外(IR)遥控信号。这样的IR遥控信号通常具有约940nm的波长并且通常具有在10kHz和100kHz之间(且更具体而言在30kHz和60kHz之间)的载波频率。对于更具体的示例,许多IR遥控信号具有约36kHz的载波频率(不要将其与IR光本身的实际频率相混淆)。
飞行时间(time-of-flight,TOF)相机(也被称为TOF系统)可紧邻前述消费者电子设备(例如,电视机、机顶盒和/或媒体播放器)中的一个或多个放置(例如在同一房间内),所述消费者电子设备被配置成通过手持式遥控设备来遥控。例如,TOF相机可以是与电视机、机顶盒、和/或DVD播放器(其也可被称为其它系统)位于同一房间内的游戏控制台的一部分。这样的TOF相机通常通过用经调制IR光源来照射目标并检测从该目标反射掉并入射到该TOF相机的图像像素检测器阵列的IR光来操作。IR光源在积分期间通常在相对高的载波频率处被调制(例如,约100MHz,其在射频范围内)并且在各帧或捕捉之间以及在读出期间通常被关闭。尽管经调制IR光源的载波频率通常远高于遥控信号的载波频率,然而从期间光源不发射RF调制光的时间到期间光源发射RF调制光的时间的转换以及反向转换可产生可能影响遥控信号的较低频率内容。用另一种方式来解释,与由TOF相机产生的经调制IR光相关联的低频(LF)功率包络可能影响旨在控制紧邻该TOF相机的另一系统(例如电视机)的遥控信号。TOF相机所产生的干扰的大部分将不对应于有效控制命令,并且从而将被旨在被遥控信号控制的该其它系统(例如电视机)的IR接收机拒绝。然而,TOF相机所产生的干扰可能足够显著以阻止用户能够实际上遥控紧邻该TOF相机的该其它系统(例如电视机)。这对用户可能造成困扰,因为用户可能无法使用该遥控设备来调整该其它系统(例如,电视机)的音量、亮度、频道等。换言之,TOF相机可使得遥控设备无法工作。由于电视机或其他系统的IR接收机的相对较差的光学带通性质,这种干扰问题甚至可能在TOF相机所使用的IR波长不同于遥控设备所使用的IR波长的情况下发生。例如,这样的干扰问题甚至可能在TOF相机所使用的IR光的波长为约860nm而遥控设备所使用的IR光为约940nm的情况下发生。而且,要注意,TOF相机还可能导致接收和响应无线IR信号的其他系统的类似干扰问题,诸如但不限于:包括无线IR耳机的系统和包括主动快门3D眼镜的三维(3D)电视系统。
概述
所公开的特定实施例涉及飞行时间(TOF)系统以及与其一起使用的方法,即显著减小TOF系统对被配置成无线接收和响应IR光信号的至少一个其它系统可能带来的干扰。一些这样的实施例涉及发射具有低频(LF)功率包络的IR光,该LF功率包络被成形为显著减小已知被配置成无线接收和响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容,其中被发射的IR光的至少一部分是射频(RF)调制IR光并且从而包括RF分量。这样的实施例还可涉及检测所发射的RF调制IR光中的被一个或多个对象反射掉的至少一部分。TOF系统能独立于所述检测的结果产生深度图像,以及独立于深度图像更新应用。在本文中使用的术语“LF功率包络”为由信号随时间递送的LF平均功率。
TOF系统可被配置成获得与多个帧周期中的每个帧周期相对应的独立深度图像,其中每个帧周期之后是帧间周期,每个帧周期包括至少两个积分周期,且每个积分周期之后是读出周期。IR光可在每个积分周期期间被发射,以允许产生深度图像。此外,为了减小从期间IR光被发射的时间到期间IR光不被发射的时间的转换的频率,并且由此减小与所述转换相关联的频率内容,IR光也可在每个帧周期内的积分周期对之间的读出周期期间被发射。
在某些实施例中,为了减小用于与被配置成无线接收和响应IR光信号的至少一个其它系统的IR光接收机一起使用的自动增益控制(AGC)电路的增益水平,并由此使得该至少一个其它系统的IR光接收机对来自TOF系统的干扰更不敏感,IR光可在每个帧周期内的积分周期对之间的读出周期期间、以及在帧对之间的帧间周期的至少一部分期间被发射。这可以作为在积分周期期间发射的IR光的补充。
IR光可通过产生包括RF分量并具有LF功率包络的驱动信号来发射,该LF功率包络被成形为显著减小已知被配置成无线接收并响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容,以及用包括该RF分量的该驱动信号来驱动至少一个光源。
在一实施例中,LF功率包络可通过以下方式来成形:在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲幅度斜升(ramp up),并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲幅度斜降(ramp down)。
在一实施例中,LF功率包络可通过以下方式来成形:在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲占空比(duty cycle)斜升,并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲占空比斜降。
在一实施例中,LF功率包络可通过以下方式来成形:在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲或脉冲串之间的时隙斜降,并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲或脉冲串之间的时隙斜升。
在一实施例中,LF功率包络可通过以下方式来成形:在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲或脉冲串之间出现空隙的频率斜降,并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲或脉冲串之间出现空隙的频率斜升。
前述斜升的任一者优选地在至少50微秒的时间段上发生,而前述斜降的任一者优选地在至少50微秒的时间段上发生。如果时间允许,则斜升和斜降可在更长的时间段上发生。
更一般地,本技术的各实施例可被用来减小TOF系统对被配置成无线接收和响应IR光信号的其他系统可能具有的负面影响,同时保留正确的TOF操作。这样的实施例优选地不降级或最小地降级TOF系统的性能。此外,这样的实施例优选地不增加或最小地增加TOF系统的功率使用。
提供该概述以便以简化形式介绍概念的选集,所述概念在以下详细描述中被进一步描述。该概述不旨在标识所要求保护的主题的关键特征或基本特征,也不旨在被用来帮助确定所要求保护的主题的范围。而且,所要求保护的主题不限于解决该公开的任一部分中所注的任何或全部缺点的实现方式。
附图简述
图1A和1B示出了具有正在玩游戏的用户的跟踪系统的示例实施例。
图2A示出可被用作跟踪系统一部分的捕捉设备的示例实施例。
图2B示出了可以作为图2A的捕捉设备的一部分的TOF相机的示例性实施例。
图3示出可被用来跟踪用户行为并基于用户行为来更新应用的计算系统的示例实施例。
图4示出可被用来跟踪用户行为并基于所跟踪的用户行为来更新应用的计算系统的另一示例实施例。
图5示出了示例性深度图像。
图6描绘了示例性深度图像中的示例性数据。
图7示出了与用于与TOF系统一起使用的信号的两个示例性帧相关联的示例性定时和幅度细节。
图8示出了与图7中所示的信号相关联的示例性LF频率功率谱。
图9示出了根据一实施例驱动信号和IR光信号的LF功率谱可如何被成形,以显著减小已知被配置成无线接收和响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容。
图10示出了根据另一实施例驱动信号和IR光信号的LF功率谱可如何被成形,以显著减小已知被配置成无线接收和响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容。
图11示出了根据又一实施例驱动信号和IR光信号的LF功率谱可如何被成形,以显著减小已知被配置成无线接收和响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容。
图12示出了一实施例,其减小从期间发射IR光信号的时间到期间不发射IR光信号的时间的转换的频率以及反向转换的频率,以由此减小与这样的转换相关联的特定频率内容。
图13示出了组合图9和图12的实施例的实施例。
图14示出了一实施例,其减小了与紧邻TOF系统的另一系统的接收机相关联的自动增益控制(AGC)电路所设置的增益水平,并由此使得该其它系统的接收机较不易受来自该TOF系统的干扰。
图15示出了根据一实施例的用于平滑LF功率包络的附加技术。
图16是被用来概述根据本技术的各实施例的方法的高等级流程图。
详细描述
本文公开的本技术的某些实施例涉及TOF系统以及与其一起使用的方法,其显著减小TOF系统可能对被配置成无线接收和响应IR光信号的至少一个其它系统(例如,电视机、机顶盒、DVD播放器、IR耳机和/或主动3D眼镜)带来的干扰。在提供本技术的这样的实施例的附加细节之前,将首先描述可与本技术一起使用的实施例的系统的示例性细节。
图1A和1B示出了其中用户118在玩拳击视频游戏的跟踪系统100的示例实施例。在一示例实施例中,跟踪系统100可被用于识别、分析和/或跟踪人类目标,如跟踪系统100范围内的用户118或其他对象。如图1A所示,跟踪系统100包括计算系统112和捕捉设备120。如下面更详细地描述的,捕捉设备120可被用来获得深度图像和彩色图像(也被称为RGB图像),所述图像可被计算系统112用来标识一个或多个用户或其他对象,以及跟踪运动和/或其他用户行为。所跟踪的运动和/或其它用户行为可被用来更新应用。因此,用户可以通过使用用户身体和/或用户周围的物体的移动而非(或作为补充)使用控制器、遥控器、键盘、鼠标等来操纵游戏人物或应用的其他方面。例如,视频游戏系统可基于物体的新位置来更新在视频游戏中显示的图像的位置或基于用户的运动来更新化身。
计算系统112可以是计算机、游戏系统或控制台等。根据一示例实施例,计算系统112可包括硬件组件和/或软件组件,从而计算系统112可被用于执行例如游戏应用、非游戏应用等的应用。在一个实施例中,计算系统112可包括可执行存储在处理器可读存储设备上的用于执行此处描述的过程的指令的处理器,如标准化处理器、专用处理器、微处理器等。
捕捉设备120可以包括,例如可用于在视觉上监视诸如用户118等一个或多个用户,从而可以捕捉、分析并跟踪一个或多个用户所执行的姿势和/或移动,来执行应用中的一个或多个控制命令或动作和/或动画化化身或屏上人物的相机,下面将更详细地描述。
根据一个实施例,跟踪系统100可连接至可向诸如用户118之类的用户提供游戏或应用视觉和/或音频的视听设备116,诸如电视机、监视器、高清电视机(HDTV)等。例如,计算系统112可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备116可从计算系统112接收视听信号,然后可向用户118输出与视听信号相关联的游戏或应用画面和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆等连接至计算系统112。
如图1A和1B中所示,跟踪系统100可用于识别、分析和/或跟踪诸如用户118之类的人类目标。例如,可使用捕捉设备120来跟踪用户118,从而可以捕捉用户118的姿势和/或移动来动画化化身或屏幕上人物,和/或可将用户的姿势和/或移动解释为可用于影响计算系统112所正在执行的应用的控制命令。因此,根据一个实施例,用户118可移动他或她的身体来控制应用和/或动画化化身或屏幕上人物。
在图1A和1B中描绘的示例中,在计算系统112上执行的应用可以是用户118正在玩的拳击游戏。例如,计算系统112可使用视听设备116来向用户118提供拳击对手138的视觉表示。计算系统112还可使用视听设备116来提供用户118可通过他的或她的移动来控制的玩家化身140的视觉表示。例如,如图1B所示,用户118可以在物理空间中挥拳以致使玩家化身140在游戏空间中挥拳。因此,根据一示例实施例,计算机系统112和捕捉设备120识别并分析物理空间中用户118的重拳从而使得该重拳可被解释为对游戏空间中的玩家化身140的游戏控制和/或该重拳的运动可用于动画化游戏空间中的玩家化身140。
用户118的其他移动也可被解释为其他控制命令或动作,和/或用于动画化玩家化身,如上下快速摆动、闪避、滑步、封堵、用拳猛击或挥动各种不同的有力重拳的控制命令。此外,某些移动可被解释为可对应于除控制玩家化身140之外的动作的控制。例如,在一个实施例中,玩家可使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。根据另一实施例,玩家可使用移动来从主用户界面选择游戏或其他应用程序。因此,在示例实施例中,用户118的全范围运动可以用任何合适的方式来获得、使用并分析以与应用程序进行交互。
在各示例实施例中,诸如用户118之类的人类目标可持有一物体。在这些实施例中,电子游戏的用户可手持物体,使得可使用玩家和物体的运动来调整和/或控制游戏的参数。例如,可以跟踪并利用手持球拍的玩家的运动来控制电子体育游戏中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上武器。用户未手持的物体也可被跟踪,诸如被该用户(或一不同用户)抛出、推动或滚动的物体或自推进的物体。除了拳击之外,也可实现其他游戏。
根据其他示例实施例,跟踪系统100还可用于将目标移动解释为游戏领域之外的操作系统和/或应用控制。例如,事实上操作系统和/或应用程序的任何可控方面都可由诸如用户118之类的目标的移动来控制。
图2A示出可在跟踪系统100中使用的捕捉设备120的示例实施例。根据一示例实施例,捕捉设备120可被配置成经由任何合适的技术,包括例如飞行时间、结构化光、立体图像等来捕捉包括深度图像的带有深度信息的视频,该深度信息可包括深度值。根据一个实施例,捕捉设备120可将深度信息组织为“Z层”或者可与从深度相机沿其视线延伸的Z轴垂直的层。
如图2A所示,捕捉设备120可包括图像相机组件222。根据一示例实施方式,图像相机组件222可以是可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素都可以表示深度值,比如所捕捉的场景中的对象与相机相距的例如以厘米、毫米等为单位的距离。
如图2A所示,根据一示例实施方式,图像相机组件222可包括可用于捕捉场景的深度图像的红外(IR)光组件224、三维(3-D)相机226、和RGB相机228。例如,在飞行时间(TOF)分析中,捕捉设备120的IR光组件224可将红外光发射到场景上,并且随后可使用传感器(图2A中未具体示出)以利用例如3-D相机226和/或RGB相机228来检测从场景中的一个或多个目标和物体的表面反向散射的光。在一些实施例中,可以使用脉冲IR光,以使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备120到场景中的目标或对象上的特定位置的物理距离。附加地或替换地,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备到目标或对象上的特定位置的物理距离。示例性TOF类型的3-D相机226的更多细节在下面参考图2B来描述。
根据另一示例性实施例,TOF分析可被用来通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备120到目标或对象上的特定位置的物理距离。
在另一示例实施例中,捕捉设备120可以使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即,被显示为诸如网格图案、条纹图案、或不同图案之类的已知图案的光)可经由例如IR光组件224被投影到场景上。在落到场景中的一个或多个目标或对象的表面上以后,作为响应,图案可以变为变形的。图案的这种变形可由例如3-D相机226和/或RGB相机228来捕捉,然后可被分析来确定从捕捉设备到目标或对象上的特定位置的物理距离。在一些实现中,IR光组件224与相机226和228分开,使得可以使用三角测量来确定与相机226和228相距的距离。在一些实现中,捕捉设备120将包括用于感测IR光的专用IR传感器。
根据另一实施例,捕捉设备120可包括两个或更多物理上分开的相机,这些相机可从不同角度查看场景以获得视觉立体数据,该视觉立体数据可被解析以生成深度信息。也可使用其它类型的深度图像传感器来创建深度图像。
捕捉设备120还可包括话筒230。话筒230可包括可接收声音并将其转换成电信号的换能器或传感器。根据一个实施例,话筒230可用于减少目标识别、分析和跟踪系统100中的捕捉设备120与计算系统112之间的反馈。附加地,话筒230可用来接收也可由用户提供的音频信号(例如,语音命令),以控制可由计算系统112执行的诸如游戏应用、非游戏应用等应用。
在一示例实施例中,捕捉设备120可进一步包括可与图像相机组件222进行通信的处理器232。处理器232可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令例如包括用于接收深度图像、生成合适的数据格式(例如,帧)以及将数据传送给计算系统112的指令。
捕捉设备120可进一步包括存储器组件234,存储器组件234可存储可由处理器232执行的指令、由3-D相机和/或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一示例实施例,存储器组件234可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2A所示,在一个实施例中,存储器组件234可以是与图像捕捉组件222和处理器232进行通信的单独的组件。根据另一实施例,存储器组件234可被集成到处理器232和/或图像捕捉组件222中。
如图2A所示,捕捉设备120可经由通信链路236与计算系统212进行通信。通信链路236可以是包括例如USB连接、火线连接、以太网电缆连接等有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算系统112可经由通信链路236向捕捉设备120提供时钟,该时钟可用于确定何时要捕捉例如一场景。另外,捕捉设备120将由例如3-D相机226和/或RGB相机228捕捉的深度图像和彩色图像经由通信链路236提供给计算系统112。在一个实施例中,深度图像和彩色图像以30帧每秒的速率传送。计算系统112然后可使用该模型、深度信息、以及所捕捉的图像来例如控制诸如游戏或字处理程序之类的应用和/或动画化化身或屏幕上人物。
计算系统112包括姿势库240、结构数据242、深度图像处理和对象报告模块244和应用246。深度图像处理和对象报告模块244使用深度图像来跟踪诸如用户和其他对象等对象的运动。为了帮助跟踪对象,深度图像处理和对象报告模块244使用姿势库240和结构数据242。
结构数据242包括关于可被跟踪的对象的结构信息。例如,可以存储人类的骨架模型以帮助理解用户的移动并识别身体部位。还可以存储关于非生命对象的结构信息以帮助识别这些对象并帮助理解移动。
姿势库240可包括姿势过滤器的集合,每一姿势过滤器包括和骨架模型(在用户移动时)可执行的姿势有关的信息。可将由相机226、228和捕捉设备120捕捉的骨架模型形式的数据以及与其相关联的移动与姿势库240中的姿势过滤器进行比较来标识用户(如骨架模型所表示的)何时执行了一个或多个姿势。那些姿势可与应用的各种控制相关联。因此,计算系统112可使用姿势库240来解释骨架模型的移动并基于该移动来控制应用246。如此,姿势库可被深度图像处理和对象报告模块244和应用246使用。
应用程序246可以是视频游戏、生产力应用程序等。在一个实施例中,深度图像处理和对象报告模块244会将检测到的每个对象的标识以及每帧的物体的位置报告给应用246。应用246将使用该信息来更新显示器中的化身或其他图像的位置或移动。
图2B示出了TOF类型的3-D相机226的示例实施例,其也可被称为TOF相机226,或更一般地被可被称为TOF系统226。TOF系统226被示出为包括驱动光源250的驱动器260。光源250可以是图2A中示出的IR光组件224,或者可以是一个或多个其它光发射元件。更一般地,光源250可包括一个或多个光发射元件,诸如但不限于激光二极管或发光二极管(LED)。激光二极管可包括一个或多个竖直腔表面发射激光(VCESL)或边缘发射激光器,但不限于此。还可能存在多种类型的光源,例如,包括一个或多个激光二极管的第一光源,以及包括一个或多个LED的第二光源。尽管这样的光发射元件可能发射IR光,然而替换波长的光可替换地由该光发射元件发射。除非另外说明,均假定光源250发射IR光。
TOF系统226也被示出为包括时钟信号发生器262,该时钟信号发生器产生被提供至驱动器260的时钟信号。此外,TOF系统226被示出为包括可控制时钟信号发生器262和/或驱动器260的微处理器264。TOF系统226还被示出为包括图像像素检测器阵列268、读出电路系统270和存储器266。图像像素检测器阵列268可包括例如320×240图像像素检测器,但不限于此。每个图像像素检测器可以例如是互补金属氧化物半导体(CMOS)传感器或充电耦合设备(CCD)传感器,但不限于此。取决于实现,每个图像像素检测器可具有其自己的专用读出电路,或者可由许多图像像素检测器共享的读出电路系统。根据某些实施例,在框280内示出的TOF系统226的组件在单一集成电路(IC)中实现,其也可被称为单一TOF芯片。
驱动器260可产生独立于从时钟信号发生器262接收的时钟信号的射频(RF)调制驱动信号。相应地,驱动器260可包括例如一个或多个缓冲器、放大器和/或调制器,但不限于此。时钟信号发生器262可包括例如一个或多个参考时钟和/或电压控制振荡器,但不限于此。可以作为微控制器单元的一部分的微处理器264可被用来控制时钟信号发生器262和/或驱动器260。例如,根据本文所述的各实施例,微处理器264可访问存储在存储器266中的波形信息以便产生RF调制驱动信号。TOF系统226可包括其自己的存储器266和微处理器264,如在图2B中所示。替换地或附加地,捕捉设备120的处理器232和/或存储器234可被用来控制TOF系统226的控制方面。
响应于被RF调制驱动信号驱动,光源250发射RF调制光,该RF调制光也可被称为RF调制光信号。例如,RF调制驱动信号和RF调制光的频率可以在从约5MHz到数百MHz的范围内,但是出于解说性目的,将假定其为约100MHz。光源250发射的光被通过任选透镜或光成形漫射器252朝目标对象(例如,用户118)传送。假定在TOF相机的视野内存在目标对象,RF调制发射光的一部分从该目标对象反射开、穿过光圈视场光阑以及透镜(统称为272)并入射到图像像素检测器阵列268上,在该处形成图像。在一些实现中,阵列268的每个个体图像像素检测器产生指示源自该光源的被该对象反射开并入射到该图像像素检测器的检测到的RF调制光的幅度和相位的积分值。这样的积分值或更一般地TOF信息使得能够确定距离(Z),并且共同地能够产生深度图像。在某些实施例中,来自光源250的光能和检测到的光能信号被彼此同步,以使得可从每个图像像素检测器测量到相位差异,并从而测量到距离Z。读出电路系统270将图像像素检测器阵列268所生成的模拟积分值转换为数字读出信号,数字读出信号被提供至微处理器264和/或存储器266,且可被用来产生深度图像。
图3示出了计算系统的一示例实施例,该计算系统可以是图1A-2B所示的用于跟踪应用所显示的化身或其他屏幕上对象的运动和/或动画化(或以其他方式更新)化身或其他屏幕上对象的计算系统112。上面参考图1A-2所描述的诸如计算系统112等计算系统可以是诸如游戏控制台等多媒体控制台。如图3所示,多媒体控制台300具有含有一级高速缓存102、二级高速缓存304和闪存ROM(只读存储器)306的中央处理单元(CPU)301。一级高速缓存302和二级高速缓存304临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 301可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存302和二级高速缓存304。闪存ROM 306可存储在多媒体控制台300通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)308和视频编码器/视频编解码器(编码器/解码器)314形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从图形处理单元308向视频编码器/视频编解码器314运送数据。视频处理流水线向A/V(音频/视频)端口340输出数据,用于传输至电视或其他显示器。存储器控制器310连接到GPU 308以方便处理器访问各种类型的存储器312,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台300包括优选地在模块318上实现的I/O控制器320、系统管理控制器322、音频处理单元323、网络接口324、第一USB主控制器326、第二USB控制器328以及前面板I/O子部件330。USB控制器326和328用作外围控制器342(1)-342(2)、无线适配器348、以及外置存储器设备346(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口324和/或无线适配器348提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器343来存储在引导过程期间加载的应用数据。提供媒体驱动器344,且其可包括DVD/CD驱动器、蓝光驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器344可位于多媒体控制台300的内部或外部。应用数据可经由媒体驱动器344访问,以供多媒体控制台300执行、回放等。媒体驱动器344经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器320。
系统管理控制器322提供与确保多媒体控制台300的可用性相关的各种服务功能。音频处理单元323和音频编解码器332形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元323与音频编解码器332之间传输。音频处理流水线将数据输出到A/V端口340,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件330支持暴露在多媒体控制台300的外表面上的电源按钮350和弹出按钮352、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块336向多媒体控制台300的组件供电。风扇338冷却多媒体控制台300内的电路。
多媒体控制台300内的CPU 301、GPU 308、存储器控制器310、以及各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台300通电时,应用数据可从系统存储器343加载到存储器312和/或高速缓存302、304中,并且可在CPU 301上执行。应用可在导航到多媒体控制台300上可用的不同媒体类型时呈现提供一致用户体验的图形用户界面。在操作中,媒体驱动器344中所包含的应用和/或其他媒体可从媒体驱动器344启动或播放,以将附加功能提供给多媒体控制台300。
多媒体控制台300可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台300允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口324或无线适配器348可用的宽带连接集成的情况下,多媒体控制台300还可作为更大网络社区中的参与者来操作。
当多媒体控制台300通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8Kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留量优选地为恒定,以使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来调度代码以将弹出窗口呈现为覆盖图,显示由系统应用生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台300引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 301上运行,以便提供对应用而言一致的系统资源视图。调度是为了使针对在控制台上运行的游戏应用的高速缓存中断最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器342(1)和342(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自将具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机226、228和捕捉设备120可经由USB控制器326或其他接口来定义控制台300的附加输入设备。
图4示出了计算系统420的另一示例实施例,该计算系统可以是图1A-2B所示的用于跟踪应用所显示的化身或其他屏幕上对象的运动和/或动画化(或以其他方式更新)化身或其他屏幕上对象的计算系统112。计算系统420只是合适的计算系统的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应将计算系统420解释为具有与示例性计算系统420中所示出的任一组件或其组合有关的任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本发明的各具体方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例实施例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
计算系统420包括计算机441,计算机441通常包括各种计算机可读介质。计算机可读介质可以是能由计算机441访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器422包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)423和随机存取存储器(RAM)460。包含诸如在启动期间帮助在计算机441内的元件之间传输信息的基本例程的基本输入/输出系统424(BIOS)通常存储在ROM423中。RAM 460通常包含处理单元459可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图4示出了操作系统425、应用程序426、其他程序模块427和程序数据428。
计算机441也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图4示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器438,从可移动、非易失性磁盘454中读取或向其写入的磁盘驱动器439,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘453中读取或向其写入的光盘驱动器440。可在示例性操作环境中使用的其它可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器438通常通过诸如接口434之类的不可移动存储器接口连接到系统总线421,并且磁盘驱动器439和光盘驱动器440通常通过诸如接口435之类的可移动存储器接口连接到系统总线421。
以上讨论并在图4中示出的驱动器及其相关联的计算机存储介质为计算机441提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图4中,例如,硬盘驱动器438被示为存储操作系统458、应用程序457、其他程序模块456和程序数据455。注意,这些组件可与操作系统425、应用程序426、其它程序模块427和程序数据428相同,也可与它们不同。在此操作系统458、应用程序457、其它程序模块456以及程序数据455被给予了不同的编号,以至少说明它们是不同的副本。用户可以通过输入设备,例如键盘451和定点设备452(通常称为鼠标、跟踪球或触摸垫)向计算机441输入命令和信息。其它输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其它输入设备通常通过耦合到系统总线的用户输入接口436连接到处理单元459,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其它接口和总线结构来连接。相机226、228和捕捉设备120可经由用户输入接口436来定义计算系统420的附加输入设备。监视器442或其他类型的显示设备也经由诸如视频接口432之类的接口连接至系统总线421。除了监视器以外,计算机还可包括诸如扬声器444和打印机443之类的其它外围输出设备,它们可通过输出外围接口433来连接。捕捉设备120可经由输出外围接口433、网络接口437或其他接口连接到计算系统420。
计算机441可使用到一个或多个远程计算机(诸如,远程计算机446)的逻辑连接而在联网环境中操作。远程计算机446可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上相对计算机441所描述的元件,但在图4中仅示出了存储器存储设备447。所描绘的逻辑连接包括局域网(LAN)445和广域网(WAN)449,但也可以包括其它网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机441通过网络接口437连接到LAN 445。当在WAN联网环境中使用时,计算机441通常包括调制解调器450或用于通过诸如因特网等WAN 449建立通信的其它手段。调制解调器450可以是内置的或外置的,可经由用户输入接口436或其它适当的机制连接到系统总线421。在联网环境中,相关于计算机441所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非局限,图4示出应用程序448驻留在存储器设备447上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其它手段。
如上所解释的,捕捉设备120向计算系统112提供RGB图像(也被称为彩色图像)以及深度图像。深度图像可以是多个观测到的像素,其中每个观测到的像素具有观测到的深度值。例如,深度图像可包括所捕捉的场景的二维(2D)像素区域,其中2D像素区域中的每一像素可具有深度值,诸如例如以厘米、毫米等为单位的、所捕捉的场景中的对象距捕捉设备的长度或距离。
图5示出可在计算系统112处从捕捉设备120接收的深度图像的示例实施例。根据一示例实施例,该深度图像可以是由例如以上参考图2A所描述的捕捉设备120的3-D相机226和/或RGB相机228所捕捉的场景的图像和/或帧。如图5所示,该深度图像可包括与例如诸如参考图1A和1B所描述的用户118等的用户对应的人类目标以及诸如所捕捉的场景中的墙、桌子、监视器等的一个或多个非人类目标。该深度图像可包括多个观测到的像素,其中每个观测到的像素具有观测到的与其相关联的深度值。例如,该深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中该2-D像素区域中的特定x值和y值处的每一像素可具有诸如以例如厘米、毫米等为单位的所捕捉的场景中的目标或对象离捕捉设备的长度或距离之类的深度值。换言之,深度图像可对于深度图像中的每个像素指定像素位置和像素深度。在分段过程之后,深度图像中的每个像素也可具有与其相关联的分段值。像素位置可由x位置值(即,水平值)和y位置值(即,垂直值)指示。像素深度可由z位置值(也被称为深度值)指示,该z位置值指示被用来获得深度图像的捕捉设备(例如120)和该像素表示的用户部分之间的距离。分段值被用来指示像素是否对应于特定用户,或不对应于用户。
在一个实施例中,深度图像可以是着色的或灰阶的,以使得深度图像的像素的不同色彩或阴影对应于和/或从视觉上描绘了目标距捕捉设备120的不同距离。在接收该图像之后,一个或多个高变度和/或噪杂深度值可被从深度图像移除和/或平滑;丢失和/或移除的深度信息的部分可被填充和/或重构;和/或可对所接收的深度图像执行任何其他适当处理。
图6提供了深度图像的另一视图/表示(不对应于与图5相同的示例)。图6的视图将每个像素的深度值显示为整数,该整数表示对于该像素该目标距捕捉设备120的距离。图6的示例深度图像显示24x24像素;然而,使用更大分辨率的深度图像是可能的。
用于减小TOF系统导致的IR遥控干扰的技术
如上面提及的,TOF系统(例如226)可紧邻被配置成通过手持式遥控设备遥控的消费者电子设备(例如,电视机、机顶盒和/或媒体播放器)定位(例如在同一房间中)。例如,再参考图1A和2A,捕捉设备120可包括靠近电视机或显示器116定位的TOF系统226。附加地或替换地,TOF系统可紧邻被配置成无线接收和响应IR光信号的其它类型的系统定位,这些系统诸如但不限于包括无线IR耳机的系统和包括主动快门3D眼镜的3D电视系统。同样如上面解释的,TOF系统可通过用RF调制IR光照射目标(例如用户118)并检测从该目标反射开并入射在该TOF相机的图像像素检测器阵列上的IR光来操作。尽管RF调制IR光的载波频率通常远高于遥控信号的载波频率,然而从期间光源不发射RF调制光的时间到期间光源发射RF调制光的时间的突然转换以及反向转换可产生可能影响遥控信号的较低频率内容。用另一种方式来解释,与由TOF系统产生的经调制IR光相关联的低频内容可能影响旨在控制该TOF系统附近的另一设备(例如电视机)的遥控信号。尽管TOF系统所产生的干扰的大部分(如果不是全部)将不对应于有效遥控命令(并且从而将被该其它设备的遥控接收机作为无效命令拒绝),TOF系统所产生的干扰可能足够大到阻止用户能够实际上遥控紧邻TOF系统的该其它设备(例如,电视机或显示器116)。TOF系统所产生的低频内容可类似地干扰被配置成无线接收和响应IR光信号的其它类型的系统。以下描述的本技术的某些实施例(其用于与TOF系统一起使用)显著减小在已知被遥控设备使用的频率范围内和/或在已知被配置成无线接收和响应IR光信号的其它系统所使用的一个或多个其它频率范围内的频率内容。相应地,这些实施例使得其它系统在紧邻TOF系统时能够按其期望方式操作。对于更具体的示例,这样的实施例使得消费者电子设备能够被遥控,即使它们紧靠TOF系统。
大多数情况下,IR遥控信号具有在10kHz和100kHz之间,并且甚至更具体而言在30kHz和60kHz之间的载频。某些遥控设备例如传送具有约36kHz的载频的IR遥控信号(不要将其与IR光本身的实际频率相混淆)。还存在利用具有约455KHz的载频的IR遥控信号的一些系统。又一些其它系统利用具有约1MHz的载频的IR遥控信号。能被遥控信号控制的消费者电子设备(例如电视机、机顶盒或媒体播放器)包括遥控接收机,该遥控接收机被配置成接收和解码在预期频率范围内的遥控信号,其示例在上面已讨论。
在描述本技术的各实施例之前,图7将首先被用来描述由TOF系统生成的典型RF调制驱动信号和由TOF系统发射的典型RF调制IR光信号。更具体而言,图7示出了与用于与TOF系统一起使用的信号的两个示例性帧相关联的示例性脉冲定时和脉冲幅度细节。图7中示出的帧例如可以与TOF系统一起使用,该TOF系统例如被配置成获得对应于多个帧中的每个帧的独立的深度图像,其也可被称为帧周期。图7中示出的波形解说被用来驱动IR光源的RF调制驱动信号以及由被RF调制驱动信号驱动的被该光源产生(以及更具体而言,被该光源发射)的RF调制IR光信号两者。
如图7所示,每个帧周期之后是帧间周期,该帧间周期将该帧周期与下一帧周期分开。取决于实现,每个帧周期的长度可以或可以不与每个帧间周期的长度相同。每个帧周期包括至少两个积分周期,且每个积分周期之后是读出周期。对于更具体示例,帧周期可包括十个积分周期,每个积分周期之后是十个读出周期中的一个相应读出周期。除了帧周期的最后一个读出周期之外,这些读出周期中的每个读出周期将该帧周期的一对积分周期分开。帧速率可以例如是30Hz,但不限于此。在帧速率为30Hz的情况下,每个帧周期加上每个帧间周期对为约33.33毫秒。
仍旧参考图7,所述积分周期中的每个积分周期被示出为包括具有相同脉冲幅度的数个脉冲,并且所述读出周期和所述帧间周期中的每个周期被示出为不包括脉冲。如同上面提及的,图7解说了RF调制驱动信号,以及通过用该RF调制驱动信号驱动IR光源生成的RF调制IR光信号。假定该脉冲频率为约100MHz,该脉冲频率远高于已知被大多数被配置成无线接收和响应IR光信号的其它系统所使用的频率范围。尽管如此,RF调制IR光的LF功率包络包括在已知被配置成无线接收并响应IR光信号的其它系统(其示例已在上面讨论)所使用的频率范围内的大量频率内容。这样的频率内容主要是由于从期间光源不被RF调制驱动信号驱动的时间到期间光源被RF调制驱动信号驱动的时间的突然转换以及反向转换,其发生在每个积分周期的开始和结束处。图7中被标记为702的阴影区域解说了RF调制驱动信号和使用该驱动信号产生的RF调制光信号的LF功率包络。在本文中使用的术语“LF功率包络”为由信号随时间递送的LF平均功率。
图8示出了与图7中所示的信号相关联的示例性LF频率功率谱。从图8中可以领会,在已知被遥控设备使用的10kHz到100kHz频率范围内有大量频率内容。正是TOF系统所产生的此频谱能量导致了例如干扰,该干扰可能阻止使用IR遥控信号对紧邻该TOF系统的系统(例如电视机或显示器)的遥控。尽管在图8中未示出,然而因为图8仅示出了LF内容,所以与图7中示出的信号相关联的功率谱还将包括在载波频率(例如,在100MHz)处的峰值。
在下面描述的本技术的某些实施例平滑驱动信号和IR光信号的LF功率包络的边沿。这具有显著减小已知被受遥控的设备和被配置成无线接收和响应IR光信号的其它系统所使用的频率范围内的频率内容的效果。
平滑LF功率包络的边沿的第一实施例(在图9中解说)涉及在从期间不驱动光源发射IR光的时间到期间由驱动信号驱动光源发射IR光的时间进行转换时使驱动信号的RF分量的脉冲幅度斜升。此实施例还包括在从期间由驱动信号驱动光源发射IR光的时间到期间不驱动光源发射IR光的时间进行转换时使驱动信号的RF分量的脉冲幅度斜降。通过用具有斜升且随后斜降的脉冲幅度的驱动信号来驱动光源,由光源发射的IR光信号的RF分量将具有斜升且随后斜降的脉冲幅度。图9中被标记为902的阴影区域解说了驱动信号和使用该驱动信号产生的IR光信号的LF功率包络。脉冲幅度的斜升在至少50μs的时间段上发生,且脉冲幅度的斜降应当在至少50μs的时间段上发生。如果时间允许,则脉冲幅度的斜升优选地在约1毫秒和10毫秒之间的时间段上发生,而斜降类似地优选在约1毫秒和10毫秒之间的时间段上发生,这应当确保在10kHz和100kHz之间的频率内容的显著减少,该频率范围是通常被用来传送IR遥控信号的频率范围。要注意,图9是为解说目的而包括的,但不是按比例绘制的,因为脉冲幅度的斜升和斜降将在远超过三个或四个脉冲上发生。
存在实现参考图9描述的实施例的各种不同方式。例如,再参考图2B,微处理器264可控制时钟信号发生器262来产生具有斜升和斜降的脉冲幅度的时钟脉冲。替换地,微处理器264可控制驱动器260来产生包括斜升和斜降的脉冲幅度的RF调制驱动信号。例如,驱动器260可包括由微处理器264控制的脉冲幅度调制器。微处理器264可访问来自存储器266的关于脉冲幅度的信息。这种脉冲幅度调制器可例如使用具有由微控制器控制的可调整增益的放大器来实现。这里仅是几个示例,其不旨在是全涵盖的。
平滑LF功率包络的边沿的第二实施例(在图10中解说)涉及在从期间不驱动光源发射IR光的时间到期间由驱动信号驱动光源发射IR光的时间进行转换时使驱动信号的RF分量的脉冲占空比斜升。此实施例还包括在从期间由驱动信号驱动光源发射IR光的时间到期间不驱动光源发射IR光的时间进行转换时使驱动信号的RF分量的脉冲占空比斜降。通过用具有斜升且随后斜降的脉冲占空比的驱动信号来驱动光源,由光源发射的光信号的RF分量将具有斜升且随后斜降的脉冲占空比。图10中被标记为1002的阴影区域解说了驱动信号和使用该驱动信号产生的IR光信号的LF功率包络。脉冲占空比的斜升在至少50μs的时间段上发生,且脉冲占空比的斜降应当在至少50μs的时间段上发生。如果时间允许,则脉冲占空比的斜升优选地在约1毫秒和10毫秒之间的时间段上发生,而斜降类似地在约1毫秒和10毫秒之间的时间段上发生,这应当确保在10kHz和100kHz之间的频率内容的显著减少,该频率范围是通常被用来传送IR遥控信号的频率范围。要注意,图10是为解说目的而包括的,但不是按比例绘制的,因为脉冲占空比的斜升和斜降将在远超过三个或四个脉冲上发生。
存在实现参考图10描述的实施例的各种不同方式。例如,再参考图2B,微处理器264可控制时钟信号发生器262来产生具有斜升和斜降的脉冲占空比的时钟脉冲。替换地,微处理器264可控制驱动器260来产生具有包括斜升和斜降的脉冲占空比的RF分量的驱动信号。例如,驱动器260可包括由微处理器264控制的脉冲占空比调制器。微处理器264可访问来自存储器266的关于脉冲占空比的信息。这种脉冲占空比调制器例如可使用脉冲宽度调制器来实现。这里仅是几个示例,其不旨在是全涵盖的。
平滑LF功率包络的边沿的另一实施例(在图11中解说)涉及在从期间不驱动光源发射IR光的时间到期间由驱动信号驱动光源发射IR光的时间进行转换时使RF调制驱动信号的邻近脉冲或脉冲串之间的时隙斜降。此实施例还包括在从期间由驱动信号驱动光源发射IR光的时间到期间不驱动光源发射IR光的时间进行转换时使驱动信号的RF分量的邻近脉冲或脉冲串之间的时隙斜升。通过用包括具有在斜降并随后斜升的邻近脉冲或脉冲串之间的时隙的RF分量的驱动信号来驱动光源,该光源发射的IR光信号的RF分量还将具有斜降并随后斜升的时隙的脉冲或脉冲串。图11中被标记为1102的阴影区域解说了驱动信号和使用该驱动信号产生的光信号的LF功率包络。邻近脉冲或脉冲串之间的时隙的斜降应当在至少50微秒的时间段上发生,且邻近脉冲或脉冲串之间的时隙的斜升应当在至少50微秒的时间段上发生。如果时间允许,则邻近脉冲或脉冲串之间的时隙的斜降优选地在约1毫秒和10毫秒之间的时间段上发生,而邻近脉冲或脉冲串之间的时隙的斜升类似地优选在约1毫秒和10毫秒之间的时间段上发生,这应当确保在10kHz和100kHz之间的频率内容的显著减少,该10kHz和100kHz之间的频率范围是通常被用来传送IR遥控信号的频率范围。要注意,图11是为解说目的而包括的,但不是按比例绘制的,因为邻近脉冲之间的时隙的斜降和斜升将在远超过三个或四个脉冲上发生。替换地或附加地,可以有在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时驱动信号的脉冲或脉冲串之间发生空隙的频率的斜降,并且可以有在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的脉冲或脉冲串之间发生空隙的频率的斜升。
存在实现参考图11描述的实施例的各种不同方式。例如,再参考图2B,微处理器264可控制时钟信号发生器262来产生具有斜降和斜升的脉冲之间的时隙的时钟脉冲。这可以通过例如不输出某些时钟脉冲来实现。替换地,门控电路可位于时钟信号发生器262和驱动器260之间,以使得某些时钟脉冲不被提供至驱动器260,以由此控制邻近脉冲或脉冲串之间的时隙和/或空隙发生的频率。在又一实施例中,门控电路可以是驱动器260的一部分或在驱动器260上游,并且可选择性地阻止一些驱动脉冲被提供至光源250,以由此控制该光源所输出的邻近脉冲或脉冲串之间的时隙和/或空隙发生的频率。微处理器264可控制时钟信号发生器262、驱动器260和/或这样的门控电路来实现脉冲或脉冲串之间的时隙和/或空隙发生的频率的斜升和斜降。微处理器264可从存储器266访问关于脉冲或脉冲串之间的时隙和/或空隙应发生的频率的信息。这里仅是几个示例,其不旨在是全涵盖的。
如同上面提及的,从期间光源发射IR光的时间到期间不发射IR光的时间的突然转换以及反向转换产生可能干扰其它系统使用的IR遥控信号和/或其它IR信号的频率内容。同样如上所提及的,用另一种方式解释,由该TOF相机产生的与IR光相关联的LF功率包络可能干扰紧邻该TOF相机的一个或多个其它系统(被配置成无线接收和响应IR光信号)。现在将参考图12来描述的一实施例降低了从期间发射IR光的时间到期间不发射IR光的时间的转换以及反向转换出现的频率,由此减少了与这样的转换相关联的频率内容。
通常,RF调制驱动信号和RF调制光信号仅在帧周期的积分周期期间产生,而在帧周期的读出周期期间不产生,如图7和9-11中所示。根据一实施例,驱动信号和IR光信号是在每个帧周期的各积分周期中的每个积分周期期间以及在每个帧周期内的积分周期对之间的各读出周期中的每个读出周期期间产生,如图12中所示。这具有减少从期间光源不发射IR光的时间到期间光源被驱动发射IR光的时间的转换以及反向转换的频率,并由此减少与这样的转换相关联的频率内容。图12中被标记为1202的阴影区域解说了驱动信号和使用这一实施例产生的IR光信号的LF功率包络。如从图12可以领会的,即使每个帧周期存在多个积分和读出周期,每个帧周期仅存在一个LF功率包络,并且从而存在LF功率包络的仅一个上升沿和LF功率包络的仅一个下降沿。换言之,在每个帧周期期间,仅存在一次从期间光源不发射IR光的时间到期间光源被驱动信号驱动发射IR光的时间的转换;且仅存在一次从期间光源被驱动发射IR光的时间到期间光源不发射IR光的时间的转换。同一光源可被用来在积分周期和读出周期期间发射IR光。替换地,第一光源(例如,IR激光二极管)可被用来在积分周期期间发射IR光,而第二光源(例如,IR LED)可被用来在读出周期期间发射IR光。其它变形也是可能的,且在一实施例的范围内。
图12中的LF功率包络1202的上升沿和下降沿是陡峭的,这将导致已知被受遥控设备和被配置成无线接收和响应IR光信号的其它系统所使用的频率范围内的至少一些频率内容。为了进一步减少这样的频率内容,刚刚参考图12描述的实施例可与先前描述的参考图9-11讨论的实施例中的至少一个相组合。例如,图13示出了将参考图12描述的实施例与参考图9描述的实施例相组合的实施例。图13中被标记为1302的阴影区域解说了驱动信号和使用这一实施例产生的所发射的IR光信号的LF功率包络。如从图13可领会的,每个帧周期仅存在一个LF功率包络,并且从而存在该LF功率包络的仅一个上升沿和该LF功率包络的仅一个下降沿。此外,图13的LF功率包络1302的上升沿和下降沿被平滑。从而,参考图13描述的实施例实现了参考图12描述的实施例的益处以及参考图9描述的实施例的益处。替换地,参考图12描述的实施例可与参考图10或11描述的实施例之一相组合以实现已知被遥控设备和被配置成无线接收和响应IR光信号的其它系统所使用的频率范围内的频率内容的类似显著减少。
上述实施例也可按其它方式相组合。例如,参考图9描述的实施例可与参考图10和11描述的实施例中的一者或多者相组合。参考图12描述的实施例可与参考图9-11描述的实施例中的一个以上的实施例相组合也是可能的。
根据某些实施例,在IR光信号也在读出周期期间被发射的情况下,读出电路系统(例如图2B中的270)不生成与在读出周期期间由图像像素检测器阵列268检测到的所反射的光相对应的读出信号,或者与在读出周期期间由图像像素检测器阵列268检测到的所反射的光相对应的读出信号应当被TOF系统忽略。根据替换实施例,为了改善TOF系统的整体电效率,读出电路系统(例如图2B中的270)生成且该TOF系统利用与在读出周期期间由图像像素检测器阵列268检测到的所反射的IR光相对应的读出信号。
被配置成无线接收和响应IR信号的许多系统(例如电视机或机顶盒)包括具有自动增益控制(AGC)电路的接收机,该AGC电路依赖于环境光条件来调整接收机的敏感度。更具体而言,这样的AGC电路通常在有高环境光条件时降低接收机放大器的增益,这使得接收机更不敏感,且该AGC电路通常在存在低环境光条件时增大接收机放大器的增益,这使得接收机更加敏感。接收机越敏感,对传送IR信号的子系统(例如,传送IR遥控信号的遥控设备)和接收机(其例如可被内置到电视机或机顶盒中)之间的直接视线的需要越少。相反,接收机越不敏感,对该子系统(例如传送IR遥控信号的遥控设备)和接收机之间的直接视线的需要越多。在高环境光条件期间减小放大器增益的原因是增益的减小使得接收机对来自环境光的干扰更不敏感。各实施例还显示,减小接收机放大器增益还具有使接收机对由TOF系统产生的IR光的RF分量导致的干扰更不敏感的效果。本技术的一实施例(现在将参考图14来对其进行描述)有意地减小接收机放大器增益(甚至在低环境光条件期间)以便使得接收机(例如,遥控接收机)对由TOF系统产生的IR光导致的干扰更不敏感。
接收机的AGC电路例如可具有约50dB的可调整增益。这样的AGC电路自动地在其最小增益(在明亮环境中)和其最大增益(在黑暗环境中)之间改变接收机放大器的增益。根据一实施例,为了降低另一系统(例如,被配置成无线接收和响应IR遥控信号的系统)的AGC电路的敏感度并由此使得该另一系统更不容易受来自TOF系统的干扰的影响,TOF系统的驱动器(例如250)驱动该TOF系统的光源(例如250)以使IR光也在每一帧周期内的积分周期对之间的读出周期期间以及在帧对之间的帧间周期的至少一部分期间被发射。换言之,该TOF系统有意地增加每一帧周期中期间发射IR光的百分比,如图14中所示。这使得紧邻该TOF系统的另一系统(例如电视机)的AGC电路减小其增益水平,由此使得该另一系统的接收机更不容易受来自该TOF系统的干扰的影响。如从图14可以领会的,通过在邻近帧间周期的部分期间发射IR光,可使得LF功率包络1402的宽度大于帧周期的宽度。换言之,该TOF系统可在帧间周期的至少一部分期间发射IR光,通常不这样做。如从图14可以领会的,此实施例可与先前描述的实施例相组合。例如,在图14中,脉冲幅度按照参考图9原始描述的方式来斜升和斜降以平滑LF功率包络;并且所述脉冲也在读出周期期间被生成以减小LF功率包络转换的数量,如参考图12原始描述的。同一光源可被用于在积分周期、读出周期、以及帧间周期的部分期间发射IR光。替换地,第一光源(例如,IR激光二极管)可被用来在积分周期期间发射IR光,而第二光源(例如,IR LED)可被用来在读出周期和帧间周期的部分期间发射IR光。其它变形也是可能的,且在一实施例的范围内。
在图9-14中,帧周期的中间积分周期内的脉冲幅度被示出为保持不变。然而,不必如此。例如,脉冲幅度可在一个积分周期到下一积分周期间改变。为了减少由脉冲幅度中的这种剧烈的相对显著的变化导致的频率内容,在(在这些积分周期之间的)读出期间产生RF调制驱动信号和RF调制光信号并平滑脉冲幅度中的变化是有利的,如从图15可领会的。更一般地,图15示出了平滑LF功率包络1502的所有转换。参考图15描述的实施例可与先前描述的实施例中的一个或多个相组合。例如,取代斜升和斜降脉冲幅度来平滑LF功率包络1502,可使用斜升和斜降脉冲占空比、时隙和/或邻近脉冲或脉冲串之间发生空隙的频率来平滑LF功率包络1502。
图16的高等级流程图现在将被用来概述根据本技术的各实施例的方法。所述方法(其用于由TOF系统使用)被用于显著减小TOF系统对被配置成无线接收和响应由旨在遥控另一设备(例如电视机)的遥控设备传送的IR信号的该另一设备可能带来的干扰。
参考图16,步骤1602涉及发射具有低频(LF)功率包络的IR光,该LF功率包络被成形为显著减小已知被配置成无线接收和响应IR光信号的至少一个其它系统所使用的至少一个频率范围内的频率内容,其中被发射的IR光的至少一部分是RF调制IR光。可使用本文描述的实施例来减少其中的频率内容的频率范围包括但不限于:被一些系统使用的用于发送IR遥控信号的10kHz-100kHz频率;被其它系统使用的用于发送IR遥控信号的455kHz(+/-10%)和/或1MHz(+/-10%)频率;被一些系统用来向无线IR耳机传送IR信号的2.3MHz(+/-10%)和2.8MHz(+/-10%)频率;以及被一些系统使用的用来向无线3D快门眼镜传送IR信号的25KHz-30KHz频率。
再参考图16,步骤1604涉及检测所发射的RF调制IR光中的被一个或多个对象反射掉的至少一部分。在步骤1606,取决于所述检测的结果来产生深度图像。在步骤1608,使用深度图像来更新应用。例如,可使用深度图像来跟踪运动和/或其它用户行为,所述运动和/或其它用户行为可被用来例如响应于用户的身体和/或用户周围的对象的移动,而不是(或作为补充)使用控制器、遥控器、键盘、鼠标等,来操纵该应用的游戏角色或其它方面。例如,视频游戏系统将基于物体的新位置来更新在视频游戏中显示的图像的位置或基于如基于深度图像检测的用户的运动来更新化身。
如上面参考图9讨论的,步骤1602可涉及在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的的RF分量的脉冲幅度斜升,并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的RF分量的脉冲幅度斜降。这将导致由该光源发射的光脉冲的脉冲幅度的类似斜升和斜降。
如上面参考图10讨论的,步骤1602可涉及在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的RF分量的脉冲占空比斜升,并且在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的RF分量的脉冲占空比斜降。这将导致由该光源发射的光脉冲的脉冲占空比的类似斜升和斜降。
如上面参考图11讨论的,步骤1602可涉及在从期间不驱动光源来发射IR光的时间到期间由驱动信号驱动光源来发射IR光的时间进行转换时使驱动信号的RF分量的邻近脉冲或脉冲串之间的时隙和/或发生空隙的频率斜降,并且可以有在从期间由驱动信号驱动光源来发射IR光的时间到期间不驱动光源来发射IR光的时间进行转换时使驱动信号的RF分量的邻近脉冲或脉冲串之间的时隙和/或发生空隙的频率斜升。这将导致光源发射的光脉冲或脉冲串之间的时隙和/或发生空隙的频率的类似斜降和斜升。
如上面参考图12所讨论的,步骤1602可涉及在每个帧周期的积分周期期间以及在每个帧周期的积分周期对之间的每个读出周期期间发射IR光。这样的实施例减小出现从期间发射IR光信号的时间到期间不发射IR光信号的时间的转换以及反向转换的频率,以由此减小与这样的转换相关联的频率内容。在上面参考图14讨论的某些实施例中,IR光也可在帧间周期的部分期间被发射。
本技术的各方法的更多细节可从图9-15的以上讨论中领会。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。本技术的范围由所附的权利要求进行定义。

Claims (8)

1.一种由发射和检测红外(IR)光的飞行时间(TOF)系统使用的用于显著减少所述TOF系统对被配置成无线接收和响应IR光遥控信号的至少一个其它系统可能导致的干扰的方法,所述方法包括:
产生射频(RF)调制驱动信号;
使用所述RF调制驱动信号来驱动IR光源;
响应于所述驱动,发射具有低频(LF)功率包络的IR光,所述LF功率包络被成形为至少显著减少已知被配置成无线接收和响应IR光遥控信号的至少一个其它系统所使用的从10kHz到100kHz的频率范围内的频率内容,其中被发射的IR光的至少一部分是RF调制IR光;以及
检测所发射的RF调制IR光中的被一个或多个对象反射掉的至少一部分,
其中产生所述RF调制驱动信号包括在从期间不驱动所述IR光源来发射IR光的时间到期间驱动所述IR光源来发射IR光的时间进行转换时,以下至少一者:
使所述驱动信号的脉冲幅度斜升;
使所述驱动信号的脉冲占空比斜升;
使所述驱动信号的脉冲或脉冲串之间的时隙斜降;或
使所述驱动信号的脉冲或脉冲串之间出现空隙的频率斜降。
2.如权利要求1所述的方法,其特征在于,所述发射IR光包括:
发射具有LF功率包络的IR光,所述LF功率包络被成形为显著减少已知被配置成无线接收和响应IR光信号的其它系统所使用的在3MHz以下的至少两个频率范围内的频率内容,其中所述至少两个频率范围之一是从10kHz到100kHz的频率范围。
3.如权利要求1或2所述的方法,其特征在于:
所述TOF系统被配置成获得与多个帧周期中的每个帧周期相对应的独立的深度图像,
每个帧周期之后是帧间周期,
每个帧周期包括至少两个积分周期;以及
每个积分周期之后是读出周期;以及
所述发射IR光包括在所述积分周期中的每个积分周期期间发射IR光;以及
为了减小从期间IR光被发射的时间到期间IR光不被发射的时间的转换的频率,并且由此减少与所述转换相关联的频率内容,所述发射IR光还包括在每个帧周期的积分周期对之间的读出周期期间发射IR光。
4.如权利要求1或2所述的方法,其特征在于:
所述TOF系统被配置成获得与多个帧周期中的每个帧周期相对应的独立的深度图像,
每个帧周期之后是帧间周期,
每个帧周期包括至少两个积分周期;以及
每个积分周期之后是读出周期;以及
所述发射IR光包括在所述积分周期中的每个积分周期期间发射IR光;以及
降低与被配置成无线接收和响应IR光遥控空信号的至少一个其它系统的IR光接收机一起使用的自动增益控制(AGC)电路的增益水平,并由此使得所述至少一个其它系统的IR光接收机对来自所述TOF系统的干扰更不敏感,还在以下的至少一者的至少一部分期间发射IR光:
(i)每个帧周期内的积分周期对之间的读出周期,或
(ii)帧对之间的帧间周期。
5.一种飞行时间(TOF)系统,包括:
被配置成响应于被驱动而发射红外(IR)光的至少一个光源;
被配置成产生射频(RF)调制驱动信号并使用所述RF调制驱动信号来驱动所述至少一个光源来从而使得所述至少一个光源发射具有低频(LF)功率包络的IR光的驱动器,所述低频功率包络被成形为显著减少已知被配置成无线接收和响应IR光遥控信号的至少一个其它系统所使用的从10kHz到100kHz的至少一个频率范围内的频率内容,其中被发射的IR光的至少一部分是RF调制IR光;以及
图像像素检测器阵列,所述图像像素检测器阵列被配置成检测所发射的RF调制IR光中的已从一个或多个对象反射并入射到图像像素检测器阵列上的至少一部分,
其中被发射的RF调制IR光在从期间RF调制IR光未被发射的时间到期间所述RF调制IR光被发射的时间进行转换时,包括以下至少一者:
具有斜升的幅度的脉冲;
具有斜升的占空比的脉冲;
具有斜降的时隙的脉冲或脉冲串;或
其中脉冲或脉冲串之间出现空隙的频率斜降的脉冲或脉冲串。
6.如权利要求5所述的系统,其特征在于:
所述TOF系统被配置成获得与多个帧周期中的每个帧周期相对应的独立的深度图像,
每个帧周期之后是帧间周期,
每个帧周期包括至少两个积分周期;以及
每个积分周期之后是读出周期;以及
所述驱动器被配置成驱动所述光源以在所述积分周期中的每个积分周期期间发射IR光;
所述驱动器被配置成驱动所述光源以在每个帧周期内的积分周期对之间的读出周期期间发射IR光,以便减少从期间IR光被发射的时间和期间IR光不被发射的时间的转换的频率,并由此减少与所述转换相关联的频率内容;以及
被驱动以在所述读出周期期间发射IR光的光源可以与被驱动以在积分周期期间发射IR光的光源相同或不同。
7.如权利要求5所述的系统,其特征在于:
所述TOF系统被配置成获得与多个帧周期中的每个帧周期相对应的独立的深度图像,
每个帧周期之后是帧间周期,
每个帧周期包括至少两个积分周期;以及
每个积分周期之后是读出周期;以及
所述驱动器被配置成驱动所述光源以在所述积分周期中的每个积分周期期间发射IR光;
所述驱动器被配置成驱动所述光源以在以下的至少一者的至少一部分期间发射IR光:(i)每个帧周期内的积分周期对之间的读出周期或(ii)帧对之间的帧间周期,降低与被配置成无线接收和响应IR光遥控信号的至少一个其它系统的IR光接收机一起使用的自动增益控制(AGC)电路的增益水平,并由此使得所述至少一个其它系统的IR光接收机对来自所述TOF系统的干扰更不敏感;以及
被驱动以在以下的至少一者的至少一部分期间发射IR光的光源可以与被驱动以在所述积分周期期间发射IR光的光源相同或不同:(i)每个帧周期内的积分周期对之间的读出周期或(ii)帧对之间的帧间周期。
8.如权利要求5、6或7所述的系统,其特征在于,进一步包括:
被配置成产生被提供至所述驱动器的时钟信号的时钟信号发生器;以及
被配置成控制所述时钟信号发生器或所述驱动器的至少一者的处理器;
其中所述处理器、所述时钟信号发生器或所述驱动器中的至少一者被配置成:
在从期间光源不被驱动以发射IR光的时间到期间所述光源被所述驱动信号驱动以发射IR光的时间进行转换时使所述驱动信号的脉冲幅度或占空比斜升;以及
在从期间所述光源被所述驱动信号驱动以发射IR光的时间到期间所述光源不被驱动以发射IR光的时间进行转换时使所述驱动信号的脉冲幅度或占空比斜降。
CN201480028101.8A 2013-05-13 2014-05-13 用于tof系统的干扰减小 Active CN105264401B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361822873P 2013-05-13 2013-05-13
US61/822,873 2013-05-13
US14/055,660 US9442186B2 (en) 2013-05-13 2013-10-16 Interference reduction for TOF systems
US14/055,660 2013-10-16
PCT/US2014/037753 WO2014186304A1 (en) 2013-05-13 2014-05-13 Interference reduction for tof systems

Publications (2)

Publication Number Publication Date
CN105264401A CN105264401A (zh) 2016-01-20
CN105264401B true CN105264401B (zh) 2017-12-05

Family

ID=51864564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480028101.8A Active CN105264401B (zh) 2013-05-13 2014-05-13 用于tof系统的干扰减小

Country Status (4)

Country Link
US (1) US9442186B2 (zh)
EP (1) EP2997395B1 (zh)
CN (1) CN105264401B (zh)
WO (1) WO2014186304A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773155B2 (en) 2014-10-14 2017-09-26 Microsoft Technology Licensing, Llc Depth from time of flight camera
EP3271747B1 (en) * 2015-03-17 2022-05-25 Cornell University Depth field imaging apparatus, methods, and applications
US10145678B2 (en) 2015-04-20 2018-12-04 Samsung Electronics Co., Ltd. CMOS image sensor for depth measurement using triangulation with point scan
US20160309135A1 (en) 2015-04-20 2016-10-20 Ilia Ovsiannikov Concurrent rgbz sensor and system
US10250833B2 (en) 2015-04-20 2019-04-02 Samsung Electronics Co., Ltd. Timestamp calibration of the 3D camera with epipolar line laser point scanning
US11736832B2 (en) 2015-04-20 2023-08-22 Samsung Electronics Co., Ltd. Timestamp calibration of the 3D camera with epipolar line laser point scanning
US11002531B2 (en) 2015-04-20 2021-05-11 Samsung Electronics Co., Ltd. CMOS image sensor for RGB imaging and depth measurement with laser sheet scan
US9819930B2 (en) * 2015-05-26 2017-11-14 Omnivision Technologies, Inc. Time of flight imaging with improved initiation signaling
US10397546B2 (en) 2015-09-30 2019-08-27 Microsoft Technology Licensing, Llc Range imaging
US10523923B2 (en) 2015-12-28 2019-12-31 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US20170323429A1 (en) 2016-05-09 2017-11-09 John Peter Godbaz Multiple patterns in time-of-flight camera apparatus
CN106226777A (zh) * 2016-08-17 2016-12-14 乐视控股(北京)有限公司 红外探测定位方法及系统
US10514483B2 (en) 2016-10-13 2019-12-24 Massachusetts Institute Of Technology Time-of-flight camera for imaging through optical cavity
US10928489B2 (en) * 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
US10901087B2 (en) 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
FR3078851B1 (fr) * 2018-03-07 2020-02-14 Teledyne E2V Semiconductors Sas Camera de vision a mesure de temps de vol optimisee pour environnement multi-cameras
US20190045169A1 (en) * 2018-05-30 2019-02-07 Intel Corporation Maximizing efficiency of flight optical depth sensors in computing environments
JP2020020681A (ja) * 2018-08-01 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 光源装置、イメージセンサ、センシングモジュール
DE102019206318A1 (de) * 2019-05-03 2020-11-05 Robert Bosch Gmbh Kumulative Kurzpulsemission für gepulste LIDAR-Vorrichtungen mit langer Belichtungszeit
CN111024368B (zh) * 2019-12-06 2022-02-11 炬佑智能科技(苏州)有限公司 Tof相机杂散光检测装置及检测方法
WO2021165798A1 (en) * 2020-02-18 2021-08-26 Evolution Optiks Limited Multiview system, method and display for rendering multiview content, and viewer localisation system, method and device therefor
CN116669153B (zh) * 2022-12-09 2023-10-20 荣耀终端有限公司 发射功率回退方法、终端设备和计算机可读存储介质

Family Cites Families (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2849252C3 (de) * 1978-11-14 1981-07-30 Bruno Dipl.-Ing. 8602 Stegaurach Richter Optisch-elektrische Meßeinrichtung
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5278923A (en) * 1992-09-02 1994-01-11 Harmonic Lightwaves, Inc. Cascaded optical modulation system with high linearity
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6515740B2 (en) 2000-11-09 2003-02-04 Canesta, Inc. Methods for CMOS-compatible three-dimensional image sensing using quantum efficiency modulation
US7346918B2 (en) * 2000-12-27 2008-03-18 Z-Band, Inc. Intelligent device system and method for distribution of digital signals on a wideband signal distribution system
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US6853227B2 (en) * 2001-04-17 2005-02-08 K-Tek Corporation Controller for generating a periodic signal with an adjustable duty cycle
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
DE50302813D1 (de) 2002-04-19 2006-05-18 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US6867729B2 (en) * 2003-07-30 2005-03-15 Magnetrol International Guided wave radar level transmitter with automatic velocity compensation
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
DE102004050627B4 (de) 2004-10-18 2013-08-08 Audi Ag Verfahren und Entfernungsmessvorrichtung zum Bestimmen der Entfernung zwischen einem Objekt und der Vorrichtung
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
WO2006074289A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
WO2006124935A2 (en) 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US8427426B2 (en) 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7656743B2 (en) * 2005-11-10 2010-02-02 Qualcomm, Incorporated Clock signal generation techniques for memories that do not generate a strobe
DE102006050303A1 (de) 2005-12-05 2007-06-14 Cedes Ag Sensoranordnung sowie Sensorvorrichtung für eine Sensoranordnung
US7405812B1 (en) 2006-05-18 2008-07-29 Canesta, Inc. Method and system to avoid inter-system interference for phase-based time-of-flight systems
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US7620377B2 (en) * 2006-08-30 2009-11-17 General Dynamics C4 Systems Bandwidth enhancement for envelope elimination and restoration transmission systems
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
JP4944635B2 (ja) 2007-02-15 2012-06-06 本田技研工業株式会社 環境認識装置
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN102027388B (zh) 2008-04-11 2013-08-28 瑞士联邦理工大学,洛桑(Epfl) 采用显示器作为照明源的基于飞行时间的成像系统
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8009295B2 (en) * 2009-01-29 2011-08-30 Celight, Inc. Chemical sensing with noise pre-compensation
EP2486474B1 (en) * 2009-10-07 2020-03-04 Elliptic Laboratories AS User interfaces
US8986211B2 (en) * 2009-10-12 2015-03-24 Kona Medical, Inc. Energetic modulation of nerves
US20120017153A1 (en) 2010-07-15 2012-01-19 Ken Matsuda Dynamic video editing
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9857469B2 (en) 2010-10-22 2018-01-02 Heptagon Micro Optics Pte. Ltd. System and method for multi TOF camera operation using phase hopping
US8642938B2 (en) 2012-01-13 2014-02-04 Omnivision Technologies, Inc. Shared time of flight pixel

Also Published As

Publication number Publication date
CN105264401A (zh) 2016-01-20
US9442186B2 (en) 2016-09-13
WO2014186304A1 (en) 2014-11-20
EP2997395B1 (en) 2020-10-07
US20140333917A1 (en) 2014-11-13
EP2997395A1 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
CN105264401B (zh) 用于tof系统的干扰减小
US9462253B2 (en) Optical modules that reduce speckle contrast and diffraction artifacts
CN102163324B (zh) 深度图像的去混叠
CN102222329B (zh) 深度检测的光栅扫描
TWI628465B (zh) 發射結構光的照明模組
US11778318B2 (en) Depth sensing techniques for virtual, augmented, and mixed reality systems
CN102448563B (zh) 用于处理场景的深度信息的方法和设备
CN102576463B (zh) 用于移除图像的背景的系统和方法
US8548270B2 (en) Time-of-flight depth imaging
TW201510554A (zh) 用於同深度攝影機使用的光學模組
US8605205B2 (en) Display as lighting for photos or video
US20120326959A1 (en) Region of interest segmentation
CN102129709A (zh) 可视化深度
CN107077730A (zh) 基于剪影的肢寻找器确定
CN105164617B (zh) 自主nui设备的自发现

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant