CN102301313B - 视觉目标跟踪 - Google Patents

视觉目标跟踪 Download PDF

Info

Publication number
CN102301313B
CN102301313B CN2010800063053A CN201080006305A CN102301313B CN 102301313 B CN102301313 B CN 102301313B CN 2010800063053 A CN2010800063053 A CN 2010800063053A CN 201080006305 A CN201080006305 A CN 201080006305A CN 102301313 B CN102301313 B CN 102301313B
Authority
CN
China
Prior art keywords
model
pixel
synthetic
target
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010800063053A
Other languages
English (en)
Other versions
CN102301313A (zh
Inventor
R·M·盖斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102301313A publication Critical patent/CN102301313A/zh
Application granted granted Critical
Publication of CN102301313B publication Critical patent/CN102301313B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

一种跟踪目标的方法包括从源接收目标的观察到的深度图像以及获得目标的姿态模型。该模型被光栅化成合成的深度图像,至少部分地基于观察到的深度图像和合成的深度图像之间的差异来调整模型的姿态。

Description

视觉目标跟踪
技术领域
本发明涉及视觉目标跟踪。
背景技术
许多计算机游戏和其他计算机视觉应用利用复杂的控制来允许用户操纵游戏人物或应用的其他方面。这些控制可能难以学习,从而对许多游戏或其他应用造成了进入障碍。此外,这些控制可能与这些控制所用于的实际游戏动作或其他应用动作非常不同。例如,使得游戏人物挥动棒球拍的游戏控制可能完全不类似于挥动棒球拍的实际运动。
发明内容
提供本概述以便以简化形式介绍将在以下的具体实施方式中进一步描述的一些概念。本概述并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本发明的任一部分中提及的任何或所有缺点的实现。
这里讨论了与视觉目标跟踪有关的各种实施例。所公开的一个实施例包括通过从源接收观察到的目标的深度图像以及获得目标的姿态模型来跟踪目标。姿态模型被光栅化成合成的深度图像。然后至少部分地基于观察到的深度图像和合成的深度图像之间的差异来调整模型的姿态。
附图描述
图1A示出了跟踪玩拳击游戏的游戏玩家的示例性目标识别、分析和跟踪系统的实施例。
图1B示出了图1A的游戏玩家挥出重拳,该重拳被跟踪并且被解释成致使玩家化身在游戏空间中挥出重拳的游戏控制。
图2示意性示出根据本发明的一实施例的计算系统。
图3示出了用于表示人类目标的示例性身体模型。
图4示出了用于表示人类目标的示例性骨架模型的基本上正面的视图。
图5示出了用于表示人类目标的示例性骨架模型的斜视图。
图6示出了用于表示人类目标的示例性网格模型。
图7示出了在视觉上跟踪目标的示例方法的流程图。
图8示出了示例性的观察到的深度图像。
图9示出了示例性的合成的深度图像。
图10示意性地示出了构成合成的深度图像的像素中的某一些。
图11A示意性地示出了向模型的受力位置施加力。
图11B示意性地示出了向图11A的模型的受力位置施加力的结果。
图12A示出了从图11A的模型渲染的玩家化身。
图12B示出了从图11B的模型渲染的玩家化身。
具体实施方式
本公开内容涉及目标识别、分析和跟踪。具体来所,公开了使用深度相机或其他源来获取一个或多个目标的深度信息。如下文详细描述的,这些深度信息然后可被用于高效且准确地对一个或多个目标进行建模以及跟踪一个或多个目标。这里所述的目标识别、分析和跟踪提供了一种健壮的平台,其中可以相对较快的帧率来一致地跟踪一个或多个目标,即使目标移动成已被认为是使用其他方法难于分析的姿态(例如,当两个或更多个目标部分地互相重叠和/或遮挡时;当目标的一部分遮挡同一目标的另一部分时;当目标改变其局部解剖(topographical)外观(如某人触摸他的或她的头)时,等等)。
图1A示出目标识别、分析和跟踪系统10的一非限制性示例。具体而言,图1A示出了计算机游戏系统12,该计算机游戏系统12可以用于玩各种各样不同的游戏、播放一个或多个不同的媒体类型、和/或控制或操纵非游戏应用。图1A还示出了高清晰度电视即HDTV 16形式的显示器14,该高清晰度电视可以用于向诸如游戏玩家18之类的游戏玩家呈现游戏视觉。此外,图1A示出了深度相机20形式的捕获设备,其可以用于视觉地监视诸如游戏玩家18之类的一个或多个游戏玩家。图1A中所示的示例是非限制性的。如下面参考图2所述,在不偏离本公开的范围的情况下可以使用各种不同类型的目标识别、分析和跟踪系统。
目标识别、分析和跟踪系统可以用于识别、分析和/或跟踪诸如游戏玩家18之类的一个或多个目标。图1A示出了如下的场景:使用深度相机20跟踪游戏玩家18,使得游戏玩家18的运动可以被游戏系统12解释成可以用于影响由游戏系统12执行的游戏的控制。换言之,游戏玩家18可以使用其运动来控制游戏。游戏玩家18的运动基本上可以被解释成任何类型的游戏控制。
图1A中示出的示例场景示出了游戏玩家18正在玩正由游戏系统12执行的拳击游戏。游戏系统使用HDTV 16来在视觉上向游戏玩家18呈现拳击对手22。此外,游戏系统使用HDTV 16来在视觉上呈现游戏玩家18用其运动控制的玩家化身24。如图1B中所示,游戏玩家18可以在物理空间中挥出重拳来作为对玩家化身24在游戏空间中挥出重拳的指令。游戏系统12和深度相机20可以用于识别和分析游戏玩家18在物理空间中的重拳,从而使得该重拳可以被解释成使得游戏化身24在游戏空间中挥出重拳的游戏控制。例如,图1B示出了HDTV 16响应于游戏玩家18在物理空间中挥出重拳而在视觉上呈现游戏化身24挥出袭击拳击对手22的重拳。
游戏玩家18的其他运动也可以被解释成其他控制,诸如上下快速摆动、闪避、滑步、格挡、用拳猛击或挥动各种不同力度的重拳等控制。此外,一些运动可以被解释成用于除了控制游戏化身24之外的目的的控制。例如,玩家可以使用运动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。
在某些实施例中,目标可包括人类和物体。在这些实施例中,例如,电子游戏的玩家可手持物体,从而可以使用玩家和物体的运动来调整和/或控制电子游戏的参数。例如,可以跟踪并利用玩家手持球拍的运动来控制电子运动游戏中的屏幕上球拍。在另一示例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上的武器。
目标识别、分析和跟踪系统还可以用于将目标运动解释成游戏领域之外的操作系统和/或应用控制。基本上,操作系统和/或诸如图1A和1B中所示拳击游戏之类的应用的任何可控制的方面都可以由诸如游戏玩家18之类的目标的运动来控制。所示出的拳击场景是作为示例来提供的,但决不意味着以任何方式进行限制。相反,所示出的场景旨在展示可以在不背离本公开的范围的情况下应用于各种各样不同的应用程序的一般概念。
在此所述的方法和过程可以绑定到各种不同类型的计算系统。图1A和1B示出了游戏系统12、HDTV 16和深度相机20形式的非限制性示例。作为另一更一般的示例,图2示意性地示出可以执行这里所述的一个或多个目标识别、跟踪和分析方法和过程的计算系统40。计算系统40可以采取各种不同的形式,尤其包括但不限于:游戏控制台、个人计算游戏系统、军用跟踪和/或定标系统、以及提供绿屏或者运动捕获功能的特征采集系统。
计算系统40可包括逻辑子系统42、数据保持子系统44、显示子系统46和/或捕捉设备48。计算系统可任选地包括图2中未示出的组件,和/或图2中所示的某些组件可以是不集成在计算系统中的外围组件。
逻辑子系统42可包括被配置成执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统可以被配置成执行一个或多个指令,该一个或多个指令是一个或多个程序、例程、对象、组件、数据结构或其它逻辑构造的一部分。可以实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其它方式得到所需结果。逻辑子系统可以包括被配置为执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统可以任选地包括分布在两个或多个设备上的独立组件,这些独立组件在某些实施例中可远程放置。
数据保持子系统44可包括被配置为保持可由逻辑子系统执行以实现此处所述的方法和过程的数据和/或指令。在实现此类方法和过程时,可以变换数据保持子系统44的状态(例如,保持不同数据)。数据保持子系统44可以包括可移动介质和/或内置设备。数据保持子系统44可以包括光学存储器设备、半导体存储器设备(如RAM、EEPROM、闪存等)、和/或磁存储器设备等。数据保持子系统44可以包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,可以将逻辑子系统42和数据保持子系统44集成到一个或多个常见设备中,如专用集成电路或片上系统。
图2还示出使用计算机可读可移动介质50形式的数据保持子系统的一方面,该方面可以用于存储和/或传送可执行以实现此处所述的方法和过程的数据和/或指令。
显示子系统46可被用于呈现由数据保持子系统44保持的数据的可视表示。由于此处所描述的方法和过程改变由数据保持子系统保持的数据,并由此变换数据保持子系统的状态,因此同样可以变换显示子系统46的状态以视觉地表示底层数据的改变。作为一个非限制性示例,可通过显示子系统46以响应于游戏玩家在物理空间中的移动来改变游戏空间中的姿态的游戏人物的形式来反映这里所述的目标识别、跟踪和分析。显示子系统46可以包括使用基本上任何类型的技术的一个或多个显示设备。可将这些显示设备与逻辑子系统42和/或数据保持子系统44一起组合在共享封装中,或这些显示设备可以是外围显示设备,如图1A和1B所示。
计算系统40还包括被配置成获得一个或多个目标的深度图像的捕捉设备48。捕捉设备48可以被配置成通过任何合适的技术(例如,飞行时间、结构化光、立体图像等等)捕捉具有深度信息的视频。如此,捕捉设备48可包括深度相机、摄像机、立体相机、和/或其他合适的捕捉设备。
例如,在飞行时间分析中,捕捉设备48可以向目标发射红外光,然后使用传感器来检测从目标的表面反向散射的光。在一些情况下,可以使用脉冲式红外光,其中可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从捕捉设备到目标上的某一位置的物理距离。在一些情况下,出射光波的相位可以与入射光波的相位相比较以确定相移,并且该相移可以用于确定从捕捉设备到目标上的某一位置的物理距离。
在另一示例中,飞行时间分析可用于通过经由诸如快门式光脉冲成像之类的技术分析反射光束随时间的强度,来间接地确定从捕捉设备到目标上的某一位置的物理距离。
在另一示例中,结构化光分析可以被捕捉设备48用于捕捉深度信息。在这样的分析中,图案化光(即被显示为诸如网格图案或条纹图案之类的已知图案的光)可以被投影到目标上。在落到目标的表面上时,作为响应,该图案可能变形,并且图案的这种变形可以被研究以确定从捕捉设备到目标上的某一位置的物理距离。
在另一示例中,捕捉设备可以包括两个或更多个物理上分开的相机,这些相机从不同角度查看目标以获得视觉立体数据。这这种情况下,视觉立体数据可以被解析以生成深度图像。
在其他实施例中,捕捉设备48可以使用其他技术来测量和/或计算深度值。此外,捕捉设备48可以将所计算的深度信息组织为“Z层”,即与从深度相机沿其视线延伸到观察者的Z轴垂直的层。
在一些实施例中,两个或更多个不同的相机可以被合并到一集成捕捉设备中。例如,深度相机和摄像机(例如RGB摄像机)可以被合并到共同的捕捉设备中。在一些实施例中,可以协作式地使用两个或更多个分开的捕捉设备。例如,可以使用深度相机和分开的摄像机。当使用摄像机时,可以将其用于提供目标跟踪数据、对目标跟踪进行纠错的确认数据、图像捕获、面部识别、高精度手指(或其他小特征)跟踪、光感测和/或其他功能。
要理解,至少一些目标分析和跟踪操作可以由一个或多个捕捉设备的逻辑机来执行。捕捉设备可以包括被配置成执行一个或多个目标分析和/或跟踪功能的一个或多个板载处理单元。捕捉设备可以包括促进更新这样的板载处理逻辑的固件。
计算系统40可任选地包括诸如控制器52和控制器54之类的一个或多个输入设备。输入设备可被用于控制计算系统的操作。在游戏的上下文中,诸如控制器52和/或控制器54之类的输入设备可被用于控制游戏的那些不是通过这里所述的目标识别、跟踪和分析方法和过程来控制的方面。在某些实施例中,诸如控制器52和/或控制器54之类的输入设备可包括可用于测量控制器在物理空间中的移动的加速计、陀螺仪、红外目标/传感器系统等中的一个或多个。在某些实施例中,计算系统可任选地包括和/或利用输入手套、键盘、鼠标、跟踪垫、轨迹球、触屏、按钮、开关、拨盘、和/或其他输入设备。如将理解的,目标识别、跟踪和分析可被用于控制或扩充游戏或其他应用的常规上由诸如游戏控制器之类的输入设备控制的方面。在某些实施例中,这里所述的目标跟踪可被用作对其他形式的用户输入的完全替代,而在其他实施例中,这种目标跟踪可被用于补充一个或多个其他形式的用户输入。
计算系统40可被配置成执行这里所述的目标跟踪方法。然而,应理解,计算系统40是作为可执行这种目标跟踪的设备的非限制性示例而提供的。其他设备也在本公开的范围之内。
计算系统40或另一合适的设备可被配置成用模型来表示每个目标。如下面更详细地描述的,从这样一种模型导出的信息可与从诸如深度相机之类的捕捉设备获得信息相比较,使得模型的基本比例或形状以及其当前姿态可被调整成更准确地表示被建模的目标。模型可由一个或多个多边形网格、由一组数学图元、和/或通过被建模的目标的其他合适的机器表示来表示。
图3示出了示例身体模型70的非限制视觉表示。身体模型70是被建模的目标(例如,图1A和1B的游戏玩家18)的机器表示。该身体模型可包括一个或多个数据结构,这些数据结构包括以游戏或其他应用/操作系统的语言来共同定义被建模的目标的一组变量。
目标的模型可在不脱离本发明的范围的情况下不同地配置。在某些示例中,模型可包括将目标表示为包括刚性和/或可变形形状,即身体部位的三维模型的一个或多个数据结构。每一身体部位可被表征为数学图元,其示例包括但不限于球体、各向异性地缩放的球体、圆柱体、各向异性圆柱体、平滑圆柱体、方形、斜面方形、棱柱等。
例如,图3的身体模型70包括身体部位bp1到bp14,其每一个都表示被建模的目标的一不同部分。每一身体部位是一三维形状。例如,bp3是表示被建模的目标的左手的矩形棱柱,而bp5是表示被建模的目标的左上臂的八面棱柱。身体模型70的示例性表现在身体模型可包含任何数量的身体部位,其每一个都可以是被建模的目标的对应部分的任何机器可理解的表示。
包括两个或更多个身体部位的模型还可包括一个或多个关节。每一关节可允许一个或多个身体部位相对于一个或多个其他身体部位移动。例如,表示人类目标的模型可包括多个刚性和/或可变形身体部位,其中某些身体部位可表示人类目标的对应的解剖学身体部位。此外,该模型的每一身体部位可包括一个或多个结构件(即,“骨骼”),且关节位于相邻骨骼的交叉点处。可以理解,某些骨骼可对应于人类目标中的解剖学骨骼,和/或某些骨骼可能不具有人类目标中的对应的解剖学骨骼。
骨骼和关节可共同构成骨架模型,其可以是该模型的构成元素。骨架模型可包括对应于每一身体部位的一个或多个骨架构件以及相邻骨架构件之间的关节。示例性骨架模型80和示例性骨架模型82分别在图4和5中示出。图4示出了从正面看的具有关节j1到j33的骨架模型80。图5示出了从斜视图看的也具有关节j1到j33的骨架模型82。骨架模型82还包括滚动关节j34到j47,其中每一滚动关节可用于跟踪轴向滚动角。例如,轴向滚动角可用于相对于其源肢和/或躯干来定义肢的旋转定向。例如,如果骨架模型示出手臂的轴向旋转,则可使用滚动关节j40来指示相关联的腕所指向的方向(例如,手掌向上)。由此,尽管关节可受力并调整骨架模型,但如下所述,可改为构造并利用滚动关节来跟踪轴向滚动角。更一般地,通过检查肢相对于其源肢和/或躯干的定向,可确定轴向滚动角。例如,如果正在检查小腿,则可检查小腿相对于相关联的大腿和髋部的定向来确定轴向滚动角。
如上所述,某些模型可包括用作被建模的目标的机器表示的骨架和/或身体部位。在某些实施例中,模型可另选地或另外地包括线框网格,该线框网格可包括刚性多边形网格、一个或多个可变形网格或两者的任意组合的分层结构。作为一个非限制性示例,图6示出了包括排列成定义身体模型的形状的网格的多个三角形(例如,三角形92)的模型90。这一网格可包括每一多边形边处的弯曲限制。当使用网格时,可选择共同构成该网格的三角形和/或其他多边形的数量来达到质量和计算开销之间的所需平衡。更多三角形可提供更高的质量和/或更准确的模型,而更少三角形可需要更少的计算。包括多边形网格的身体模型不需要包括骨架,但在某些实施例中可包括骨架。
上述身体部位模型、骨架模型和多边形网格是可用作被建模的目标的机器表示的非限制示例模型类型。其他模型也在本发明的范围之内。例如,某些模型可包括片、非均匀理性B样条、细分表面、或其他高阶表面。模型还可包括表面纹理和/或其他信息来更准确地表示被建模的目标的衣着、头发和/或其他方面。模型可任选地包括与当前姿态、一个或多个过去的姿态和/或模型物理学有关的信息。要理解,可摆姿态并然后可被光栅化成合成的深度图像(或以其他方式由合成的深度图像呈现或表达)的任何模型与这里所述的目标识别、分析和跟踪兼容。
如上所述,模型用作诸如图1A和1B中的游戏玩家18等目标的表示。当目标在物理空间中移动时,来自诸如图1A和1B中的深度相机20等捕捉设备的信息可用于调整模型的姿态和/或基本大小/形状,以使其更准确地表示该目标。具体地,可向该模型的一个或多个受力方面施加一个或多个力,来将该模型调整成更接近地对应于物理空间中的目标的姿态的姿态。取决于所使用的模型的类型,可向模型的关节、身体部位的质心、三角形的顶点、或任何其他合适的受力方面施加力。此外,在某些实施例中,在确定力的方向和/或大小时可使用两个或更多个不同的计算。如以下更详细描述的,捕捉设备所检索的目标的观察到的图像与模型的光栅化(即,合成的)图像之间的差异可用于确定施加于该模型的力以将身体调整到不同的姿态。
图7示出了使用模型(例如,图3的身体模型70)来跟踪目标的示例方法100的流程图。在某些实施例中,该目标可以是人类,并且该人类可以是所跟踪的两个或更多个目标中的一个。如此,在某些实施例中,方法100可由计算系统(如图1所示的游戏系统12和/或图2所示的计算系统40)执行来跟踪一个或多个玩家与计算系统上正在玩的电子游戏的交互。如以上所介绍的,对玩家的跟踪允许这些玩家的物理移动用作调整和/或控制电子游戏的参数的实时用户接口。例如,所跟踪的玩家的运动可用于移动电子角色扮演游戏中的屏幕上的人物或化身。在另一示例中,所跟踪的玩家的运动可用于控制电子赛车游戏中的屏幕上的车辆。在又一示例中,所跟踪的玩家的运动可用于控制虚拟环境中的物体的建筑或组织。
在102,该方法100包括从源接收目标的观察到的深度图像。在某些实施例中,源可以是配置成通过诸如飞行时间分析、结构化光分析、立体视觉分析之类的合适的技术或其他合适的技术获得关于目标的深度信息的深度相机。观察到的深度图像可以包括多个观察到的像素,其中每个观察到的像素具有观察到的深度值。观察到的深度值包括从源查看到的目标的深度信息。图8示出了示例性的观察到的深度图像140的视觉表示。如所示,观察到的深度图像140捕捉手臂举起的站立的人(例如,游戏玩家18)的示例性的观察到的姿态。
如图7的104处所示,在接收到观察到的深度图像之后,方法100可任选地包括将观察到的深度图像降采样到较低的处理分辨率。降采样到较低的处理分辨率可允许以更少的计算开销来更容易地使用和/或更快速地处理观察到的深度图像。
如106处所示,在接收到观察到的深度图像之后,方法100可任选地包括从观察到的深度图像中移除非玩家背景元素。移除这些背景元素可包括将观察到的深度图像的各个区域分隔成背景区域和目标的图像所占据的区域。背景区域可从图像中被移除或被标识以使其可在一个或多个后续处理步骤期间被忽略。实际上可使用任何背景移除技术,且来自跟踪(以及来自前一帧)的信息可任选地被用于帮助和提高背景移除的质量。
如108处所示,在接收到观察到的深度图像之后,方法100可任选地包括从观察到的深度图像中移除和/或平滑掉一个或多个高变度和/或含噪声的深度值。观察到的深度图像中的此类高变度和/或含噪声的深度值可源自多个不同来源,如在图像捕捉过程期间发生的随机和/或系统性误差、因捕捉设备而导致的缺陷和/或畸变,等等。由于此类高变度和/或含噪声的深度值可以是图像捕捉过程的伪像,因此在图像的任何将来的分析中包括这些值会使结果偏斜和/或使计算变慢。由此,移除此类值可为将来的计算提供更好的数据完整性。
还可过滤掉其他深度值。例如,下文参考步骤118所述的增长操作的准确度可通过选择性地移除满足一个或多个移除准则的像素来得到增强。例如,如果一深度值处于手和手所遮挡的躯干之间的中间,移除该像素可防止在后续处理步骤期间增长操作将一个身体部位溢出(spill)在另一身体部位之上。
如110处所示,方法100可任选地包括填入和/或重构丢失和/或移除的深度信息的各部分。此类回填可通过对最近邻居求平均、过滤和/或任何其他合适的方法来实现。
如图7的112处所示,方法100可包括获得模型(例如,图3的身体模型70)。如上所述,该模型可包括一个或多个多边形网格、一个或多个数学图元、一个或多个高阶表面、和/或用于提供目标的机器表示的其他特征。此外,该模型可作为计算系统上存在的一个或多个数据结构的实例来存在。
在方法100的一些实施例中,该模型可以是从前一时间步获得的姿态模型。例如,如果方法100是连续执行的,则可获得从方法100的前一次迭代得到的、对应于前一时间步的姿态模型。
在某些实施例中,姿态可由一个或多个算法来确定,这些算法可分析深度图像并以粗略水平标识所感兴趣的目标(例如人)位于哪里和/或这(些)目标的姿态。在初始迭代期间或每当相信算法可选择比前一时间步期间计算的姿态更准确的姿态时,可使用算法选择姿态。
在某些实施例中,该模型可以从数据库和/或其他程序获得。例如,模型可能在方法100的第一次迭代期间不可用,在这一情况下该模型可从包括一个或多个模型的数据库获得。在这一情况下,可使用被设计成选择展示与目标的姿态相似的姿态的模型的搜索算法来从数据库选择模型。即使来自前一时间步的模型是可用的,也可使用来自数据库的模型。例如,如果目标已改变姿态超过预定阈值,和/或根据其他准则,则可在特定帧数之后使用来自数据库的模型。
在其他实施例中,可合成模型或其各部分。例如,如果目标的身体核心(躯干、上腹部和髋部)是由可变形的多边形模型来表示的,则可使用观察到的深度图像的内容来最初地构造该模型,其中该图像中的目标的轮廓(即,侧影)可用于形成X和Y维度中的网格。另外,在这一方法中,观察到的深度图像的该区域中观察到的深度值可用于在模型的XY方向以及Z方向上“塑造”网格,以更令人满意地表示目标的身体形状。
方法100还可包括使用合适的方法来表示出现在目标上的任何衣物。这一合适的方法可包括向模型添加图元或多边形网格形式的辅助几何形状,以及任选地基于姿态来调整该辅助几何形状来反映重力、衣料仿真等等。这一方法可方便将模型塑造成目标的更真实表示。
如114所示,方法100可任选地包括向模型应用动量算法。由于目标的各个部位的动量可以预测图像序列的变化,因此这一算法可助于获得模型的姿态。动量算法可使用模型的每一关节或顶点在多个固定数量的先前帧上的轨迹,以帮助获得模型。
在某些实施例中,关于目标的不同部分可以在一时间帧(例如,一秒的1/30或1/60)内移动有限距离的知识可用作获得模型时的约束。这一约束可用于在前一帧已知时排除特定姿态。
在图7的116,方法100还可包括将模型光栅化成合成的深度图像。光栅化允许由数学图元、多边形网格或其他对象描述的模型被转换成由多个像素描述的合成的深度图像。
光栅化可以使用一个或多个不同的技术和/或算法来进行。例如,光栅化模型可包括将模型的表示投影到二维平面上。在包括多个身体部位形状的模型(例如,图3的身体模型70)的情况下,光栅化可包括将身体部位形状的集合投影并光栅化到二维平面上。对于模型投影到其上的二维平面中的每一像素,可存储各种不同类型的信息。
图9示出了对应于图3的身体模型70的示例性合成的深度图像的视觉表示150。图10示出了同一合成的深度图像的一部分的像素矩阵160。如在170所指示的,合成的深度图像中的每一合成的像素可包括合成的深度值。如光栅化期间所确定的,给定的合成的像素的合成的深度值可以是来自由该合成的像素表示的模型的对应部位的深度值。换言之,如果前臂身体部位(例如,图3的前臂身体部位bp4)的一部分被投影到二维平面上,则对应的合成的像素(例如,图10的合成的像素162)可被给予等于前臂身体部位的该部分的深度值的合成的深度值(例如,图10的合成的深度值164)。在所示示例中,合成的像素162具有合成的深度值382cm。同样,如果相邻的手身体部位(例如,图3的手身体部位bp3)被投影到二维平面上,则对应的合成的像素(例如,图10的合成的像素166)可被给予等于手身体部位的该部分的深度值的合成的深度值(例如,图10的合成的深度值168)。在所示示例中,合成的像素166具有合成的深度值383cm。可以理解,以上是作为示例提供的。合成的深度值可以用任何度量单位来保存,或作为无量纲数来保存。
如170处所指示的,合成的深度图像中的每一合成的像素可包括光栅化期间确定的原始身体部位索引。这一原始身体部位索引可指示像素对应于模型的哪些身体部位。在图10所示的示例中,合成的像素162具有原始身体部位索引bp4,而合成的像素166具有原始身体部位索引bp3。在某些实施例中,如果合成的像素不对应于目标的身体部位(例如,如果合成的像素是背景像素),则合成的像素的原始身体部位索引可以为0(nil)。在某些实施例中,不对应于某一身体部位的合成的像素可被给予一不同类型的索引。
如170处所指示的,合成的深度图像中的每一合成的像素可包括光栅化期间确定的原始玩家索引,该原始玩家索引对应于该目标。例如,如果有两个目标,则对应于第一目标的合成的像素将具有第一玩家索引,而对应于第二目标的合成的像素将具有第二玩家索引。在所示示例中,像素矩阵160仅对应于一个目标,因此合成的像素162具有原始玩家索引P1,而合成的像素166具有原始玩家索引P1。可使用其他类型的索引系统而不背离本发明的范围。
如170处所指示的,合成的深度图像中的每一合成的像素可包括一像素地址。该像素地址可定义像素相对于其他像素的位置。在所示示例中,合成的像素162具有像素地址[5,7],而合成的像素166具有像素地址[4,8]。可以理解,可使用其他定址方案而不背离本发明的范围。
如在170处所指示的,每个合成的像素可任选地包括其他类型的信息,这些信息中的一些可在光栅化后获得。例如,每个合成的像素可包括更新的身体部位索引,该更新的身体部位索引可作为光栅化期间执行的咬合(snap)操作的一部分来确定,如下所述。每个合成的像素可包括更新的玩家索引,该更新的玩家索引可作为光栅化期间执行的咬合操作的一部分来确定每个合成的像素可包括更新的身体部位索引,该更新的身体部位索引可作为增长/修补(fix)操作的一部分来获得,如下所述。每个合成的像素可包括更新的玩家索引,该更新的玩家索引可作为增长/修补(fix)操作的一部分来获得,如下所述。
以上提供的示例类型的像素信息并非限制。可存储各种不同类型的信息来作为每一像素的一部分。这些信息可被存储为公共数据结构的一部分,或者不同类型的信息可被存储在可(例如通过像素地址)被映射到具体像素位置的不同数据结构。作为一示例,作为光栅化期间的咬合操作的一部分获得的玩家索引和/或身体部位索引可被存储在光栅化映射和/或咬合映射中,而作为光栅化之后的增长/修补操作的一部分获得的玩家索引和/或身体部位索引可被存储在增长映射中,如下所述。可被分配给每一像素的其他类型的像素信息的非限制示例包括但不限于,关节索引、骨骼索引、顶点索引、三角形索引、质心索引等等。
在118,图7的方法100可任选地包括咬合和/或增长身体部位索引和/或玩家索引。换言之,可扩大合成的深度图像以使某些像素的身体部位索引和/或玩家索引改变来试图更接近地对应于被建模的目标。
在执行上述光栅化时,可构造一个或多个Z缓存和/或身体部位/玩家索引映射。作为一个非限制示例,这一缓存/映射的第一版本可通过执行如下的Z测试来构造:选择最接近观看者(例如,深度相机)的表面并且将与该表面相关联的身体部位索引和/或玩家索引写入对应的像素。该映射可被称为光栅化映射或原始合成的深度映射。这一缓存/映射的第二版本可通过执行如下的Z测试来构造:选择最接近该像素处的观察到的深度值的表面,并且将与该表面相关联的身体部位索引和/或玩家索引写入对应的像素。这可被称为咬合映射。可约束这些测试,以便拒绝合成的深度值和观察到的深度值之间超过预定阈值的Z距离。在某些实施例中,可维护两个或更多个Z缓存和/或两个或更多个身体部位/玩家索引映射,从而允许进行两个或更多个上述测试。
缓存/映射的第三版本可通过增长和/或纠正身体部位/玩家索引映射来构造。这可被称为增长映射。以上述咬合映射的副本开始,可在预定Z距离内在任何“未知的”值上增长各值,使得被目标占据但未被身体模型占据的空间可以用适合的身体部位/玩家索引来填充。这一方法还可包括如果标识了更满意的匹配则不取(overtake)已知值。
增长映射可以从在咬合映射的合成的像素上过一遍来检测具有带有不同身体部位/玩家索引的相邻像素的像素开始。这些可被认为是“边”像素,即,可任选地沿着其来传播值的边界。如上所述,增长像素值可包括增长成“未知的”或“已知的”像素。对于“未知的”像素,例如,在一个场景中,身体部位/玩家索引值之前可能为0,但是现在可具有非零相邻像素。在这一情况下,可检查四个直接相邻像素,并且可选择具有更接近地类似于感兴趣的像素的深度值的观察到的深度值的相邻像素并将其分配给感兴趣的像素。在“已知的”像素的情况下,可能的是如果具有已知非零身体部位/玩家索引值的像素的一个相邻像素具有在光栅化期间写入的、比该像素的合成的深度值更接近地匹配感兴趣的像素的观察到的深度值的深度值,则可不取(overtake)该具有已知非零身体部位/玩家索引值的像素。
另外,出于效率的目的,更新合成的像素的身体部位/玩家索引值可包括将其相邻的四个像素添加到要在后一遍重新访问的像素的队列。如此,值可沿着边界持续传播而不用在所有像素上完整地过一遍。作为另一优化,可跟踪感兴趣的目标所占据的不同的N×N的像素块(例如16×16的像素块),使得不被感兴趣的目标占据的其他块可被忽略。可在光栅化之后在目标分析期间的任何点上用各种形式来应用这种优化。
然而,要注意的是增长操作可采用各种不同的形式。例如,可首先执行各种泛色填充以标识相似值的区域,然后可决定哪些区域属于哪些身体部位。此外,任何身体部位/玩家索引对象(例如,图3的左前臂身体部位bp4)可增长的像素数量可基于预期这一对象占据多少像素(例如,给定其形状、距离和角度)对比咬合映射中有多少像素被分配该身体部位/玩家索引来得到限制。另外,上述方法可包括对于某些姿态添加优点或缺点来偏移对某些身体部位的增长,使得增长可正确。
如果确定来自某一身体部位的像素的分布被分组成一个深度,而来自同一身体部位的像素的另一分布被分组成另一深度,从而在这两个分布之间存在间隙,则可以对咬合映射作出渐进咬合调整。例如,在躯干前且靠近躯干挥动的手臂可“溢出到”(spill into)躯干中。这一情况可产生一组具有一身体部位索引的躯干像素,该身体部位索引指示这些像素是手臂像素,而实际上它们应是躯干像素。通过检查小臂中的合成的深度值的分布,可以确定某些手臂像素可被分组成一个深度,而其余可被分组成另一深度。这两组深度值之间的间隙指示手臂像素和应该是躯干像素的像素之间的跳跃。由此,响应于标识这一间隙,然后可通过向溢出像素分配躯干身体部位索引来补救该溢出。作为另一示例,渐进咬合调整在“手臂在背景对象上”(arm-over-background-object)情况中可能是有帮助的。在该情况中,可使用直方图来标识感兴趣的像素(即被认为属于手臂的像素)的观察到的深度中的间隙。基于这一间隙,一组或多组像素可被标识为正确地属于手臂,和/或其他组可作为背景像素而被拒绝。直方图可基于各种度量,例如绝度深度;深度误差(合成的深度-观察到的深度)等。在任何增长操作之前,可在光栅化期间内联地执行渐进咬合调整。
在120处,图7的方法100可任选地包括从上述三个阶段的处理处的观察到的深度图像、合成的深度图像、以及身体部位/玩家索引映射创建高度映射。这一高度映射的梯度和/或这一高度映射的模糊版本可在确定要对模型作出的调整的方向时使用,如下文所描述的。然而,高度映射仅仅是一种优化;另选地或另外地,可执行所有方向上的搜索来标识可应用调整的最接近的关节和/或要作出这些调整的方向。当使用高度映射时,可以在以下描述的像素类确定之前、之后或同时创建高度映射。当被使用时,高度映射被设计成将玩家的实际身体设为低标高(elevation),而将背景元素设为高标高。然后可使用分水岭样式的技术来跟踪高度映射中的“下坡”,以找到玩家上离背景最近的点,或反之亦然(即搜寻高度映射中的“上坡”以找到最接近于给定玩家像素的背景像素)。
合成的深度图像和观察到的深度图像可能不相同的,且因此合成的深度图像可使用调整和/或修改以使其更接近地匹配观察到的深度图像且因此更准确地表示目标。要理解,可通过首先对模型作出调整(例如改变模型的姿态),然后将经调整的模型合成为合成的深度图像的新版本来对合成的深度图像作出调整。
可采取多种不同方法来修改合成的深度图像。在一种方法中,可获得并光栅化两个或更多个不同的模型来产生两个或更多个合成的深度图像。每一合成的深度图像然后可以按照预定的一组比较度量来与观察到的深度图像进行比较。可选择展示出与观察到的深度图像最接近的匹配的合成的深度图像,且该过程可任选地被重复来改进该模型。当被使用时,该过程可尤其有用于精制该身体模型以匹配玩家的体型和/或身体尺寸。
在另一方法中,可经由内插或外插来混合两个或更多个合成的深度图像以产生混合的合成的深度图像。在又一方法中,可按混合技术和参数跨混合的合成的深度图像变化的方式来混合两个或更多个合成的深度图像。例如,如果第一合成的深度图像在一个区域中令人满意地匹配到观察到的深度图像,而第二合成的深度图像在第二区域中令人满意地匹配,则混合的合成的深度图像中所选的姿态可以是类似于用于创建第一区域中的第一合成的深度图像的姿态和用于创建第二区域中的第二合成的深度图像的姿态的混合。
在再一方法中,如图7的122处所示,可将合成的深度图像与观察到的深度图像进行比较。合成的深度图像的每一合成的像素可基于比较的结果来分类。这一分类可被称为为每一像素确定像素例(pixel case)。用于创建合成的深度图像的模型(例如,图3的身体模型70)可根据所确定的像素例来系统地调整。具体地,可基于所确定的像素例来计算力矢量(大小和方向),并且取决于模型的类型,可将所计算的力矢量施加于最接近的关节、身体部位的质心、身体部位的某一点、三角形的顶点、或用于生成合成的深度图像的模型的另一预定受力位置。在某些实施例中,归因于给定像素的力可被分布在模型上的两个或更多个受力位置之间。
可基于一个或多个因素对每个合成的像素选择一个或多个像素例,这些因素包括但不限于—合成的像素的观察到的深度值和合成的深度值之间的差;合成的像素的原始身体部位索引、(咬合)身体部位索引、和/或(增长)身体/部位索引之间的差;和/或合成的像素的原始玩家索引、(咬合)玩家索引和/或(增长)玩家索引之间的差。
如图7的124处所示,确定像素例可包括选择精制z(refine-z)像素例。可在观察到的深度图像的一观察到的像素(或多个观察到的像素的区域中)的观察到的深度值不匹配合成的深度图像中的合成的深度值、但足够接近而可能属于两个图像中的同一对象,且身体部位索引匹配(或在某些情况下对应于相邻身体部位或区域)时,选择精制z像素例。如果合成的像素的观察到的深度值和合成的深度值之间的差在预定范围内,且(任选地)该合成的像素的(增长)身体部位索引对应于还未被指定用于接收磁性力的身体部位,则可对该合成的像素选择精制z像素例。该精制z像素例对应于可对模型施加力来将模型移至正确位置的计算出的力矢量。计算出的力矢量可沿着垂直于图像平面的Z轴、沿着模型的某一方面(例如,对应身体部位的脸部)的法向的矢量、和/或沿着附近的观察到像素的法向的矢量来施加。力矢量的大小基于观察到的深度值和合成的深度值的差,越大的差对应于越大的力。施加力的受力位置可被选为感兴趣的像素的最近的有资格的受力位置(如最近的躯干关节),或该力可被分布在多个最近的受力位置的加权混合之间。最近的受力位置可被选择,但是,在某些情况下,应用偏移可能是有帮助的。例如,如果某一像素位于大腿向下一半位置处且已确定髋关节比膝更不易于活动(或灵活),则可能有帮助的是将对于中间腿像素的关节力偏移到膝部而不是髋部。
利用或不利用上述的偏移,对于哪个受力位置最接近于感兴趣的像素的确定可通过强力搜索来找到。为了加速搜索,所搜索的受力位置的集合可被限于仅仅位于或接近于与该像素的身体位置索引相关联的身体部位的那些受力位置。每次姿态变化时,也可设置BSP(二叉空间划分)树来帮助加速这些搜索。身体上的每个区域或对应于某一身体部位索引的每个身体部位可被给予其自己的BSP树。如果这样,则可对每个身体部位不同地施加偏移,这进一步允许对合适的受力位置的明智选择。
如图7的126处所示,确定像素例可包括选择磁性像素例。当(增长/)映射中正被检查的合成的像素对应于某一预定子集的身体部位(如手臂或图3的bp3、bp4、bp5、bp7、bp8和bp9)时,可使用磁性像素例。尽管提供手臂作为示例,但在某些场景中,诸如腿或整个身体之类的其他身体部位可任选地与磁性像素例相关联。同样,在某些场景中,手臂可能不与磁性像素例相关联。
为磁性例标记的像素可被分组成区域,每个区域与特定的身体部位相关联(在该示例中例如左上臂、左下臂、左手等等)。像素属于哪个区域可由其身体部位索引来确定,或可通过将像素的位置与身体模型中或身体模型上的各种点(但不限于像素的身体部位索引所指示的身体部位)进行比较来执行更准确的测试(以减少增长操作中可能引入的误差)。例如,对于左臂上某处的像素,可使用各种度量来确定该像素最可能属于哪一骨骼段(肩到肘、肘到腕、或腕到手末端)。这些骨骼段的每一个可被认为是“区域”。
对于这些磁性区域中的每一个,可计算属于该区域的像素的质心。这些质心可以是正统的(所有起作用的像素被同等地加权),或偏移的,其中某些像素带有比其他像素更重的权重。例如,对于上臂,可跟踪三个质心:1)无偏移的质心;2)“近”质心,其起作用的像素在更接近于肩部时被更重的加权;以及3)“远”质心,其起作用的像素在更接近于肘时被更重地加权。这些权重可以是线性的(如2X)或非线性的(如x2)或遵循任何曲线。
一旦计算出这些质心,各种选项是可用的(并可被动态地选择)以用于计算感兴趣的身体部位的位置和定向,即使某些被部分地遮挡。例如,当试图确定肘的新位置时,如果该区域中的质心足够可见(如果起作用的像素的权重的和超过预定阈值),则该质心本身标记肘(估计#1)。然而,如果肘区域不可见(可能由于它被某一其他物体或身体部位遮挡),肘位置仍然可被常常确定,如下面的非限制性示例所述。如果上臂的远质心可见,则可从肩部辨认出通过该质心达上臂的长度的投影,以获得肘的非常可能的位置(估计#2)。如果下臂的近质心可见,则可从腕构成通过该质心达下臂的长度的投影,以获得肘的非常可能的位置(估计#3)。
向具有更高可见性、置信度、像素计数或任何数量的其他度量的估计给予优先级(或更高的权重),可作出对三个可能的估计之一的选择,或可作出三个可能的估计之间的混合。最后,在该示例中,可在肘的位置向模型施加单个力矢量;然而,它可被更重地加权(当与产生于其他像素例的像素力矢量累计但作用于该相同受力位置时),以表示许多像素被用于构造它的事实。当施加时,计算出的力矢量可移动模型,使得相应的模型可更令人满意地匹配观察到的图像中所示的目标。磁性像素例的一个优点是其对诸如手臂等高度灵活的身体部位表现良好的能力。
在某些实施例中,可仅使用磁性像素例来调整没有定义的关节或身体部位的模型。
如图7的128和130处所示,确定像素例可包括选择拉像素例和/或推像素例。这些像素例可在合成的深度值和观察到的深度值可能在同一像素地址处严重失配的轮廓处被调用。要注意,拉像素例和推像素例也可在原始玩家索引不匹配(增长)玩家索引时被使用。是推还是拉的确定如下。如果同一像素地址处合成的深度图像包含比观察到的深度图像中的深度值更大(更远)的深度值,则该模型可被拉向增长的图像中所见的真实轮廓。相反,如果原始合成的图像包含比观察到的深度图像中的深度值更小(更近)的深度值,则该模型可被推出玩家不再占据的空间之外(且朝向增长的图像中的真实轮廓)。在任一种情况中,对于这些像素或像素区域中的每一个,可对模型施加二维或三维计算出的力矢量以纠正轮廓失配,将身体模型的部分推到或拉到更精确地匹配观察到的深度图像中的目标的位置的位置。这一推和/或拉的方向通常主要在XY平面中,但在某些场景中可向该力添加Z分量。
为了对推或拉例产生合适的力矢量,合成的深度图像中玩家轮廓(对于拉例)或观察到的深度图像中玩家的轮廓(对于推例)上的最近点可首先被找到。对于每个源像素(或对于每组源像素),可通过对最近点(在所希望的轮廓上)执行满足下列准则的强力穷举2D搜索来找到该点。在拉像素例中,具有原始映射中与增长映射中的玩家索引(在源像素或区域处)相匹配的玩家索引(在搜寻位置处)的最近像素被找到。在推像素例中,具有增长映射中与原始映射中的玩家索引(在源像素或区域处)相匹配的玩家索引(在搜寻位置处)的最近像素被找到。
然而,强力搜索在计算上花费可能是非常高的,可使用优化来减少计算花费。用于更高效地找到该点的一个非限制示例性优化是遵循上述高度映射的梯度或其模糊版本,以及仅在梯度方向中检查直线中的像素。在该高度映射中,在玩家索引在原始玩家索引映射和增长玩家索引映射中相同时,高度值低,而在玩家索引(在两个映射中)为零时,高度值高。在任一给定像素处,梯度可被定义为在该高度映射中指向“下坡”的矢量。如上所述,然后拉像素和推像素两者可沿该梯度(下坡)搜寻,直到它们到达它们的相应停止条件。这种搜寻操作的其他基本优化包括使用间隔对分或使用基于斜率的近似来跳过像素;随着搜寻的进行,每隔一定间隔重新采样梯度;以及一旦满足停止准则则在附近检查以找到更好/更近的匹配(不是直接沿着梯度)。
不管使用什么技术来找到感兴趣的轮廓上的最近点,可使用行进的距离(源像素和轮廓像素之间的距离)D1来计算将推或拉该模型的力矢量的大小(长度)D2。在某些实施例中,D2可以是与D1线性或非线性地相关的(如D2=2*D1或D2=D12)。作为一个非限制示例,可使用下列公式:D2=(D1-0.5像素)*2。例如,如果在两个深度图像中的轮廓之间有5像素的间隙,则该间隙中的每个像素可执行小“搜寻”并产生力矢量。在真实轮廓附近的像素可仅按1个像素搜寻以到达轮廓,使得那些像素处的力大小为(1-0.5)*2=1。远离真实轮廓的像素可按5个像素搜寻,使得力大小将为(5-0.5)*2=9。一般来说,从最接近真实轮廓的像素到最远的那些,搜寻距离将为D1={1,2,3,4,5},且因此产生的力大小将为:D2={1,3,5,7,9}。该例中的D2的平均为5,如所希望的-产生的力矢量的平均大小相当于轮廓(接近每个受力位置)之间的距离,它是模型可被移动以将模型放在合适的场所的距离。
对于每个源像素,然后可用方向和大小(即长度)来构造最终力矢量。对于拉像素,方向是由从轮廓像素到源像素的矢量确定的;对于推像素,它是反向矢量。该力矢量的长度为D2。在每个像素,然后可将该力施加于最合格的(如最近的)受力位置(或分布在若干受力位置之间),且在每个受力位置可将这些力平均以产生身体模型的合适的局部移动。
如图7的132和134处所示,确定像素例可包括选择自遮挡推和/或拉像素例。尽管在上述推像素例和拉像素例中身体部位可在前景中相对于背景或另一目标移动,但自遮挡推像素例和拉像素例考虑了该身体部位在同一目标的另一身体部位的前方(例如,一条腿在另一条腿前方,手臂在躯干前方等等)的情况。可在像素的(咬合)玩家索引匹配其对应的(增长)玩家索引,但该(咬合)身体部位索引不匹配其对应的(增长)身体部位索引时标识这些例。在这些例中,搜寻方向(以找到轮廓)可用若干方式得出。作为非限制性示例,可执行强力2D搜索;可对该例调整第二组“遮挡”高度映射使得梯度可指导1D搜索;或可将方向设置为朝向最近的骨架构件上的最近点。这两种例的细节在其他方面与标准拉例和推例类似。
如果合成的像素的(增长)身体部位索引对应于还未被指定来接收磁性力的身体部位,则可对该合成的像素选择推、拉、自遮挡推和/或自遮挡拉例。
要理解,在某些情况下,单个像素可负责一个或多个像素例。作为一非限制示例,一像素可负责自遮挡推像素力和精制z像素力两者,其中自遮挡推像素力施加于遮挡身体部位上的受力位置,而精制z像素力施加于被遮挡身体部位上的受力位置。
如图7的136处所示,确定像素例可包括对合成的像素不选择像素例。经常会不需要对合成的深度图像的所有合成的像素计算力矢量。例如,更远离合成的深度图像中所示的身体模型的合成的像素以及更远离观察到的深度图像中所示的目标的观察到的像素(即,背景像素)可能不会影响任何受力位置或身体部位。不需要对这些像素确定像素例,但在某些场景中也可以确定。作为另一示例,合成的像素的观察到的深度值和合成的深度值之间的差异可能低于预定阈值(例如,模型已经匹配了观察到的图像)。由此,不需要对这些像素确定像素例,但在某些场景中也可以确定。
以下提供的表详述了上述像素例与图5的骨架模型82中所示的关节之间的示例关系。在该表中,像素例1-7被如下缩写:1-拉(规则的)、2-拉(遮挡)、3-推(规则的)、4-推(遮挡)、5-精制Z、6-磁性拉、以及7-遮挡(无动作)。“受力?”列中的“是”条目指示该行的关节可接收来自力矢量的力。像素例列中的“X”条目表示该行的关节可接收来自对应于该列的像素例的力矢量的力。可以理解,下表是作为示例提供的。其不被认为是限制。可建立模型和像素例之间的其他关系而不背离本发明的范围。
Figure GDA00002572786900221
Figure GDA00002572786900222
Figure GDA00002572786900231
在140,图7的方法100包括对已为其确定了像素例的每一合成的像素,基于为该合成的像素选择的像素例来计算力矢量。如上所述,每一像素例对应于用于选择力矢量的大小、方向和/或受力位置的不同算法和/或方法。力矢量可在任何坐标空间,如自然空间、屏幕空间(预Z划分)、投影空间(后Z划分)、模型空间等中计算和/或累积。
在142,方法100包括将每一计算出的力矢量映射到模型的一个或多个受力位置。映射可包括将所计算的力矢量映射到“最匹配”受力位置。对模型的最匹配的受力位置的选择取决于为对应的像素选择的像素例。最匹配的受力位置可以是例如最接近的关节、顶点或质心。在某些实施例中,可向模型施加力矩(即,旋转力)。
一般而言,平移可由具有相似方向的力作用于模型的受力位置而引起,而旋转可由不同方向的力作用于模型的受力位置而引起。对于可变形对象,力矢量的某些分量可用于将模型在其变形限制内变形,并且力矢量的其余分量可用于平移和/或旋转模型。
在某些实施例中,力矢量可被映射到最匹配的刚性或可变形对象、子对象、和/或对象的多边形集。因此,力矢量的一部分可用于将模型变形,而力矢量的其余分量可用于执行模型的刚性平移。这一技术可导致“破裂的”模型(例如,手臂可从身体切断)。如以下更详细讨论的,然后可使用校正步骤来将平移变换成旋转和/或应用约束以沿低能量路径将身体部位连接回到一起。
图11A和11B示出了向模型——所示示例中为骨架模型180施加力矢量的非常简化的示例。为简明起见,所示示例中仅示出了两个力矢量。每一这样的力矢量可以是从两个或更多不同像素的像素例确定和力矢量计算中所得的两个或更多不同力矢量相加的结果。通常,模型将通过许多不同的力矢量来调整,每一力矢量是从许多不同的像素的像素例确定和力矢量计算所得的许多不同的力矢量之和。
图11A示出了骨架模型180,其中出于使骨架模型180的一条手臂伸直来更接近地匹配观察到的深度图像的目的,力矢量182被施加于关节j18(即,肘),而力矢量184被施加于关节j20(即,腕)。图11B示出了在施加力后的骨架模型180。图11B示出所施加的力如何调整模型的姿态。如图11B所示,可保持骨架构件的长度。如进一步示出的,关节j2的位置保持在骨架模型的肩部,这是对于人类伸直他们的手臂的情况所预期的。换言之,在施加了力之后,骨架模型保持完整。在施加力时维持骨架模型的完整性是由所应用的一个或多个约束导致的,如以下更详细讨论的。可实施各种不同的约束来维持不同的可能模型类型的完整性。
在144,图7的模型100任选地包括将模型校正到满足一个或多个约束的姿态。如上所述,在收集了计算出的力矢量并将计算出的力矢量映射到模型的受力位置之后,然后可将计算出的力矢量施加到模型。如果是在没有约束的情况下执行的,则这可能“破坏”模型,将其不成比例地拉长和/或将身体部位移至对于目标的实际身体无效的配置。然后可使用各种功能的迭代来将新模型位置“放松”到“附近的”合法配置。在校正模型的每一次迭代期间,约束可被逐渐地和/或逐步地应用于姿态,以便将该组姿态限制到在物理上可由一个或多个目标的一个或多个实际身体来表达的姿态。在其他实施例中,这一校正步骤可以按非迭代方式来完成。
在某些实施例中,约束可包括以下各项中的一个或多个:骨架构件长度约束、关节角度约束、多边形边角约束、以及碰撞测试,如下文所讨论的。
作为使用骨架模型的一个示例,可应用骨架构件(即,骨骼)长度约束。可被检测的力矢量(即,在关节和/或身体部位可见且未被遮挡的位置处的力矢量)可沿着骨架模型的骨架构件的网络来传播。通过应用骨架构件长度约束,一旦所有骨架构件是可接受的长度,所传播的力就可“安顿下来”(settle in)。在某些实施例中,允许一个或多个骨架构件长度在预定范围内可变。例如,构成躯干两侧的骨架构件的长度可以变化以模拟可变形的上腹部。作为另一示例,构成上臂的骨架构件的长度可以变化以模拟复杂的肩窝。
骨架模型可另外地或另选地通过基于目标计算每一骨架构件的长度,使得这些长度可被用作校正期间的约束来得到约束。例如,从身体模型得知所希望的骨骼长度;可评估当前骨骼长度(即新关节位置之间的距离)和所希望的骨骼长度之间的差。可调整该模型以减少所希望的长度和当前长度之间的任何误差。可对被认为是更重要的某些关节和/或骨骼以及当前比其他关节或身体部位更可见的关节或身体部位给予优先级。还可相对于低幅度变化给予高幅度变化优先级。
关节可见性和/或置信度可在X、Y和Z纬度中单独被跟踪,以允许对骨骼长度约束的更准确的应用。例如,如果骨骼将胸连接到左肩,且胸关节的Z位置是高置信度的(即许多精制z像素对应于该关节)以及肩的Y位置是高置信度的(许多推/拉像素对应于该关节),则可纠正骨骼长度中的任何误差,同时部分地或完全地限制肩在Y方向中的移动或胸在Z方向中的移动。
在某些实施例中,在校正之前的关节位置可以与校正之后的关节位置进行比较。如果确定在每一帧中正对骨架模型作出一组一致的调整,则方法100可使用该信息来对骨架和/或身体模型执行“渐进式精制”。例如,通过比较校正之前和之后的关节位置,可以确定在校正期间,在每一帧中肩正被推得相距更宽。这一一致的调整暗示骨架模型的肩要小于所表示的目标的肩,并且因此,在校正期间对每一帧调整肩宽来纠正此问题。在这一情况下,可作出诸如增大骨架模型的肩宽等渐进式精制来纠正骨架和/或身体模型以更好地匹配目标。
关于关节角度约束,可以限制某些肢和身体部位相对于相邻身体部位的运动范围。另外,该运动范围可基于相邻身体部位的定向来改变。因此,应用关节角度约束可允许在给定源肢和/或身体部位的定向的情况下将肢段约束到可能的配置。例如,小腿可被配置成向后弯曲(在膝部),但不向前弯曲。如果检测到非法角度,则违反常理的身体部位和/或它们的源(parent)(或在网格模型的情况下,违反常理的三角形和它们的邻居)被调整成将姿态保持在预定可能性的范围内,从而帮助避免模型折叠成被认为不可接受的姿态的情况。在极限角度违反的某些情况下,姿态可被认为是相反的,即被跟踪为胸的实际上是玩家的背;左手实际上是右手;等等。当这种不可能的角度清晰可见(且足够异乎寻常)时,这可被解释成表示该姿态已被反向映射到玩家的身体上,且该姿态可被翻转以正确地对目标建模。
可应用碰撞测试来防止模型穿透其自身。例如,碰撞测试可防止前臂/手的任何部位穿透到躯干中,或防止前臂/手彼此穿透。在其他示例中,碰撞测试可防止一条腿穿透另一条腿。在某些实施例中,碰撞测试可被应用于两个或更多个玩家的模型来防止类似的场景在模型之间出现。在某些实施例中,碰撞测试可被应用于身体模型和/或骨架模型。在某些实施例中,碰撞测试可被应用于网格模型的某些多边形。
碰撞测试可以按任何合适的方式来应用。一种方法检查一个“体线段”(volumetric line segment)与另一个的碰撞,其中体线段可以是具有在3-D中向外延伸的半径的线段。这一碰撞测试的一个示例可以是检查一条前臂对另一条前臂。在某些实施例中,体线段在该线段的每一端可具有不同的半径。
另一种方法检查体线段与摆好姿态的多边形对象的碰撞。这一碰撞测试的一个示例可以是检查一条前臂对躯干。在某些实施例中,摆好姿态的多边形对象可以是变形的多边形对象。
在某些实施例中,关于目标的不同部分可以在一时间帧(例如,一秒的1/30或1/60)内移动有限距离的知识可用作约束。这一约束可用于排除由将力施加于模型的像素接收位置而引起的某些姿态。
如145处所示,在调整并任选地约束了模型之后,该过程可循环回到开始新一次将模型光栅化成新的合成的深度图像,该新的合成的深度图像然后可以与观察到的深度图像进行比较以便对模型作出进一步的调整。以此方式,该模型可被渐进地调整以更接近地表示所建模的目标。在每一帧可完成实际上任何次数的迭代。更多迭代可得到更准确的结果,但更多的迭代也可需要更多的计算开销。在许多情况下,每帧两次或三次迭代被认为是合适的,但是在某些实施例中一次迭代可能就足够了。
在146,图7的方法100任选地包括响应于对模型的改变,如图11B所示的改变,来改变屏幕上的人物(例如,图12A的玩家化身190)的视觉外观。例如,游戏控制台可如此处所示地跟踪正在游戏控制台(例如,图1A和1B的游戏系统12)上玩电子游戏的用户。具体地,可使用包括骨架模型(例如,图11A的骨架模型180)的身体模型(例如,图3的身体模型70)来对目标游戏玩家建模,并且可使用该身体模型来渲染屏幕上的玩家化身。当游戏玩家伸直一条手臂时,游戏控制台可跟踪该运动,并响应于所跟踪的运动来如图11B所示地调整模型180。游戏控制台还可如上所述地应用一个或多个约束。在作出此类调整并应用此类约束之后,游戏控制台可显示经调整的玩家化身192,如图12B所示。这也在图1A中作为示例示出,其中玩家化身24被示为响应于游戏玩家18在真实空间中挥出重拳而用拳猛击对拳击对手22。
如上所述,可出于除了改变屏幕上人物或化身的视觉外观之外的其他目的来执行视觉目标识别。由此,不需要在所有实施例中都改变屏幕上的人物或化身的视觉外观。如上所讨论的,目标跟踪可被用于实际上无限的不同目的,许多都不会导致屏幕上人物的改变。目标跟踪和/或被调整的模型的姿态可被用作参数来影响诸如游戏之类的应用的实际上任何元素。
如147处所示,可对后续的帧重复上述过程。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不是局限性的,因为众多变体是可能。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行、或者在某些情况下省略。同样,可以改变上述过程的次序。
本发明的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合、和此处所公开的其它特征、功能、动作、和/或特性、以及其任何和全部等效物。

Claims (14)

1.一种跟踪目标的方法,所述方法包括:
从源(20)接收(102)目标(18)的观察到的深度图像(140);
获得(112)目标的模型(70),该模型具有姿态;
将该模型光栅化(116)成合成的深度图像(150);
通过对该模型的受力位置施加一个或多个力,以及允许该模型响应于这些力而移动来至少部分地基于观察到的深度图像和合成的深度图像之间的差异来调整(142)模型的姿态。
2.如权利要求1所述的方法,其特征在于,观察到的深度图像包括多个观察到的像素,一个或多个观察到的像素包括观察到的深度值,观察到的深度值指示出所述源和对应于该观察到的像素的目标的一部分之间的距离。
3.如权利要求1所述的方法,其特征在于,所述源包括深度相机。
4.如权利要求1所述的方法,其特征在于,所述源包括立体相机。
5.如权利要求1所述的方法,其特征在于,所述模型包括由多个关节可调整地连接的多个身体部位。
6.如权利要求1所述的方法,其特征在于,所述模型包括由多个关节可调整地连接的多个骨架构件。
7.如权利要求1所述的方法,其特征在于,所述模型包括线框网格,该线框网格包括在多边形边处可调整地连接的多个多边形。
8.如权利要求1所述的方法,其特征在于,所述合成的深度图像包括多个合成的像素,一个或多个合成的像素包括合成的深度值,合成的深度值指示出所述源和由该合成的像素所表示的目标的一部分之间的距离。
9.如权利要求1所述的方法,其特征在于,所述合成的深度图像包括多个合成的像素,一个或多个合成的像素包括身体部位索引,身体部位索引指示出该合成的像素所对应的目标的一部分。
10.如权利要求1所述的方法,其特征在于,所述合成的深度图像包括多个合成的像素,每个合成的像素包括指示出该合成的像素所对应的目标的目标索引。
11.如权利要求1所述的方法,其特征在于,调整模型的姿态基于所述观察到的深度图像中的观察到的像素的观察到的深度值和所述合成的深度图像中的对应的合成的像素的合成的深度值之间的差异。
12.如权利要求1所述的方法,其特征在于,调整模型的姿态还基于与所述合成的深度图像中的对应的合成的像素不同的所述观察到的深度图像中的观察到的像素的身体部位索引。
13.如权利要求1所述的方法,其特征在于,调整模型的姿态包括根据一个或多个约束来校正模型。
14.一种计算系统,包括:
配置成捕捉深度信息的源(48);
在操作上被连接到所述源的逻辑子系统(42);以及
保持指令的数据保持子系统(44),所述指令能由逻辑子系统执行以:
从源接收(102)目标的观察到的深度图像;
获得(112)目标的模型,该模型具有姿态;
将该模型光栅化(116)成合成的深度图像;
通过对该模型的受力位置施加一个或多个力,以及允许该模型响应于这些力而移动来至少部分地基于观察到的深度图像和合成的深度图像之间的差异来调整(142)模型的姿态。
CN2010800063053A 2009-01-30 2010-01-12 视觉目标跟踪 Active CN102301313B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/363,604 US8267781B2 (en) 2009-01-30 2009-01-30 Visual target tracking
US12/363,604 2009-01-30
PCT/US2010/020791 WO2010088032A2 (en) 2009-01-30 2010-01-12 Visual target tracking

Publications (2)

Publication Number Publication Date
CN102301313A CN102301313A (zh) 2011-12-28
CN102301313B true CN102301313B (zh) 2013-10-30

Family

ID=42396275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800063053A Active CN102301313B (zh) 2009-01-30 2010-01-12 视觉目标跟踪

Country Status (9)

Country Link
US (2) US8267781B2 (zh)
EP (1) EP2391988B1 (zh)
JP (1) JP5227463B2 (zh)
KR (1) KR101619562B1 (zh)
CN (1) CN102301313B (zh)
BR (1) BRPI1006111A2 (zh)
CA (1) CA2748557C (zh)
RU (1) RU2530334C2 (zh)
WO (1) WO2010088032A2 (zh)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201693A1 (en) * 2009-02-11 2010-08-12 Disney Enterprises, Inc. System and method for audience participation event with digital avatars
US8854376B1 (en) * 2009-07-30 2014-10-07 Lucasfilm Entertainment Company Ltd. Generating animation from actor performance
US8419534B2 (en) * 2009-09-30 2013-04-16 Disney Enterprises, Inc. Systems and methods for using images to generate gameplay content
US8864581B2 (en) * 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US20110208685A1 (en) * 2010-02-25 2011-08-25 Hariraam Varun Ganapathi Motion Capture Using Intelligent Part Identification
US8611670B2 (en) 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture
US8994790B2 (en) * 2010-02-25 2015-03-31 The Board Of Trustees Of The Leland Stanford Junior University Motion capture with low input data constraints
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8964004B2 (en) 2010-06-18 2015-02-24 Amchael Visual Technology Corporation Three channel reflector imaging system
US9089775B1 (en) * 2010-06-24 2015-07-28 Isaac S. Daniel Interactive game system and methods for a television audience member to mimic physical movements occurring in television broadcast content
US8531453B2 (en) * 2010-06-30 2013-09-10 International Business Machines Corporation Augmenting virtual worlds simulation with enhanced assets
US9414051B2 (en) 2010-07-20 2016-08-09 Memory Engine, Incorporated Extensible authoring and playback platform for complex virtual reality interactions and immersive applications
US8698092B2 (en) * 2010-09-10 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
CN102063725B (zh) * 2010-12-30 2013-05-08 Tcl集团股份有限公司 一种基于深度信息的多目标跟踪方法
US9011293B2 (en) 2011-01-26 2015-04-21 Flow-Motion Research And Development Ltd. Method and system for monitoring and feed-backing on execution of physical exercise routines
US20120200667A1 (en) 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
WO2012135153A2 (en) * 2011-03-25 2012-10-04 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
KR101792866B1 (ko) * 2011-04-06 2017-11-20 삼성전자주식회사 이벤트 센서와 칼라 센서를 이용한 동작 인식 장치 및 그 방법
FR2974217A1 (fr) * 2011-04-12 2012-10-19 Thomson Licensing Procede d’estimation d’une information representative d’une hauteur
US20120326948A1 (en) * 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
US9344707B2 (en) 2011-06-29 2016-05-17 Microsoft Technology Licensing, Llc Probabilistic and constraint based articulated model fitting
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
JP5375897B2 (ja) * 2011-08-25 2013-12-25 カシオ計算機株式会社 画像生成方法、画像生成装置及びプログラム
US8648808B2 (en) * 2011-09-19 2014-02-11 Amchael Visual Technology Corp. Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
KR101305694B1 (ko) * 2011-10-20 2013-09-09 엘지이노텍 주식회사 목표물을 검출하기 위한 영상 처리 방법, 장치, 사용자 인터페이스를 위한 방법 및 장치
US9019352B2 (en) 2011-11-21 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
EP2783269B1 (en) 2011-11-23 2018-10-31 Intel Corporation GESTURE INPUT WITH MULTIPLE VIEWS and DISPLAYS
US9019603B2 (en) 2012-03-22 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US20130260885A1 (en) * 2012-03-29 2013-10-03 Playoke Gmbh Entertainment system and method of providing entertainment
US9170648B2 (en) 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
US9557634B2 (en) 2012-07-05 2017-01-31 Amchael Visual Technology Corporation Two-channel reflector based single-lens 2D/3D camera with disparity and convergence angle control
US9266020B2 (en) 2012-09-27 2016-02-23 Empire Technology Development Llc Character model animation using stored recordings of player movement interface data
US9406135B2 (en) 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose
US20140160122A1 (en) * 2012-12-10 2014-06-12 Microsoft Corporation Creating a virtual representation based on camera data
US9389315B2 (en) 2012-12-19 2016-07-12 Basf Se Detector comprising a transversal optical sensor for detecting a transversal position of a light beam from an object and a longitudinal optical sensor sensing a beam cross-section of the light beam in a sensor region
US9323346B2 (en) 2012-12-31 2016-04-26 Futurewei Technologies, Inc. Accurate 3D finger tracking with a single camera
US9410980B2 (en) 2013-02-20 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Work monitoring system
US9275277B2 (en) * 2013-02-22 2016-03-01 Kaiser Foundation Hospitals Using a combination of 2D and 3D image data to determine hand features information
US9142034B2 (en) * 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
KR101933921B1 (ko) 2013-06-03 2018-12-31 삼성전자주식회사 포즈 추정 방법 및 장치
EP3008421A1 (en) 2013-06-13 2016-04-20 Basf Se Detector for optically detecting an orientation of at least one object
EP3008757A1 (en) 2013-06-13 2016-04-20 Basf Se Optical detector and method for manufacturing the same
CN105452895B (zh) 2013-06-13 2018-12-18 巴斯夫欧洲公司 用于光学地检测至少一个对象的检测器
CN105637320B (zh) 2013-08-19 2018-12-14 巴斯夫欧洲公司 光学检测器
CN105637382B (zh) 2013-08-19 2017-08-25 巴斯夫欧洲公司 用于确定至少一种物体的位置的检测器
JP6660931B2 (ja) 2014-07-08 2020-03-11 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 少なくとも1つの物体の位置を決定するための検出器
US10475274B2 (en) * 2014-09-23 2019-11-12 Igt Canada Solutions Ulc Three-dimensional displays and related techniques
KR102452393B1 (ko) 2014-09-29 2022-10-11 바스프 에스이 적어도 하나의 물체의 포지션을 광학적으로 결정하기 위한 방법 및 검출기 및 이를 이용한 휴먼 머신 인터페이스, 엔터테인먼트 장치, 추적 시스템, 스캐닝 시스템, 입체 시스템 및 카메라
CN104346816B (zh) 2014-10-11 2017-04-19 京东方科技集团股份有限公司 一种深度确定方法、装置及电子设备
GB2532003A (en) 2014-10-31 2016-05-11 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
EP3230841B1 (en) 2014-12-09 2019-07-03 Basf Se Optical detector
EP3251152B1 (en) 2015-01-30 2023-08-16 Trinamix GmbH Detector for an optical detection of at least one object
JP6877418B2 (ja) 2015-07-17 2021-05-26 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング 少なくとも1個の対象物を光学的に検出するための検出器
KR102539263B1 (ko) 2015-09-14 2023-06-05 트리나미엑스 게엠베하 적어도 하나의 물체의 적어도 하나의 이미지를 기록하는 카메라
US11263461B2 (en) 2015-10-05 2022-03-01 Pillar Vision, Inc. Systems and methods for monitoring objects at sporting events
US9734405B2 (en) 2015-10-05 2017-08-15 Pillar Vision, Inc. Systems and methods for monitoring objects in athletic playing spaces
EP3410415B1 (en) * 2016-01-28 2020-11-18 Ricoh Company, Ltd. Image processing device, imaging device, moving body device control system and image processing program
US11511156B2 (en) 2016-03-12 2022-11-29 Arie Shavit Training system and methods for designing, monitoring and providing feedback of training
US9824500B2 (en) 2016-03-16 2017-11-21 Microsoft Technology Licensing, Llc Virtual object pathing
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
CN109923372B (zh) 2016-10-25 2021-12-21 特里纳米克斯股份有限公司 采用集成滤波器的红外光学检测器
KR102431355B1 (ko) 2016-10-25 2022-08-10 트리나미엑스 게엠베하 적어도 하나의 대상체의 광학적 검출을 위한 검출기
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
EP3571522B1 (en) 2016-11-17 2023-05-10 trinamiX GmbH Detector for optically detecting at least one object
JP2018084951A (ja) * 2016-11-24 2018-05-31 株式会社日立製作所 行動解析装置及び行動解析方法
JP6812803B2 (ja) * 2017-01-12 2021-01-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
FR3063172A1 (fr) 2017-02-21 2018-08-24 Yann Viellard Dispositif et procede pour la numerisation 3d sans contact d'un objet.
CN110770555A (zh) 2017-04-20 2020-02-07 特里纳米克斯股份有限公司 光学检测器
KR102568462B1 (ko) 2017-06-26 2023-08-21 트리나미엑스 게엠베하 적어도 하나의 대상체의 위치를 결정하는 검출기
US10937240B2 (en) 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
US20210027527A1 (en) * 2018-02-27 2021-01-28 Sharp Kabushiki Kaisha Image processing apparatus, display apparatus, image processing method, control program, and recording medium
US10818078B2 (en) 2018-09-25 2020-10-27 Sony Corporation Reconstruction and detection of occluded portions of 3D human body model using depth data from single viewpoint
WO2020147796A1 (zh) * 2019-01-18 2020-07-23 北京市商汤科技开发有限公司 图像处理方法及装置、图像设备及存储介质
CN111460871B (zh) 2019-01-18 2023-12-22 北京市商汤科技开发有限公司 图像处理方法及装置、存储介质
US11202951B1 (en) * 2020-07-27 2021-12-21 Tempo Interactive Inc. Free-standing a-frame exercise equipment cabinet

Family Cites Families (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) * 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) * 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) * 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) * 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) * 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) * 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) * 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) * 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) * 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) * 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) * 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) * 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) * 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) * 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) * 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) * 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) * 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) * 1990-02-13 1991-10-29
US5274401A (en) 1990-04-27 1993-12-28 Synergy Computer Graphics Corporation Electrostatic printhead
US5101444A (en) * 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) * 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
JP3182876B2 (ja) * 1991-05-24 2001-07-03 ソニー株式会社 画像信号処理方法とその装置
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) * 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0590101B1 (en) 1991-12-03 1999-06-23 French Sportech Corporation Interactive video testing and training system
US5875108A (en) * 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) * 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) * 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) * 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) * 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) * 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) * 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) * 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) * 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) * 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) * 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) * 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) * 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) * 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) * 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) * 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) * 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US5889524A (en) 1995-09-11 1999-03-30 University Of Washington Reconstruction of three-dimensional objects using labeled piecewise smooth subdivision surfaces
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) * 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP3251489B2 (ja) 1996-02-16 2002-01-28 シャープ株式会社 座標入力装置
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) * 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
WO1998007129A1 (fr) * 1996-08-14 1998-02-19 Latypov Nurakhmed Nurislamovic Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes
JP3064928B2 (ja) * 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) * 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
WO1999019828A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
DE69840608D1 (de) 1998-12-16 2009-04-09 3Dv Systems Ltd Selbsttastende photoempfindliche oberfläche
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
KR100376112B1 (ko) 2000-06-26 2003-03-15 주식회사 시텍케이알 인터넷을 기반으로 하는 인체 합성 모델링 시스템 및제공방법
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
JP2002058045A (ja) 2000-08-08 2002-02-22 Komatsu Ltd 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
US20020024517A1 (en) 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6567536B2 (en) * 2001-02-16 2003-05-20 Golftec Enterprises Llc Method and system for physical motion analysis
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
FR2822573B1 (fr) 2001-03-21 2003-06-20 France Telecom Procede et systeme de reconstruction a distance d'une surface
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7363199B2 (en) 2001-04-25 2008-04-22 Telekinesys Research Limited Method and apparatus for simulating soft object movement
US20020164067A1 (en) 2001-05-02 2002-11-07 Synapix Nearest neighbor edge selection from feature tracking
US8275716B2 (en) 2001-05-31 2012-09-25 Contentguard Holdings, Inc. Method and system for subscription digital rights management
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
RU2237284C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Способ генерирования структуры узлов, предназначенных для представления трехмерных объектов с использованием изображений с глубиной
US20040017369A1 (en) 2002-01-22 2004-01-29 Hultgren Bruce Willard Method and apparatus for computer generation of electronic model images
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
AU2003212211A1 (en) 2002-04-19 2003-11-03 Iee International Electronics And Engineering S.A. Safety device for a vehicle
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
JP3760347B2 (ja) * 2002-07-30 2006-03-29 株式会社光栄 プログラム、記録媒体、ゲームキャラクタ描画方法及びゲーム装置
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) * 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US7620202B2 (en) 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7068815B2 (en) 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US20050215319A1 (en) * 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
US20060055706A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the motion of a performer
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP3693889A3 (en) 2005-01-07 2020-10-28 QUALCOMM Incorporated Detecting and tracking objects in images
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US7492367B2 (en) * 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
US7317836B2 (en) * 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US7389591B2 (en) 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
US8135209B2 (en) 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
EP1967942A1 (en) * 2005-10-26 2008-09-10 Sony Computer Entertainment America, Inc. System and method for interfacing and computer program
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7536030B2 (en) 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
US20070159455A1 (en) * 2006-01-06 2007-07-12 Ronmee Industrial Corporation Image-sensing game-controlling device
KR101408959B1 (ko) 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
WO2007130693A2 (en) * 2006-05-07 2007-11-15 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
US7864180B1 (en) 2006-06-09 2011-01-04 Pixar Methods and apparatus for auto-scaling properties of simulated objects
US7852338B1 (en) 2006-06-08 2010-12-14 Pixar Velocity drag: shape preservation of simulated objects in computer animation
US7864181B1 (en) 2006-06-08 2011-01-04 Pixar Shape friction: shape preservation of simulated objects in computer animation
US7907750B2 (en) * 2006-06-12 2011-03-15 Honeywell International Inc. System and method for autonomous object tracking
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
WO2008014826A1 (en) 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
TWI321297B (en) * 2006-09-29 2010-03-01 Ind Tech Res Inst A method for corresponding, evolving and tracking feature points in three-dimensional space
US8023726B2 (en) 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
US7778446B2 (en) 2006-12-06 2010-08-17 Honda Motor Co., Ltd Fast human pose estimation using appearance and motion via multi-dimensional boosting regression
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
CA2717485A1 (en) 2007-03-02 2008-09-12 Organic Motion System and method for tracking three dimensional objects
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7872653B2 (en) 2007-06-18 2011-01-18 Microsoft Corporation Mesh puppetry
US7965866B2 (en) 2007-07-03 2011-06-21 Shoppertrak Rct Corporation System and process for detecting, tracking and counting human objects of interest
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
JP4872113B2 (ja) 2007-09-10 2012-02-08 株式会社ワコム 位置検出装置
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
GB2455316B (en) * 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US7925081B2 (en) 2007-12-12 2011-04-12 Fuji Xerox Co., Ltd. Systems and methods for human body pose estimation
US8159458B2 (en) 2007-12-13 2012-04-17 Apple Inc. Motion tracking user interface
US9098766B2 (en) 2007-12-21 2015-08-04 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
CN101256673A (zh) 2008-03-18 2008-09-03 中国计量学院 用于在实时视频跟踪系统中跟踪手臂运动的方法
US8075942B1 (en) 2008-03-21 2011-12-13 Nanoport Technologies Microengineered optical filters that closely match predefined transmission curves and systems and methods of manufacture
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
CN101271581A (zh) * 2008-04-25 2008-09-24 浙江大学 建立个性化的三维人体模型
CN201188667Y (zh) * 2008-04-30 2009-01-28 北京工业大学 一种基线长度自动调节的双目立体摄像机
US20090280901A1 (en) 2008-05-09 2009-11-12 Dell Products, Lp Game controller device and methods thereof
CN201254344Y (zh) 2008-08-20 2009-06-10 中国农业科学院草原研究所 植物标本及种子存贮器
EP2343685B1 (en) * 2008-10-01 2020-07-29 Sony Interactive Entertainment Inc. Information processing device, information processing method, program, and information storage medium
EP2209091B1 (en) * 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8278571B2 (en) 2009-04-03 2012-10-02 Pixart Imaging Inc. Capacitive touchscreen or touchpad for finger and active stylus
KR101073309B1 (ko) 2009-11-24 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 시스템 및 그 구동방법

Also Published As

Publication number Publication date
CA2748557C (en) 2016-06-28
US9039528B2 (en) 2015-05-26
WO2010088032A2 (en) 2010-08-05
EP2391988A2 (en) 2011-12-07
JP2012516504A (ja) 2012-07-19
US8267781B2 (en) 2012-09-18
JP5227463B2 (ja) 2013-07-03
KR101619562B1 (ko) 2016-05-10
EP2391988B1 (en) 2022-06-08
BRPI1006111A2 (pt) 2016-02-16
CA2748557A1 (en) 2010-08-05
CN102301313A (zh) 2011-12-28
RU2530334C2 (ru) 2014-10-10
RU2011132029A (ru) 2013-02-10
US20120077591A1 (en) 2012-03-29
US20100197399A1 (en) 2010-08-05
KR20110117114A (ko) 2011-10-26
EP2391988A4 (en) 2017-12-20
WO2010088032A3 (en) 2010-09-23

Similar Documents

Publication Publication Date Title
CN102301313B (zh) 视觉目标跟踪
CN102665837B (zh) 虚拟目标跟踪
CN102648484B (zh) 虚拟目标跟踪
CN102640186B (zh) 虚拟目标跟踪
CN102640187B (zh) 虚拟目标跟踪
CN102639198B (zh) 虚拟目标跟踪
CN102648032B (zh) 虚拟目标跟踪
US7974443B2 (en) Visual target tracking using model fitting and exemplar

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150424

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150424

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.