CN102270276A - 根据身体移动确定卡路里燃烧 - Google Patents

根据身体移动确定卡路里燃烧 Download PDF

Info

Publication number
CN102270276A
CN102270276A CN201110168386A CN201110168386A CN102270276A CN 102270276 A CN102270276 A CN 102270276A CN 201110168386 A CN201110168386 A CN 201110168386A CN 201110168386 A CN201110168386 A CN 201110168386A CN 102270276 A CN102270276 A CN 102270276A
Authority
CN
China
Prior art keywords
body part
user
computing environment
calorie
capture device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201110168386A
Other languages
English (en)
Inventor
A·威尔逊
M·史蒂文森
N·伯顿
W·布赖恩
J·托马斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102270276A publication Critical patent/CN102270276A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Abstract

公开了用于通过HCI系统确定卡路里燃烧的系统和方法。通过使用能够检测用户的臂、腿、躯干等等的厚度的捕捉设备,该系统确定用户的每一个身体部位的质量。此后,在一个示例中,该系统根据身体部位位移的距离,位移的身体部位的质量以及重力来测量给定身体部位的卡路里燃烧。

Description

根据身体移动确定卡路里燃烧
技术领域
本发明涉及用于减肥的系统,尤其涉及用于通过HCI系统来确定卡路里燃烧的系统和方法。 
背景技术
在过去,诸如计算机游戏和多媒体应用等计算应用使用控制器、遥控器、键盘、鼠标等来允许用户操纵游戏人物或应用的其他方面。近来,计算机游戏和多媒体应用已开始使用照相机和软件姿势识别引擎来提供人机接口(“HCI”)。使用HCI,检测、解释用户姿势并将其用于控制游戏人物或应用的其他方面。 
常规的HCI系统没有用于测量卡路里燃烧。通常,卡路里燃烧可以通过常规的锻炼设备间接地且机械地测量。具体而言,用户在某一设备上执行某种活动,该设备被校准以基于在该设备上做功的量来确定卡路里燃烧。这些系统不直接测量人的卡路里燃烧。此外,这样的系统通常不测量由用户执行的活动量,除非用户在运动中设置该设备。如此,尽管当用户固定不动时可能执行活动并燃烧卡路里,但是,此活动量无法被该设备测量。 
发明内容
此处公开了用于通过HCI系统来确定卡路里燃烧的系统和方法。通过使用能够检测用户的臂、腿、躯干等等的厚度的捕捉设备,该系统确定用户的每一个身体部位的质量。此后,在一个实施方式中,该系统根据身体部位位移的距离,位移的身体部位的质量以及重力来,测量给定身体部位的卡路里燃烧。在一直接的实施方式中,该系统可以只测量垂直向上位移作为卡路里燃烧的考虑因素。在其他实施方式中,该系统可以根据垂直向上位移、水平位移和/或垂直向下位移,以及这些位移的所有组合,来测量卡路里燃烧。在其他实施方式 中,该系统还可测量由于将身体部位在某个非中立位置保持固定而产生的卡路里燃烧。在这样的实施方式中,该系统可以根据存储在身体部位的势能,来测量由于这样的固定,非中立位置而产生的卡路里燃烧。 
在一个实施方式中,当前技术涉及一种通过以下步骤来确定用户的卡路里燃烧的方法:经由捕捉设备来捕捉用户的身体部位的图像;经由计算环境的处理器来确定身体部位的质量;经由捕捉设备来捕捉身体部位的移动;以及根据身体部位的捕捉到的移动以及所确定的身体部位的质量来确定由身体部位燃烧的卡路里。 
在又一实施方式中,当前技术涉及一种系统,该系统包括能够在用户在捕捉设备的视野内移动时捕捉用户的一个或多个单独的身体部位的图像的捕捉设备;以及与捕捉设备相关联的计算环境,该计算环境包括处理器,该处理器能够确定由捕捉设备捕捉到的一个或多个单独的身体部位的质量,根据所确定的一个或多个单独的身体部位的质量以及一个或多个单独的身体部位的移动方向和程度来确定由一个或多个单独的身体部位燃烧的卡路里。 
在又一实施方式中,当前技术涉及用于用于促进减肥的系统,包括能够在用户在捕捉设备的视野内移动时捕捉用户的一个或多个单独的身体部位的图像的捕捉设备;与捕捉设备相关联的计算环境,该计算环境包括确定由捕捉设备捕捉到的一个或多个单独的身体部位的质量,以及根据所确定的一个或多个单独的身体部位的质量以及一个或多个单独的身体部位的移动方向和程度来确定由一个或多个单独的身体部位燃烧的卡路里,处理器还运行锻炼程序;以及与计算环境相关联的显示器,该显示器提示用户根据由处理器运行的锻炼程序来进行锻炼,该显示器还显示由处理器确定的燃烧的卡路里。 
提供本发明内容是为了以简化的形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本发明的任一部分中提及的任何或所有缺点的实现。 
附图说明
图1A示出了目标识别、分析,及跟踪系统的示例实施方式,且用户正在 参与游戏或锻炼程序。 
图1B示出了目标识别、分析,及跟踪系统的另一示例实施方式,且用户正在操作图形用户界面。 
图2示出了可以用于目标识别、分析和跟踪系统中的捕捉设备的示例实施方式。 
图3A示出了可以被用来解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的示例实施方式。 
图3B示出了可以被用来解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的另一示例实施方式。 
图4示出了从图2的目标识别、分析,及跟踪系统生成的用户的骨架映射。 
图5示出了以中立位置站立的用户的表示。 
图6示出了臂移到非中立位置的用户的表示。 
图7示出了臂和腿移到非中立位置的用户的表示。 
图8是根据系统的第一实施方式的用于确定卡路里燃烧的流程图。 
图9是根据系统的第二实施方式的用于确定卡路里燃烧的流程图。 
图10是根据系统的第三实施方式的用于确定卡路里燃烧的流程图。 
图11是根据系统的第四实施方式的用于确定卡路里燃烧的流程图。 
具体实施方式
现在将参考图1A-11描述本技术的各实施方式,它们一般涉及用于通过经由人机界面来检测用户的位置和/或移动并确定从中产生的卡路里燃烧,来测量卡路里燃烧的系统。在各实施方式中,本系统就骨架质量作出判断并测量诸如肘、手腕、膝盖和踝之类的骨架关节的位置。然后,该系统基于所确定的质量以及相对于参考位置的关节位置,来确定由用户燃烧的卡路里。在其他实施方式中,该系统可以考虑诸如速度之类的其他动觉参数,并可以使用其他身体部位来进行卡路里燃烧测量。 
最初参考图1A-2,用于实现本发明的技术的硬件包括目标识别、分析和跟踪系统10,该系统可用于识别、分析和/或跟踪诸如用户18等的人类目标。目标识别、分析和跟踪系统10的各实施例包括用于执行游戏、锻炼或其他应 用的计算环境12,以及用于从游戏、锻炼或其他应用提供音频和视觉表示的视听设备16。系统10还包括用于检测设备20捕捉的用户的位置和移动的捕捉设备20,计算环境接收并使用该姿势来控制应用程序。根据本发明的技术,由捕捉设备20捕捉到的位置和/或移动还可由计算环境12用来确定用户在与系统10交互时燃烧的卡路里。下面将更详细地描述这些组件中的每一个。 
如图1A所示,在一示例实施方式中,在计算环境12上执行的应用程序可以是锻炼程序,其中用户18模仿屏幕上的指导者19的动作,本系统测量由在执行锻炼时由用户燃烧的卡路里,如下面所说明的。然而,本技术可以测量在用户与系统10的任何交互中的卡路里燃烧。例如,图1B示出了其中用户18简单地与用户界面21进行交互的实施方式。在其他示例中,用户可以在玩游戏或控制游戏或其他应用程序时移动并与系统进行交互。在这些示例中的每一个中,系统仍可以测量卡路里燃烧,如下面将更详细地说明的。 
在其他示例实施方式中,用户18可以持有诸如例如重物之类的物体。在这样的实施方式中,系统10可以检测到用户正在持有物体并提示用户输入其重量(或者,系统可以基于其大小来估计其重量)。通过使用重量,本技术可以根据物体的位置和/或移动以及用户的身体部位来考虑卡路里燃烧。下面将更详细地对其进行描述。 
图2示出了可以用在目标识别、分析与跟踪系统10中的捕获设备20的示例性实施方式。涉及用于本发明技术的捕捉设备的附加细节在题为“Device For Identifying And Tracking Multiple Humans Over Time(用于随时间标识和跟踪多个人的设备)”的共同待审的专利申请号12/475,308中阐述,该申请通过引用而整体结合于此。然而,在一示例实施方式中,捕捉设备20可以被配置成通过任何合适的技术,包括,例如,飞行时间法、结构光、立体图像等等,捕捉可包括深度值的具有深度图像的视频。根据一个实施例,捕捉设备20可将所计算的深度信息组织为“Z层”,或可与深度相机沿其视线延伸的Z轴垂直的层。 
如图2所示,捕获设备20可以包括图像相机组件22。根据一个示例实施例,图像相机组件22可以是捕捉场景的深度图像的深度相机。深度图像可包括被捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一个像素 都可以(例如以厘米、毫米等等为单位)表示来自相机的被捕捉的场景中的对象的长度。 
如图2所示,根据一个示例性实施例,图像相机22可以包括可以用于捕获场景的深度图像的IR光组件24、三维(3-D)相机26,以及RGB相机28。例如,在飞行时间分析中,捕捉设备20的IR光组件24可以将红外光发射到场景上,然后,可以使用传感器(未示出),用例如3-D相机26和/或RGB相机28,来检测从场景中的一个或多个目标和对象的表面反向散射的光。 
根据另一实施例,捕捉设备20可包括可以从不同的角度观察场景的两个或更多个在物理上分离的相机,以获取可以被解析以生成深度信息的视觉立体数据。 
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的换能器或传感器。根据一个实施例,话筒30可以被用来减少目标识别、分析和跟踪系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等应用。 
在一示例实施例中,捕捉设备20还可以包括可以与图像相机组件22进行可操作的通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可被包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。 
捕捉设备20还可以包括存储器组件34,该存储器组件34可以存储可以由处理器32执行的指令,由3-D相机或RGB相机捕捉到的图像或图像的帧,或任何其他合适的信息、图像等等。根据一个示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、缓存、闪存、硬盘或任何其他适合的存储组件。如图2所示,在一实施方式中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。 
如图2所示,捕获设备20可以通过通信链路36与计算环境12通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连 接和/或例如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境12可向捕捉设备20提供时钟,该时钟可被用于通过通信链路36确定何时捕捉,例如场景。 
此外,捕捉设备20可经由通信链路36向计算环境12提供由例如3-D相机26和/或RGB相机28捕捉的深度信息和图像,以及由捕捉设备20生成的骨架模型。存在用于判断由捕获设备20检测到的目标或对象是否与人类目标相对应的各种已知技术。骨架映射技术因而可用于确定该用户的骨架上的各个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括将图像转换为人的人体模型表示和将图像转换为人的网格模型表示。 
然后,可以将骨骼模型提供给计算环境12,使得计算环境可以执行各种动作。根据本发明的技术,计算环境12可以使用骨架模型来确定用户正在燃烧的卡路里。虽然与本发明的技术无关,但计算环境还可跟踪骨架模型并在视听设备16上呈现与骨架模型相关联的化身。计算环境还可基于例如从骨架模型中识别出的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控制命令。例如,如图2所示,计算环境12可包括用于确定用户何时执行了预定义姿势的姿势识别器引擎190。 
图3A示出了可以用于在目标识别、分析与跟踪系统中解释用户的一个或多个位置和运动的计算环境的示例性实施例。上面参考图1A-2所描述的诸如计算环境12等的计算环境可以是诸如游戏控制台等的多媒体控制台100。如图3A所示,多媒体控制台100具有中央处理单元(CPU)101,其具有1级高速缓存102、2级高速缓存104,以及闪存ROM 106。1级高速缓存102和2级高速缓存104临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 101可被提供为具有一个以上的核,以及由此的附加的1级和2级高速缓存102和104。闪存ROM 106可存储在当多媒体控制台100通电时的引导过程的初始阶段期间加载的可执行代码。 
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速、高分辨率图形处理的视频处理流水线。经由总线从GPU 108向视频编码器/视频编解码器114运送数据。视频处理流水线向A/V(音频/视频)端口140输出数据,用于传输至电视机或其他显示器。存储器控制器110 连接到GPU 108,以促进处理器对各种类型的存储器112、比如但不限于RAM的访问。 
多媒体控制台100包括优选地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB主控制器128以及前面板I/O子部件130。USB控制器126和128用作外设控制器142(1)-142(2)、无线适配器148、和外置存储器设备146(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线和无线适配器组件中的任何一种。 
提供系统存储器143来存储在引导进程期间加载的应用程序数据。提供媒体驱动器144,且其可包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器144可以是对多媒体控制器100内置的或外置的。应用程序数据可经由媒体驱动器144访问,以由多媒体控制台100执行、回放等。介质驱动器144经由例如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器120。 
系统管理控制器122提供涉及确保多媒体控制台100的可用性的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140以供外置音频播放器或具有音频能力的设备再现。 
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152以及任何LED(发光二极管)或其它指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。 
CPU 101、GPU 108、存储器控制器110、和多媒体控制台100内的各个其它组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。 
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中并在CPU 101上执行。应用程序可呈现在导航到多媒体控制台100上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中包含的应用程序和/或其它媒体可从媒体驱动器144启动或播放,以向多媒体控制台100提供附加功能。 
多媒体控制台100可通过将该系统简单地连接到电视或其它显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口124或无线适配器148可用的宽带连接的集成,多媒体控制台100还可作为较大网络社区中的参与者来操作。 
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(例如16MB)、CPU和GPU周期的保留量(例如5%)、网络带宽的保留量(例如8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源对于应用程序视角而言是不存在的。 
具体地,存储器保留较佳地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留较佳地为恒定,使得若所保留的CPU用量不被系统应用程序使用,则空闲线程将消耗任何未使用的周期。 
对于GPU保留,通过使用GPU中断来显示由系统应用生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图较佳地与屏幕分辨率成比例缩放。在完整的用户界面被并发系统应用使用的情况下,优选地使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率,也就不会引起TV重新同步。 
在多媒体控制台100引导且系统资源被保留之后,就执行并发系统应用程序来提供系统功能。系统功能被封装在一组在上述所保留的系统资源中执行的系统应用程序中。操作系统内核标识是系统应用程序的线程而非游戏应用程序的线程。系统应用程序优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便为应用程序提供一致的系统资源视图。调度是为了把由在控 制台上运行的游戏应用所引起的高速缓存分裂最小化。 
当并发系统应用程序需要音频时,则由于时间敏感性而异步调度音频处理给游戏应用程序。多媒体控制台应用程序管理器(如下所述)在系统应用程序活动时控制游戏应用的音频水平(例如,静音、衰减)。 
输入设备(例如,控制器142(1)和142(2))由游戏应用程序和系统应用程序共享。输入设备不是所保留的资源,但却在系统应用程序和游戏应用程序之间切换以使其各自具有设备的焦点。应用管理器优选地控制输入流的切换,而无需知道游戏应用的知识,并且驱动程序维护关于焦点切换的状态信息。相机26、28和捕获设备20可以为控制台100定义附加输入设备。 
图3B示出了计算环境220的另一示例性实施例,它可以是用来解释目标识别、分析与跟踪系统中的一个或多个位置和动作的图1A-2中示出的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对所公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在一些实施例中,各种所描绘的计算元件可包括被配置成实例化本发明的特定方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语电路可包括通过体现可操作以执行功能的逻辑的软件指令配置的通用处理单元、存储器等等。在其中电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。由于所属领域技术人员可以理解,现有技术已经发展到在硬件、软件或硬件/软件的组合之间差别微小的程度,为实现特定功能而选择硬件还是软件是交由实施者处理的设计选择。更具体而言,本领域技术人员可以理解,可以将软件进程转换成等效的硬件结构,也可以将硬件结构本身转换成等效的软件进程。如此,选择硬件实现还是软件实现是一种设计选择,并交由实施者处理。 
在图3B中,计算环境220包括通常包括各种计算机可读介质的计算机241。计算机可读介质可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括以诸如ROM 223和RAM 260之类的易失性和/或非易失性存储器的形式存在的计算机 存储介质。基本输入/输出系统224(BIOS)包括如在启动时帮助在计算机241内的元件之间传输信息的基本例程,它通常储存在ROM 223中。RAM 260通常包含处理单元259可以立即访问和/或目前正在操作的数据和/或程序模块。作为示例而非限制,图3B示出了操作系统225、应用程序226、其他程序模块227,以及程序数据228。 
计算机241还可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。只作为示例,图3B示出了读写不可移动、非易失性磁性介质的硬盘驱动器238,读写可移动、非易失性磁盘254的磁盘驱动器239,以及读写诸如CD ROM或其他光学介质之类的可移动的,非易失性光盘253的光盘驱动器240。可以在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器238通常由不可移动存储器接口,诸如接口234连接至系统总线221,磁盘驱动器239和光盘驱动器240通常由可移动存储器接口,诸如接口235连接至系统总线221。 
上面所讨论的并且在图3B中所示出的驱动器以及它们的相关联的计算机存储介质,为计算机241提供了计算机可读的指令、数据结构、程序模块及其他数据的存储。例如,在图3B中,硬盘驱动器238被示为存储了操作系统258、应用程序257,其他程序模块256,以及程序数据255。注意,这些组件可以与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可以与它们不同。此处给操作系统258、应用程序257、其他程序模块256以及程序数据255提供了不同的编号,以说明至少它们是不同的副本。用户可以通过诸如键盘251和定点设备252(通常被称为鼠标、轨迹球或触摸板)之类的输入设备向计算机241中输入命令和信息。其他输入设备(未示出)可以包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等等。这些和其他输入设备通常通过耦合至系统总线的用户输入接口236连接至处理单元259,但也可以由其他接口和总线结构,例如并行端口、游戏端口或通用串行总线(USB)来连接。相机26、28和捕获设备20可以为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过接口,例如视频接口232,连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接 的诸如扬声器244和打印机243之类的其他外围输出设备。 
计算机241可以使用到一个或多个远程计算机(如远程计算机246)的逻辑连接,以在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他公共网络节点,通常包括上文相对于计算机241所描述的许多或全部元件,但是图3B中只示出了存储器存储设备247。图3B中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但是,也可以包括其他网络。这样的联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。 
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接至LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过例如因特网等WAN 249建立通信的其他装置。调制解调器250可以是内置或外置的,它可以经由用户输入接口236或其他适当的机制连接至系统总线221。在联网环境中,参考计算机241所描述的程序模块,或其某些部分,可以存储在远程存储器存储设备中。作为示例而非限制,图3B示出了驻留在存储器设备247上的远程应用程序248。可以理解,所示出的网络连接只是示例性的,也可以使用用于在计算机之间建立通信链路的其他装置。 
图4描绘了可以从捕捉设备20生成的用户的示例性骨架映射。在该实施方式中,标识出各种关节和骨骼:每只手302、每个前臂304、每个肘306、每个大臂308、每个肩310、每个髋312、每条大腿314、每个膝316、每条小腿318、每个足320、头322、躯干324、脊椎的顶部326和底部328以及腰330。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或脸部的各个特征,如鼻和眼。 
本发明技术的各实施方式在下文中将参考图5到7的图示以及图8到10的流程图来解释。图5示出了在捕捉设备20的视野内处于中立位置的用户400,即,当身体直立时处于固定位置。当站立时,会有一些肌肉活动,但是,在各实施方式中,这种活动可以忽略。在其他实施方式中,当用户站着休息时,可以测量和存储一些基本活动量。可以有身体处于固定位置的其他中立位置,诸如,例如,用户坐下或用户平躺在地面上。 
图8描述了本技术的一直接的实施方式。在步骤500中,处理器(在计算 设备12内或可能在捕捉设备20内)确定处于中立位置的用户400的每一个关节的参考位置。在步骤502中,处理器确定关节之间的身体部位的质量。这可以以许多方式来进行。在一个实施方式中,系统根据由捕捉设备20捕捉到的身体部位的3-D图像来测量不同的身体部位的厚度或体积(用户的身体部位的质量没有在图5-7中示出)。以此方式,可以确定上下手臂、大腿和小腿,以及躯干的体积。在其他实施方式中,还可确定用户的手、脚、头以及颈部的质量。然后,可以将为每一个身体部位确定的体积乘以某个恒定的导出值来产生每一个身体部位的质量。由于衣服可能有时使得体积确定难以进行,可以对于不同的身体部位,在一段时间内进行测量,对于每一个身体部位,调整好结果。 
现在参考图6,用户400抬起两个臂。用户从肩部402b向上从他的侧面抬起他的左臂,使他的肘伸直,以使得下臂406b从上臂404b一般性地伸直。用户从他的侧面抬起他的右臂,但是,还通过弯曲肘部,相对于他的上臂404a抬高他的下臂406a。应该理解,图6中所示的移动仅用作示例,用户可以以各种方式移动他的身体部位中的任何一个,并按下面所描述的方式进行测量。图7是移动的又一个示例,其中用户已经移动了他的手臂和他的腿。如下面所说明的,本技术作为每一个身体部位所造成的卡路里燃烧的合计来测量卡路里燃烧。在其他实施方式中,可以将身体部位结合在一起(产生组分身体部位的质量),并可以基于组合的身体部位,来计算卡路里燃烧。 
在图8的直接实施方式中,系统接下来在步骤504中检查身体部位是否向上移动,即,克服了重力。系统逐身体部位地进行此测量。系统可以进行此测量的一种方式是通过测量关节角度中的变化。如此,系统可以首先检查是否有与躯干最近的身体部位的移动(尽管在替换实施方式中可以以别的方式)。可以确定左侧肩关节向上旋转了角度θ,并确定肘关节没有旋转。根据该判断,系统能够确定用户将他的上臂404b和下臂406b抬起了多高。类似地,系统可以判断通过肩关节处的角度Φ抬起了他的右上臂,并在肘关节处将他的下臂抬起角度ω。再次,根据该信息,系统能够确定用户将他的上臂404a和下臂406a抬起了多高。 
一旦如上文所描述的在步骤504中系统确定一个身体部位已经向上移动, 系统就可以挑选任意点,例如,每一个身体部位上的最远端的关节,在步骤506中,一旦完成向上的移动,就测量其向上的位移。上臂的最远端的点将是肘关节,而下肢上的最远端的点将是踝关节等等。在步骤506中,系统将计算向上移动的给定身体部位的该点的位移。 
在步骤508中,给出了计算出的质量和向上的位移,系统将计算由于给定身体部位的向上移动而燃烧的卡路里。系统可以使用下面的关系来计算以焦耳为单位的由移动的质量燃烧的能量: 
焦耳=质量x重力x向上位移 
肌肉平均效率只有15-25%。额外的能量作为热量丢失。如此,假设20%的效率,通过下列公式,以焦耳为单位,给出卡路里能量燃烧: 
焦耳=质量x重力x位移x(100/20) 
应该理解,可以使用除20%以外的某个纠正因子,诸如,例如,15%和25%之间的任何因子。在其他实施方式中,限制可以高于和/或低于此范围。可以通过下列公式将焦耳转换为卡路里: 
1卡路里=4184焦耳。 
在步骤508中计算由于给定身体部位的移动而燃烧的卡路里,并进行存储。系统反复地执行上面的步骤500到508,以基于不同的身体部位的移动取得燃烧的卡路里的总和。在步骤509中,可以任选地向用户显示总和(以虚线示出,以表示在其他实施方式中,可以跳过该步骤)。总和可以每单位时间地给出,以例如示出对于用户移动每分钟燃烧的卡路里。 
如此,再次参考图6,进行体积测量,系统可以确定用户的身体部位的质量,包括下列各项: 
右上臂:1.88kg 
右下臂:1.51kg 
左上臂:1.86kg 
左下臂:1.50kg 
在各实施方式中,系统可包括作为下臂的一部分的用户的手的确定的质量。在其他实施方式中,可以单独地计算和使用手的质量,或者,可以忽略手的质量。 
系统还可以进一步判断在此示例中的用户的手臂向上移动了下面的位移。 
右上臂:0.4m 
右下臂:1.2m 
左上臂:0.4m 
左下臂:0.6m 
然后,系统将对不同的身体部位执行计算,每一个身体部位都单独地: 
右上臂燃烧的卡路里=质量x重力x位移x(100/20)/4184 
右上臂燃烧的卡路里=1.88x9.82x0.4(100/20)/4184 
右上臂燃烧的卡路里=0.0088卡路里 
可以对其他手臂部分执行相同的计算,以使得图6所示出的移动产生下面的卡路里燃烧: 
右上臂燃烧的卡路里=0.0088卡路里 
右下臂燃烧的卡路里=0.0212卡路里 
左上臂燃烧的卡路里=0.0087卡路里 
左下臂燃烧的卡路里=0.0106卡路里 
从图6所示出的移动燃烧的总卡路里:0.0493 
如果用户抬起他的腿,将执行相同计算,如图7所示。此外,计算并不总是相对于中立位置来进行。例如,如果用户俯身,一旦用户直起来,到中立位置,则躯干、上臂等等的这种向上移动将产生活动,并燃烧卡路里,如上文所描述的。 
上面的实施方式表示基于身体部位克服重力向上移动来对燃烧的卡路里的直接计算。然而,当将身体部位向下移动(受控制的肌肉移动)和/或水平地移动时,用户也可以燃烧卡路里。图9是考虑了这些情况下的卡路里燃烧的其他实施方式的流程图。图9示出了与图8类似的步骤,包括在步骤510中测量处于中立位置的关节,以及在步骤512中,测量身体部位的质量。在步骤514中,图9的实施方式测量身体部位的任何移动。这也可以通过检测关节角度中的变化来做到。 
在步骤516中,在检测到移动已经完成时,可以作为矢量来测量位移和移动方向两者。如上所述,这可以使用身体部位上的任意点,诸如,例如,身体 部位上的最远端的点,来测量。在步骤518中,确定由相应的身体部位的移动燃烧的卡路里。在此实施方式中,可以计算某个下限和1之间规范化的方向因子,并将其考虑到用于计算为给定身体部位燃烧的卡路里的等式中。如此,此实施方式中燃烧的卡路里按如下方式给出: 
燃烧的卡路里=质量x重力x位移x(100/20)xdf/4184 
其中,df是方向因子。在此等式中,位移是绝对位移,不只是垂直位移。 
对于纯粹的垂直向上位移,df可以等于1,如此,产生如上文参考图8所阐述的计算。随着移动变得较不垂直,且更加水平,方向因子可以缩小。如此,尽管身体部位的绝对位移可以与在纯粹的垂直运动和包括垂直和水平分量的运动之间相同,但是,为组合的垂直/水平运动燃烧的卡路里量将小于为纯粹的垂直运动燃烧的卡路里。此外,身体部位的纯粹的水平位移将具有上面标识的对卡路里的计算乘以某个确定的方向因子df<1。如此,与图8的实施方式不同,图9的实施方式将包括水平运动的卡路里燃烧。它可以例如是某个任意选择的值,以使得0<df<1。 
类似地,对于垂直向上和水平之间的移动,方向因子可以从1缩小到水平位置所选的值。对于这些中间位置的方向因子可以线性地、或根据确定的三角函数而缩小,取决于位移的矢量角。 
同样,当用户正在降低身体部位时,如将手臂向下放回到中立位置,此移动仍可以燃烧卡路里。如此,方向因子将具有某个非零值,但是,小于用于纯粹的水平运动的值。 
在其他实施方式中,也可以在等式中考虑用户移动身体部位的速度。如此,例如,也可以在上文所描述的对卡路里的计算中的任何一种情况下提供速度因子(在图8中以及在图9中)。此速度因子可以增大对于更快的运动燃烧的卡路里量。 
在上文所描述的实施方式中,根据位移,来测量身体部位中的卡路里燃烧。然而,处于固定位置的身体部位,例如,伸长的臂或腿,也可以燃烧卡路里。因此,参考图10所描述的再一个实施方式考虑由于移动以及在非中立位置保持固定的身体部位而产生的卡路里燃烧。如在上面的实施方式中,该系统首先在步骤520中测量处于中立位置的关节,并在步骤522中测量身体部位的质量。 在步骤514中,图9的实施方式测量身体部位的任何移动。这也可以通过检测关节角度中的变化来做到。如果检测到移动,则系统测量位移和方向作为矢量,如上文参考图9所描述的。步骤526可以另选地只考虑垂直向上运动,如图8的实施方式所描述。 
在步骤526之后,或在步骤524之后,如果没有检测到运动,则此实施方式的系统接下来在步骤528中检查身体部位是否在非中立位置保持固定。如上文所指出的,当处于中立位置时,固定的身体部位或者不燃烧卡路里,或者可以被分配某个小的常数。然而,当处于非中立位置固定时,身体部位燃烧卡路里。如此,在此实施方式中,该系统在步骤530中测量保持的固定位置以及保持的时间长度。 
在步骤534中,系统确定卡路里燃烧。此确定可包括根据上文所描述的实施方式中的任何一个来确定卡路里燃烧,加上由于任何测得的固定,非中立身体部位位置而产生的卡路里燃烧。可以使用不同的等式来计算由于固定,非中立身体位置而产生的卡路里燃烧。在各实施方式中,卡路里燃烧可以根据存储在身体部位中的势能。此势能将根据如在步骤522中测量的其质量,重力及其相对于中立位置的位置。例如,在一个实施方式中,从躯干沿着水平线伸直的腿或臂比使脚或臂处于90°之外的某个角度具有更高的势能。如此,与使腿或臂保持某个非正交的角度对照,对于伸直的腿或臂,燃烧的卡路里量将更高。 
在某个非中立位置保持固定的身体部位,由于对肌肉的应变增大,它维持该位置的时间越长,每单位时间燃烧的卡路里越多。如此,在替换实施方式中计算出的卡路里燃烧也可以考虑时间因子,身体部位保持在该位置的时间越长,给定单位时间内燃烧的卡路里会增大。 
上文所描述的实施方式阐述了当身体部位移动或保持在非中立位置时测量燃烧的卡路里燃烧的方法,如图6和7所示出的。然而,当用户的腿保持在地上,并且用户蹲下(即,弯曲他的膝盖),这带来特殊情况。具体而言,在此情况下用于测量保持在地上的腿的卡路里燃烧的质量不仅仅是用户的腿的质量。地面上的腿事实上支撑用户的整个体重,如此,在此情况下,可以将用户的整个质量考虑到用于计算卡路里燃烧的等式中。如此,在此实施方式中,系统根据上文所描述的实施方式中的任何一个来计算卡路里燃烧。然而,在此 实施方式中,在蹲的过程中用于保持在地上的大腿或小腿的质量将增大到包括用户的整个质量。 
本系统的捕捉设备20能够确定用户何时正在蹲着以及该蹲坐是否涉及地面上的支撑用户的重量的用户的两个腿,或者用户是否只在一条腿上支撑他的重量(例如,用离地相反的重量)。在此情况下,系统可以将来自除用户的腿以外的所有身体部位的用户的质量添加到用户的腿的质量中。此质量可以在两个小腿和两个大腿之间(在用户的两只脚着地的情况下),或在一条小腿和一大腿之间(在用户只有一条腿着地的情况下)分摊。利用此分配,系统可以根据上文所描述的实施方式中的任何一个来计算由于下蹲而造成的卡路里燃烧。 
图11示出了本技术的再一个实施方式,其中通过确定每一个肢体基础上的用户重量和用户的BMI(体重指数)来确定卡路里燃烧。BMI是体重的统计度量,在各实施方式中,其基于用户的体重和身高。在步骤550中,可以进行深度扫描。在此实施方式以及上文所描述的其他实施方式中,可以提示用户穿紧身的衣服,以便对用户的体重进行最佳估计。紧身的衣服可以允许假设在深度扫描中所检测到的是用户身体的实际尺寸和形状。在此实施方式以及其他实施方式中,还可以提示用户面向捕捉设备20,并从该位置进行四分之一、一半和/或全转,再次以使得捕捉设备可以获得用户的体形的全视图,以对体重进行最佳估计。 
在步骤554中,将用户的身体分割成不同的部位,例如,肢体、头和躯干。通过从深度扫描取得玩家的轮廓,并将捕捉到的数据叠加在用户的已知骨架图上,这可以分割用户的每一个肢体,头和躯干。 
根据步骤554,可以在步骤556中计算用户的肢体中的每一个的质量。每一个肢体可以在3-D空间中以体积像素分组或体元组进行建模。从步骤550的扫描中获取的每一个肢体的已知的表面积可以翻倍,因为大多数人是圆柱形的。此方法也可以用于上文所描述的实施方式中的任何一个中。通过对于不同的肢体使用已知密度的图形,可以确定每一个肢体的质量。这也可以用于确定用户的躯干的质量。在其中系统能够区别头与毛发的各实施方式中,这也可以用于确定用户的头的质量。也可以通过等式重量=质量x重力,根据质量计算,来确定用户的肢体、躯干和/或头的重量。 
取单个肢体、躯干和/或头的重量,可以在步骤562中确定用户的BMI的近似值。BMI根据重量和身高两者。可以在步骤550的扫描中确定用户的身高,或者,可以提示用户手动地输入他们的身高。在其他实施方式中,可以提示用户输入他们的重量,该重量也可以用于确定用户的肢体、躯干和/或头的重量。 
在用户BMI以及每个肢体重量已知的情况下,在步骤564中,可以在每一个肢体的基础上计算卡路里燃烧。根据上文所描述的实施方式中的任何一个,可以使用肢体的特定重量来在每一个肢体的基础上执行。也可以通过确定重量所分布的面积,考虑肢体的大小,以提供对肢体施加的压力。 
根据上文所描述的实施方式中的任何一个,并使用如在当前实施方式中所确定的肢体的重量和/或肢体上的压力,步骤554可以计算由移动的肢体燃烧的卡路里。此外,步骤550中的扫描能够确定一个或多个肢体何时处于非中立位置。通过使用与给定肢体的中立位置的已知偏离,以及该肢体的重量和/或该肢体上的压力,系统能够确定当用户处于非中立位置时的这段时间由该肢体燃烧的卡路里。如此,系统能够确定当人固定不动,但是例如抬起了腿或臂时的卡路里燃烧。 
在步骤568中,系统将为所有肢体确定的卡路里燃烧相加,以提供总的卡路里燃烧。在此实施方式中,执行相同移动和/或静态,非中立位置的不同的用户可能会燃烧不同的卡路里量。这是因为,系统已经计算出了此特定用户的肢体、躯干等等的重量,该特定的重量用于计算体重燃烧。对于给定肢体的重量计算可以并且很有可能在不同的用户之间有所不同。 
前面的对本发明的系统的详细描述只是为了说明和描述。它不是详尽的公开或将本发明的系统限于所公开的准确的形式。根据上述原理,许多修改方案和变化也是可以的。所描述的实施方式只是为了最好地说明本发明的系统的原理以及其实际应用,从而使精通本技术的其他人在各种实施方式中最佳地利用本发明的系统,适合于特定用途的各种修改也是可以的。本发明的系统的范围由所附的权利要求进行定义。 

Claims (15)

1.一种系统(10)中的确定所述系统的用户的卡路里燃烧的方法,所述系统(10)包括耦合到用于捕捉用户运动的捕捉设备(20)的计算环境(12),所述方法包括:
a)通过所述捕捉设备(20)捕捉(步骤500)身体部位(302a-330)的图像;
b)通过所述计算环境(12)的处理器(101,259)确定(步骤502)在所述步骤a)中捕捉到的所述身体部位(302a-330)的质量;
c)通过所述捕捉设备(20)捕捉(步骤506)所述身体部位(302a-330)的移动;以及
d)根据在所述步骤c)中所捕捉到的所述身体部位(302a-330)的移动以及在所述步骤b)中确定的所述身体部位的质量来确定(步骤508)由所述身体部位(302a-330)燃烧的卡路里。
2.如权利要求1所述的方法,其特征在于,还包括通过与所述计算环境相关联的显示器来显示如在所述步骤d)中确定的所燃烧的卡路里的步骤。
3.如权利要求1所述的方法,其特征在于,所述步骤d)包括以下步骤:基于垂直移动、水平移动,以及垂直和水平移动的组合中的至少一项来确定所燃烧的卡路里。
4.如权利要求1所述的方法,其特征在于,所述步骤d)包括基于将身体部位保持在固定的非中立位置来确定所燃烧的卡路里的步骤。
5.如权利要求1所述的方法,其特征在于,还包括以下步骤:响应于在与所述计算环境相关联的显示器上显示的锻炼应用程序和游戏应用程序中的一个,执行所述身体部位的移动。
6.如权利要求1所述的方法,其特征在于,确定身体部位的质量的所述步骤b)通过以下动作执行:根据所述步骤a)的扫描来将用户分割成肢体、头和躯干,确定给定肢体的3-D体元组,并且基于所述给定肢体的所述体元组和已知密度来确定所述给定肢体的质量。
7.一种系统(10),包括:
捕捉设备(20),所述捕捉设备能够在用户在所述捕捉设备(20)的视野内移动时捕捉所述用户的一个或多个单独的身体部位(302a-330)的图像;以及
与所述捕捉设备(20)相关联的计算环境(12),所述计算环境(12)包括处理器(101,259),所述处理器(101,259)能够确定由所述捕捉设备(20)捕捉到的所述一个或多个单独的身体部位(302a-330)的质量,根据所确定的所述一个或多个单独的身体部位(302a-330)的质量以及所述一个或多个单独的身体部位(302a-330)的移动方向和程度,来确定由所述一个或多个单独的身体部位燃烧的卡路里。
8.如权利要求7所述的系统,其特征在于,所述计算环境还包括用于存储由所述一个或多个单独的身体部位在一段时间内燃烧的卡路里的总和的存储。
9.如权利要求7所述的系统,其特征在于,所述计算环境基于以下各项中的至少一个来计算计算由一个或多个单独的身体部位燃烧的卡路里:身体部位的向上移动、身体部位的向下移动、身体部位的水平移动以及身体部位的垂直和水平移动的组合。
10.如权利要求9所述的系统,其特征在于,所述计算环境还基于所述身体部位的移动速度来计算由一个或多个单独的身体部位燃烧的卡路里。
11.如权利要求7所述的系统,其特征在于,所述处理器确定以下情况下的身体部位的卡路里燃烧:所述身体部位从中立位置移至非中立位置、所述身体部位从非中立位置移至中立位置、以及所述身体部位保持在非中立位置。
12.一种用于促进减肥的系统(10),包括:
捕捉设备(20),所述捕捉设备能够在用户在所述捕捉设备(20)的视野内移动时捕捉所述用户的一个或多个单独的身体部位(302a-330)的图像;
与所述捕捉设备(20)相关联的计算环境(12),所述计算环境(12)包括确定由所述捕捉设备(20)捕捉到的所述一个或多个单独的身体部位(302a-330)的质量,根据所确定的所述一个或多个单独的身体部位(302a-330)的质量以及所述一个或多个单独的身体部位(302a-330)的移动方向和程度,来确定由所述一个或多个单独的身体部位(302a-330)燃烧的卡路里,所述计算环境(12)还运行锻炼程序;以及
与所述计算环境(12)相关联的显示器(242),所述显示器(242)提示用户根据由所述计算环境(12)运行的所述锻炼程序来进行锻炼,所述显示器还显示如由所述计算环境(12)确定的所述燃烧的卡路里。
13.如权利要求12所述的系统,其特征在于,所述计算环境基于所确定的所述一个或多个单独的身体部位的质量、所述一个或多个身体部位的重力、位移以及所述一个或多个身体部位的位移方向,来计算由所述一个或多个单独的身体部位燃烧的卡路里。
14.如权利要求13所述的系统,其特征在于,所述计算环境还基于存储在相对于中立位置的一个或多个单独的身体部位中的势能来计算由所述一个或多个单独的身体部位燃烧的卡路里。
15.如权利要求12所述的系统,其特征在于,在所述计算环境上运行的所述锻炼程序使所述显示器显示正在进行所述用户被假设模仿以便燃烧卡路里的锻炼的人的图像。
CN201110168386A 2010-06-11 2011-06-10 根据身体移动确定卡路里燃烧 Pending CN102270276A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/813,702 2010-06-11
US12/813,702 US9384329B2 (en) 2010-06-11 2010-06-11 Caloric burn determination from body movement

Publications (1)

Publication Number Publication Date
CN102270276A true CN102270276A (zh) 2011-12-07

Family

ID=45052579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110168386A Pending CN102270276A (zh) 2010-06-11 2011-06-10 根据身体移动确定卡路里燃烧

Country Status (2)

Country Link
US (1) US9384329B2 (zh)
CN (1) CN102270276A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247011A (zh) * 2012-02-13 2013-08-14 三星电子株式会社 管理健康的显示装置和方法
CN104731820A (zh) * 2013-12-24 2015-06-24 中国银联股份有限公司 基于立体图像的信息数据查询和选择方法
CN106999106A (zh) * 2014-12-02 2017-08-01 皇家飞利浦有限公司 用于使用可穿戴设备的测量结果生成健康数据的系统和方法
CN114732372A (zh) * 2022-06-13 2022-07-12 深圳市奋达智能技术有限公司 一种基于三轴加速度计的卡路里消耗计算方法及装置
CN115187605A (zh) * 2022-09-13 2022-10-14 飞狐信息技术(天津)有限公司 一种热量数值的确定方法及装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9011293B2 (en) * 2011-01-26 2015-04-21 Flow-Motion Research And Development Ltd. Method and system for monitoring and feed-backing on execution of physical exercise routines
WO2012129669A1 (en) * 2011-03-28 2012-10-04 Gestsure Technologies Inc. Gesture operated control for medical information systems
KR20130031469A (ko) * 2011-09-21 2013-03-29 삼성전자주식회사 3차원 모션 추적을 이용한 에너지 소비 계산장치 및 방법
US9573052B2 (en) * 2012-01-31 2017-02-21 Konami Digital Entertainment Co., Ltd. Game device, control method for a game device, and non-transitory information storage medium
US9526442B2 (en) * 2013-05-03 2016-12-27 Fit3D, Inc. System and method to capture and process body measurements
US20140340479A1 (en) * 2013-05-03 2014-11-20 Fit3D, Inc. System and method to capture and process body measurements
KR101850225B1 (ko) * 2013-10-14 2018-04-18 나이키 이노베이트 씨.브이. 복수의 디바이스들로부터의 에너지 소비량 계산결과들을 병합하는 신체단련 훈련 시스템
US11511156B2 (en) 2016-03-12 2022-11-29 Arie Shavit Training system and methods for designing, monitoring and providing feedback of training
CN106325806B (zh) * 2016-08-25 2020-10-16 纳恩博(北京)科技有限公司 一种控制设备的方法和装置
US10657709B2 (en) 2017-10-23 2020-05-19 Fit3D, Inc. Generation of body models and measurements
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256033B1 (en) * 1997-10-15 2001-07-03 Electric Planet Method and apparatus for real-time gesture recognition
WO2004002593A1 (ja) * 2002-06-27 2004-01-08 Ssd Company Limited ストロボスコープを使った入力システムを備える情報処理装置
CN101068605A (zh) * 2004-12-03 2007-11-07 新世代株式会社 拳击游戏的处理方法,显示控制方法,位置检测方法,光标控制方法,能量消耗计算方法和练习系统
JP4006949B2 (ja) * 2000-02-15 2007-11-14 株式会社セガ 画像処理システム、画像処理装置及び撮像装置

Family Cites Families (175)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
DE9103782U1 (zh) 1991-03-27 1991-10-17 Telko Gmbh, 8933 Untermeitingen, De
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0590101B1 (en) 1991-12-03 1999-06-23 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US6396546B1 (en) * 1994-05-20 2002-05-28 United Video Properties, Inc. Electronic television program guide schedule system and method
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US8280682B2 (en) 2000-12-15 2012-10-02 Tvipr, Llc Device for monitoring movement of shipped goods
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
WO1998007129A1 (fr) 1996-08-14 1998-02-19 Latypov Nurakhmed Nurislamovic Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
WO1999019828A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
US6527674B1 (en) 1998-09-18 2003-03-04 Conetex, Inc. Interactive programmable fitness interface system
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
DE69840608D1 (de) 1998-12-16 2009-04-09 3Dv Systems Ltd Selbsttastende photoempfindliche oberfläche
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) * 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7689437B1 (en) * 2000-06-16 2010-03-30 Bodymedia, Inc. System for monitoring health, wellness and fitness
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
AU2003212211A1 (en) 2002-04-19 2003-11-03 Iee International Electronics And Engineering S.A. Safety device for a vehicle
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US7620202B2 (en) 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
EP3693889A3 (en) 2005-01-07 2020-10-28 QUALCOMM Incorporated Detecting and tracking objects in images
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US7389591B2 (en) 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
WO2007143095A2 (en) 2006-06-02 2007-12-13 Mayo Foundation For Medical Education And Research Activity-contingent weight loss system
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
JP4830789B2 (ja) 2006-10-30 2011-12-07 オムロンヘルスケア株式会社 体動検出装置、情報送信装置、ノルディックウォーキング用ストック、および歩行運動量算出システム
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8360904B2 (en) 2007-08-17 2013-01-29 Adidas International Marketing Bv Sports electronic training system with sport ball, and applications thereof
US8221290B2 (en) 2007-08-17 2012-07-17 Adidas International Marketing B.V. Sports electronic training system with electronic gaming features, and applications thereof
US9986293B2 (en) * 2007-11-21 2018-05-29 Qualcomm Incorporated Device access control
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US9981193B2 (en) * 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
WO2011056657A2 (en) * 2009-10-27 2011-05-12 Harmonix Music Systems, Inc. Gesture-based user interface
JP5434638B2 (ja) * 2010-01-29 2014-03-05 ソニー株式会社 情報処理装置および情報処理方法
US8379919B2 (en) * 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
WO2011143670A1 (en) * 2010-05-14 2011-11-17 Gain Fitness, Inc. A method and system for creating personalized workout programs
WO2011155958A1 (en) * 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US8613666B2 (en) * 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256033B1 (en) * 1997-10-15 2001-07-03 Electric Planet Method and apparatus for real-time gesture recognition
JP4006949B2 (ja) * 2000-02-15 2007-11-14 株式会社セガ 画像処理システム、画像処理装置及び撮像装置
WO2004002593A1 (ja) * 2002-06-27 2004-01-08 Ssd Company Limited ストロボスコープを使った入力システムを備える情報処理装置
CN101068605A (zh) * 2004-12-03 2007-11-07 新世代株式会社 拳击游戏的处理方法,显示控制方法,位置检测方法,光标控制方法,能量消耗计算方法和练习系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247011A (zh) * 2012-02-13 2013-08-14 三星电子株式会社 管理健康的显示装置和方法
CN103247011B (zh) * 2012-02-13 2017-12-19 三星电子株式会社 管理健康的显示装置和方法
CN104731820A (zh) * 2013-12-24 2015-06-24 中国银联股份有限公司 基于立体图像的信息数据查询和选择方法
CN106999106A (zh) * 2014-12-02 2017-08-01 皇家飞利浦有限公司 用于使用可穿戴设备的测量结果生成健康数据的系统和方法
CN114732372A (zh) * 2022-06-13 2022-07-12 深圳市奋达智能技术有限公司 一种基于三轴加速度计的卡路里消耗计算方法及装置
CN115187605A (zh) * 2022-09-13 2022-10-14 飞狐信息技术(天津)有限公司 一种热量数值的确定方法及装置

Also Published As

Publication number Publication date
US20110306468A1 (en) 2011-12-15
US9384329B2 (en) 2016-07-05

Similar Documents

Publication Publication Date Title
CN102270276A (zh) 根据身体移动确定卡路里燃烧
JP6938542B2 (ja) 組込みセンサと外界センサとを組み合わせる多関節トラッキングのための方法およびプログラム製品
CN102413885B (zh) 用于对运动捕捉应用模型跟踪的系统和方法
Bränzel et al. GravitySpace: tracking users and their poses in a smart room using a pressure-sensing floor
CN102414641B (zh) 改变显示环境内的视图视角
CN102129551B (zh) 基于关节跳过的姿势检测
CN102193624B (zh) 用于基于姿势的用户界面的物理交互区
Tanaka et al. A comparison of exergaming interfaces for use in rehabilitation programs and research
CN102549619B (zh) 人类跟踪系统
CN102448566B (zh) 骨架以外的姿势
CN102622774B (zh) 起居室电影创建
CN102356373B (zh) 虚拟对象操纵
CN102665838B (zh) 用于确定和跟踪目标的肢端的方法和系统
CN102163077B (zh) 使用碰撞体来捕捉屏幕对象
CN102129293B (zh) 在运动捕捉系统中跟踪用户组
CN102221883A (zh) 自然用户界面的主动校准
CN105073210B (zh) 使用深度图像的用户身体角度、曲率和平均末端位置提取
CN103038727A (zh) 骨架关节识别和跟踪系统
CN102207771A (zh) 推断参与运动捕捉系统的用户意图
CN103019372B (zh) 利用计算设备计算代谢当量
CN105209136A (zh) 用于分析3d图像中的用户动作的质心状态矢量
CN102576466A (zh) 用于跟踪模型的系统和方法
CN105228709A (zh) 用于重复检测和分析的信号分析
CN102918518A (zh) 基于云的个人特征简档数据
CN102947777A (zh) 用户跟踪反馈

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150730

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150730

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20111207