CN103597516A - 控制虚拟环境中的对象 - Google Patents

控制虚拟环境中的对象 Download PDF

Info

Publication number
CN103597516A
CN103597516A CN201280027665.0A CN201280027665A CN103597516A CN 103597516 A CN103597516 A CN 103597516A CN 201280027665 A CN201280027665 A CN 201280027665A CN 103597516 A CN103597516 A CN 103597516A
Authority
CN
China
Prior art keywords
skeleton
user
described object
mapped
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280027665.0A
Other languages
English (en)
Other versions
CN103597516B (zh
Inventor
C·H·维罗毕
J·J·埃弗特
J·A·克拉克
B·J·辛德利
P·G·萨雷特
J·蒂亚奎罗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN103597516A publication Critical patent/CN103597516A/zh
Application granted granted Critical
Publication of CN103597516B publication Critical patent/CN103597516B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • A63F13/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了用于控制虚拟环境中对象的方法、系统和其上包含的计算机可使用指令的计算机存储介质。真实世界对象可以被接收到虚拟环境中。真实世界对象可以是任何非人类对象。对象骨架可以被标识并被映射到对象。真实世界用户的用户骨架也可被标识并被映射到对象骨架。通过把用户骨架映射到对象骨架,用户的运动控制虚拟环境中的对象的运动。

Description

控制虚拟环境中的对象
背景
近年来虚拟环境已经取得显著进步。伴随这些进步而来的是来自用户的增加与虚拟环境交互的日益增加的需求。使用基于网络摄像头的头部跟踪来实时控制预定模型当前在某些视频聊天应用中是可用的,并且允许用户通过跟踪用户头部的位置以及使用用户语音来控制化身的嘴部来控制虚拟化身的头部。然而,在此情况下,化身是预定的,跟踪限于头部,并且用户头部定向和化身头部定向之间的简单一对一映射被使用。目前不存在允许用户完全控制已从真实世界接收并被数字化成虚拟对象的对象的模型。换言之,不是预定的对象。此外,利用用户的骨架跟踪信息来控制使用用户身体的整个虚拟对象(例如,肢体、头部等)是不可用的。
概述
提供本概述是为了以简化的形式介绍将在以下详细描述中进一步描述的一些概念。本概述并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
本发明的实施例涉及用于控制虚拟环境中的对象的系统、方法以及计算机存储介质等。如以下将详细描述的,真实世界对象可以被数字化并且被例如游戏系统接收。在一个实施例中,真实世界对象是非人类对象,诸如无生命的对象(例如,椅子、球、喂饱的动物等)、宠物(例如,猫)等等。一旦经数字化的对象被接收,就可以执行对象和人类用户的各种骨架映射以使得对象被用户控制。换言之,用户的运动可以控制对象在虚拟环境中的运动。
附图简述
下面参考附图详细描述本发明,其中:
图1是适用于实现本发明的实施例的示例性计算环境的框图;
图2是示出根据本发明的一个实施例的用于控制虚拟环境中的对象的环境的框图;
图3是根据本发明的一个实施例的用户展示供数字化的对象的图示;
图4是根据本发明的一个实施例的用于数字化对象的工作流程的图示;
图5A和5B是根据本发明的一个实施例的用户展示供数字化的对象的相机视图视角的图示;
图6是根据本发明的一个实施例的可用于数字化对象的经分割深度图像的图示;
图7是根据本发明的一个实施例的深度与色彩的偏移的图示;
图8是根据本发明的一个实施例的可用于数字化对象的源色彩图像的图示;
图9是根据本发明的一个实施例的所捕获的对象的色彩分割的图示;
图10和11是根据本发明的一个实施例的给出保持要被数字化的对象的指导的用户界面(UIs)的图示;
图12是根据本发明的一个实施例的对象的三维(3D)点云构造的图示;
图13是根据本发明的一个实施例的经对准点的切片(point sheets)的两个视图的图示;
图14是根据本发明的一个实施例的最终的点云构造的图示;
图15是根据本发明的一个实施例的显示向用户显示的经数字化对象的确认图像的UI的图示;
图16是根据本发明的一个实施例的所捕获的图像的网格输出的图示;
图17是根据本发明的一个实施例的经平滑和处理的对象的图像的图示;
图18是根据本发明的一实施例的具有UV坐标的图像的图示;
图19是根据本发明的一个实施例的绘制在最终纹理图的一部分中的面朝前的三角边缘的图示;
图20A-20E是示出根据本发明的一个实施例的向所生成的骨架结构的不同骨骼添加的权重的图示;
图21A和21B是根据本发明的一个实施例的在亮度/色度处理之前和之后的图像的图示;
图22A和22B是根据本发明的一个实施例的边缘被滤波之后的源图像和输出图像的图示;
图23A和23B是根据本发明的一个实施例的在其中边缘修复滤波器找到背景颜色和目标颜色的图像的图示;
图24A和24B是示出根据本发明的一个实施例的从边缘到争议区域的距离以及计算的背景似然值的图像的图示;
图25是根据一个实施例的最终合成纹理图的图示;
图26A和26B是根据本发明的一个实施例的掩码值和重度模糊的顶点色彩的图示;
图27A和27B是根据本发明的一个实施例的仅具有纹理和具有混合了掩码值的顶点色彩的纹理的不同网格的图示;
图28是根据本发明的一个实施例的经数字化对象的最终渲染的图示;
图29是示出根据本发明的一个实施例的用于控制虚拟环境中的对象的方法的流程图;以及
图30是示出根据本发明的一个实施例的用于控制虚拟环境中的对象的方法的流程图。
详细描述
此处用细节来描述本发明的主题以满足法定要求。然而,该描述本身并非旨在限制本专利的范围。相反,发明人已设想所要求保护的主题还可结合其它当前或未来技术以其它方式来实施,以包括不同的步骤或类似于本文中所描述的步骤的步骤组合。此外,尽管术语“步骤”和/或“框”可在此处用于指示所采用的方法的不同元素,但除非而且仅当明确描述了各个步骤的顺序时,该术语不应被解释为意味着此处公开的各个步骤之中或之间的任何特定顺序。
本发明的实施例针对用于控制虚拟环境中的对象的系统、方法以及计算机存储介质等。如以下将详细描述的,真实世界对象可以被数字化并且被例如游戏系统接收。在一个实施例中,真实世界对象是非人类对象,诸如无生命的对象(例如,椅子、球、喂饱的动物等)、宠物(例如,猫)等等。一旦经数字化对象被接收,就可以执行对象和用户的各种骨架映射以使得对象被用户控制。换言之,用户的运动可以控制对象在虚拟环境中的运动。
因此,本发明的一个实施例针对存储计算机可使用指令的一个或多个计算机存储介质,当这些指令被一个或多个计算设备使用时使该计算设备执行用于控制虚拟环境中的对象的方法。该方法包括标识虚拟环境中的对象。该对象可以是任何非人类对象。对象骨架被映射到对象。对象骨架可以是预先定义的模板,并且对象和/或对象骨架可以被调整以相互适合。用户骨架被接收并且被映射到对象骨架。用户骨架是用户的骨架的图像。一旦用户骨架被映射到对象骨架,对象就被用户控制。具体而言,用户的运动控制虚拟环境中的对象的运动。
本发明的另一实施例针对包括处理器和存储器的、用于控制虚拟环境中的对象的系统。该系统包括与一个或多个处理器及一个或多个计算机可读存储介质相关联的计算设备、与该计算设备耦合的数据存储、以及控制引擎,该控制引擎标识包括用户骨架和对象骨架的一个或多个骨架,把用户骨架映射到对象骨架,以及管理对象骨架从而使对象被操作以镜像用户骨架的运动。
而本发明的又一个实施例针对存储计算机可使用指令的一个或多个计算机存储介质,当这些指令被一个或多个计算设备使用时使该计算设备执行用于控制虚拟环境中的对象的方法。该方法包括标识虚拟环境中的对象。该对象是已经被数字化成虚拟环境中的虚拟形式的真实世界对象。通过标识对象的质心并且把对象骨架的中心施加在对象的质心上,对象骨架被映射到对象。对象被重调尺寸以与对象骨架的尺寸对应,从而使对象骨架的底部与对象的底部对准。用户骨架随后被接收并被映射到对象骨架,从而使对象骨架的一个或多个关节角度镜像用户骨架的一个或多个关节角度。用户的运动被标识,并且响应于标识出用户的运动而运动对象,从而使对象的运动镜像用户的运动。
在简要描述了本发明各实施方式的概览之后,以下描述其中可实现本发明的各实施方式的示例性操作环境,以便为本发明各方面提供通用上下文。首先具体参考图1,示出了用于实现本发明的各实施方式的示例性操作环境,并将其概括地指定为计算设备100。计算设备100只是合适的计算环境的一个示例,并且不旨在对本发明的使用范围或功能提出任何限制。也不应该将计算设备100解释为对所示出的任一组件或其组合有任何依赖性或要求。
本发明可以在由计算机或诸如个人数据助理或其他手持式设备之类的其他机器执行的计算机代码或机器可使用指令(包括诸如程序模块之类的计算机可执行指令)的一般上下文中描述。一般而言,包括例程、程序、对象、组件、数据结构等的程序模块指的是执行特定任务或实现特定抽象数据类型的代码。本发明可以在各种系统配置中实施,这些系统配置包括手持式设备、消费电子产品、通用计算机、专用计算设备等等。本发明也可以在其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实施。
参考图1,计算设备100包括直接或间接耦合以下设备的总线110:存储器112、一个或多个处理器114、一个或多个展示组件116、输入/输出(I/O)端口118、输入/输出组件120、和说明性电源122。总线110表示一条或多条总线可以为何物(诸如地址总线、数据总线、或其组合)。虽然为了清楚起见利用线条示出了图1的各框,但是实际上,各组件的轮廓并不是那样清楚,并且比喻性地来说,线条更精确地将是灰色的和模糊的。例如,可以将诸如显示设备等展示组件认为是I/O组件。而且,处理器具有存储器。发明人认识到这是本领域的特性,并重申,图1的图示只是例示可以结合本发明的一个或多个实施方式来使用的示例性计算设备。诸如“工作站”、“服务器”、“膝上型计算机”、“手持式设备”等分类之间没有区别,它们全部都被认为是在图1的范围之内的并且被称为“计算设备”。
计算设备100通常包括各种计算机可读介质。计算机可读介质可以是可由计算设备100访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。作为示例而非限制,计算机可读介质可包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据的信息的任何方法和技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括但不限于,RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁存储设备、或能用于存储所需信息且可以由计算设备100访问的任何其他介质。通信介质通常以诸如载波或其他传输机制之类的已调制数据信号来体现计算机可读指令、数据结构、程序模块或其他数据,并且包括任何信息传送介质。术语“已调制数据信号”是指使得以在信号中编码信息的方式来设定或改变其一个或多个特征的信号。作为示例而非限制,通信介质包括诸如有线网络或直接线连接之类的有线介质,以及诸如声学、RF、红外及其他无线介质之类的无线介质。上述的任意组合也应包含在计算机可读介质的范围内。
存储器112包括易失性和/或非易失性存储器形式的计算机存储介质。存储器可以是可移动的,不可移动的,或两者的组合。示例性硬件设备包括固态存储器、硬盘驱动器、光盘驱动器等。计算设备100包括从诸如存储器112或I/O组件120等各种实体读取数据的一个或多个处理器。展示组件116向用户或其他设备展示数据指示。示例性展示组件包括显示设备、扬声器、打印组件、振动组件等等。
I/O端口118允许计算设备100逻辑上耦合至包括I/O组件120的其他设备,其中某些设备可以是内置的。说明性组件包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪、打印机、无线设备等等。
如先前指出的,本发明的实施例针对控制虚拟环境中的对象。现在转到图2,提供了示出可以采用本发明的实施例的示例性计算系统200的框图。应当理解,此处所描述的这一和其他安排仅作为示例来阐明。附加于或替代于所示的安排和元素,可使用其他安排和元素(例如机器、接口、功能、次序、以及功能聚集等),并且可完全省略某些元素。此外,本文所描述的许多元素是可以实现为分立或分布式组件或结合其他组件的,以及以任何合适的组合和在任何合适的位置的功能实体。此处被描述为由一个或多个实体执行的各种功能可由硬件、固件和/或软件来执行。例如,各种功能可由执行存储在存储器中的指令的处理器来执行。
计算系统200一般包括网络210、数据存储220和控制引擎230,以及其他未示出组件。控制引擎230可以采取用于执行下述功能的专用设备的形式,可以被集成到例如网络访问设备、游戏系统等或其任意组合中。计算系统200的组件可以经由网络210彼此通信,网络210可包括但不限于一个或多个局域网(LAN)和/或广域网(WAN)。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。应理解,可在本发明的各实施例的范围内的计算系统200内采用任意数量的计算设备和控制引擎。其每个都可以包括单个设备/接口或在分布式环境中协作的多个设备/接口。例如,控制引擎230可以包括安排在分布式环境中的多个设备和/或模块,所述多个设备和/或模块共同提供在此所述的控制引擎230的功能。另外,在计算系统200内还可以包括未示出的其他组件/模块。
在某些实施例中,所示组件/模块中的一个或多个可以被实现为独立的应用。在其他实施例中,所示组件/模块中的一个或多个可以通过控制引擎230被实现为基于因特网的服务或者游戏系统内的模块。本领域的普通技术人员可以理解,图2所示的组件/模块在本质和数量上是示例性的,并且不应被解释为限制。可采用任何数量的组件/模块来实现此处的实施例的范围内的期望功能。此外,组件/模块可位于任何数量的服务器或客户计算设备上。仅仅作为示例,控制引擎230可驻留在远离其余组件中的一个或多个的游戏系统、服务器、服务器群集或计算设备上。
应当理解,此处所描述的这一和其他安排仅作为示例来阐明。附加于或替代于所示的安排和元素,可使用其他安排和元素(例如机器、接口、功能、次序、以及功能聚集等),并且可完全省略某些元素。此外,此处所描述的许多元素是可被实现为分立或分布式组件或可结合其他组件/模块并且以任何合适的组合和位置来实现的功能实体。此处被描述为由一个或多个实体执行的各种功能可由硬件、固件和/或软件来执行。例如,各种功能可由执行存储在存储器中的指令的处理器来执行。
一般而言,系统200示出其中虚拟环境中的对象被真实世界用户控制的环境。如下文将更加详述的,本发明的实施例提供接收经数字化的对象并将骨架映射到对象。本发明的附加实施例提供将用户骨架映射到对象,从而使用户控制虚拟环境中的对象。
控制引擎230被配置成管理虚拟环境中的对象从而使这些对象可以被用户控制。虚拟环境中的对象可以是任何非人类的对象,诸如宠物、吃饱了的动物、椅子等。控制引擎230包括接收组件231、标识组件232、映射组件233以及显示组件234。
每个组件被配置成使控制引擎230能促成用户控制虚拟环境中的对象。
接收组件231可以被配置成接收已经被数字化的对象等。在一个实施例中,对象是真实世界对象。在实施例中,对象是任何非人类的真实世界对象。数字化,如在此所使用的,一般指标识提供到系统200的真实世界对象并把真实世界对象处理成虚拟对象的过程。
图3是根据一个实施例的供用户304创建对象306的数字表示的环境300的图示。具体而言,环境300示出用户304将对象306(示为章鱼塑像)展示给计算设备302,计算设备302装备有两个相机:彩色相机308和深度相机310。在环境300中,计算设备302是游戏控制台,诸如由
Figure BDA0000430868410000082
创建的微软KinectTM。计算设备302上的相机捕捉包括对象306的一个或多个图像。彩色相机308捕捉图像的色彩数据,而深度相机310捕捉深度数据。在替换实施例中,计算设备302可以仅具有一个相机,该相机同时捕捉色彩和深度数据。
尽管未示出,用户304可以向计算设备展示对象306的背面以捕捉该背面的图像,该背面的图像可以与正面图像组合并被用来产生对象306的3D呈现。为了生成更加完整的3D数字化,还可以捕捉目标的其他视图的附加图像。
图4是根据一个实施例的用于数字化对象的工作流程400的图示。最初,用户将对象展示给计算设备上的相机以拍摄图像,如在402所示。在一些实施例中,计算设备可以指令用户将对象运动到特定区域中以便捕捉图像的最优图像—例如,在显示屏上提供轮廓、示出用户和对象的实时图像,并随后指令用户将对象运动到该轮廓中。一旦拍摄了初始图像,计算设备可以指令该用户展示对象的背面以进行捕捉,如在404所示。可以由计算设备同样提供捕获背侧的指导。对于捕捉到的每张图像,存储色彩数据和深度数据并使用其来数字化正被展示的对象。而且,可以捕捉针对对象的正面和背面视角的多张图像。例如,计算设备可以被配置成拍摄10张正面图像和10张背面图像,并且可将正面的10张图像合并在一起并将背面的10张图像合并在一起—或使用所有20张图像来数字化图像。虽然10张图像已经被示出是数字化对象的理想数量的图像,但其它实施例可以使用不同数量的捕捉到图像。
一旦由相机捕捉到了对象的正面图像和背面图像,一个实施例开始通过—使用这些图像的深度数据—搜索以查找图像中与相机最接近点来数字化所述对象,如在406中所示。用户可能正保持着该用户前面的要数字化的对象,于是该对象应该比任何其它事物更接近相机。转回到图3,可以注意到用户304正保持着他前面的对象306,因此该对象更靠近计算设备302。可以使用与该图像相关联的深度数据来实现定位图像中的最接近对象,并且一些实施例对正面图像和背面图像两者都执行该过程以标识这两者中的最接近对象。
如在408处所示,随后搜索在图像中标识出的最接近对象以查找标识这些对象的结束之处的边缘。深度数据再次被用来定位图像中的各对象的边缘。边缘搜索可以从最接近的点向外开始,查找点深度的剧烈差异。例如,图3中的章鱼的边缘可以具有比表示用户304的肩膀的邻近点近差不多半米的一个点。这种剧烈差异表示该邻近点并不是对象的一部分并因此不应该被包括在进一步的数字化步骤中的可读信号。通过这种方式定位对象的所有边缘允许计算设备标识出图像中的该对象。
一旦确定了对象,一个实施例关闭与图像的剩余部分(即图像的没有被标识为对象的部分)相关联的色彩数据。在一些实施例中,可能必需捕捉多张图像(例如对象正面的10张图像和对象背面的10张图像),所以可能需要平滑技术来混合各帧之间的所找到的边缘,如在410所示。例如,对象在帧1和帧4之间可能已经运动了,所以平滑各帧之间的边缘是取得对象的准确表示所必需的。另外,在深度到色彩的配准(registration)中的噪声、低分辨率和瑕疵也可能使对边缘的附加平滑和/或滤波成为必要。
在一个实施例中,所得的经平滑和/或滤波的对象被展示给用户进行确认,如在412所示。用户随后可以接受或拒绝所得的对象。如果接受,附加处理可接着行进到数字化所述对象。如果拒绝,实施例可以要求用户通过拍摄对象的新图片来重新开始该过程或仅仅重新平滑或重新滤波该对象。
最终,正面图像和背面图像被用来以3D生成对象的点云构造。图12中详细示出的“点云构造”是对象的正面图像和/或背面图像到3D空间的映射,其中标识出了该对象的每一点或像素的深度。点云构造被用在对象的进一步数字化中。
图5-图27示出数字化过程中的各步骤的图像,并且将在下面被更加详细地讨论以说明被不同实施例使用的处理。具体而言,图5A和图5B是根据一个实施例的用户展示供数字化的对象的相机视图视角的图示。在所示的实施例中,对象的两个视图被捕捉。令彩色相机放大该帧的中央以获得围绕目标对象的640x480的彩色窗口,并且随后将该彩色窗口的四角转换成深度帧坐标(假设这四个角位于目标对象的前面)。随后从该深度帧中抓取匹配的160x120的窗口。如果没有这种按帧的窗口调整(取决于目标对象到相机的距离),深度和彩色窗口可能不会尽可能的完全重叠。而且,原始色彩和深度被捕捉,而无需不执行深度到色彩或色彩到深度的配准。分辨率数字和窗口仅出于说明的目的被提供,因为可以替换地使用各种其它的分辨率。
在一个实施例中,深度图像被分割成目标对象。为了这么做,搜索并找到与相机的最接近的深度像素,假设这样的点在目标对象上。随后,该实施例从所找到的最接近点开始向外泛色填充,直到达到深度边缘(即深度离对象的正面太远或我们不具有深度数据)。另外,可以移除围绕高斜率区域并具有太少的邻居的点。结果是在目标对象上的深度像素蒙板(在此被称为“经分割的深度图像”),如图6所示。经分割的深度图像被存储在环形深度帧缓冲区(装有为10的环形缓冲区大小的BAB/GOE)内,从而盖写最早期的深度帧并将所有帧一起取平均以获得最终的深度图像。在一个实施例中,仅经分割的深度像素对最终平均做出贡献。结果,噪声被平滑,导致更加稳定的对象边缘,并改善了在其中由于噪声或弱IR反射材料引起的对象的部分在分割内外闪烁的场景。
图7是根据一个实施例的深度与色彩的偏移的图示。如图所示,一个实施例构建了深度与色彩的偏移表,具有表示绿点的绿色(在右上角中示出)、红色(在左下角中示出)以及这两种色彩之间的混合。每个像素的深度和色彩空间坐标之间的偏移被存储在表格中以供在彩色分割和网格处理期间快速查找,并且有助于仅使用这两张捕捉到的色彩图像完美地再现输出网格,而不管特定相机的校准设置。通过向外复制分割的边缘处的偏移,可以填充该表格的在对象分割外面的那些区域。所复制的边缘处偏移可以随后被用来处理当输出网格中被投射到深度图像中的各顶点落在深度分割的边界之外时的情况。
图8是源色彩图像的图示,而图9是根据一个实施例的捕捉到的对象的色彩分割的图示。从深度空间中的分割开始,一个实施例使用星形的溅斑图案(star-like splat pattern)将每个经分割的深度像素溅射到320x240的色彩分割缓冲区中。随后所得的图案可被“上采样”到640x480,并且,随后为每个经分割的彩色像素计算“离理想的距离”值,该值描述了源深度像素离“理想”距离有多远。理想距离表示用户应该将目标对象保持得离相机有多近,以便获得尽可能多的色彩/深度数据—而无需与深度相机的前剪辑平面相交。这些值在捕获过程期间可以被作为反馈展示给用户。与离理想较近的像素相比,距离理想较远的像素可以被更加重度地模糊化和着色。离理想的距离的值最终被复制到色彩图像的被用于进行实时预览的阿尔法通道中。
图10和11是根据一个实施例的给出保持要被数字化的对象的指导的用户界面(UIs)图示。图10示出了所示的实施例分析经分割的像素的数目、到相机的距离、离开相机视图中心的距离、像素稳定性以及对象尺寸,并向用户给出如何最佳地安置对象的视觉和文本反馈。该反馈可以是屏幕上的轮廓的形式。图11示出使用如上述相同的过程的目标对象的背面的图像的色彩和深度数据。一个实施例使用经分割的正面捕捉物的轮廓来指导用户正确地定向对象。用户不需要精确匹配轮廓,因为正面捕捉物和背面捕捉物稍后可以被自动对准。
图12示出根据一个实施例的点云构造。此时,两张色彩和深度数据图像已经针对目标对象被分割。使用这些图像,目标对象的表面上的各点的点云构造可被构建,并且稍后被用于重新构建三角网格。正面深度图像中的各经分割像素被转换成3D点的“切片”。在一个实施例中,未使用深度数据和作为该切片的背面中心的原点将各位置从深度图像空间投射到模型空间。通过添加附加的点以形成对象的各侧来将该切片的边缘向后挤压。为了猜测对象在BAB/GOE中有多“深”,使用固定的挤压距离值。
类似地,来自背面深度图像的3D点的切片被创建,从而将正面捕获图的背面中心用作原点。图13示出了根据一个实施例的经对准点的切片的两个视图。为了对准这些切片,计算初始转换以围绕向上的轴将该切片旋转180度,以便其形成点云的背面。在一个实施例中,计算另一个转换,该另一个转换使正面切片和背面切片的边缘尽可能靠近地对准。该对准过程可以转换背面切片以使背面切片的质心与正面切片的质心匹配。随后在转换和旋转范围上使用强力迭代以最小化“对准误差”值,该值被计算成从每个正面边缘点到其最接近的背面边缘点的距离的和。该迭代可以在多个通道(multiple passes)中进行(其中,每个通道尝试一次一个地计算每个转变和旋转轴的最佳值),并且为了效率使用两层分层方式来完成跨每个轴的搜索。使用3D单元格空间分隔来加速最接近点查找。一个实施例也实现了一种用于快速细粒度(fine-grained)对准的迭代最接近点(“ICP”)算法,或者替换地,对于更好控制的需求可以指示仅使用强力方法迭代。
来自正面切片的、在背面切片中不具有对应点的点可以被挑选出以从每个正面点向后搜索,以查找最接近的背面点。类似地,可以挑选出来自背面切片的、在正面切片中不具有对应点的点。这移除了正面和背面捕捉物中不一致的切片部分,如在用户的手处于捕捉物中但在各捕捉物之间改变了位置的情况下,或者在对象在正面和背面捕捉物之间改变了形状的情况下会发生的。
在一个实施例中,将剩余的点合并在一起而成为最终点云,并且使用由每个点和其右下的邻居形成的平面来计算这些点的法线(normal)。图14示出根据一个实施例的最终点云构造。
确认图像随后可被展示给用户,如图15所示。确认图像合并了切片对准和点挑选的结果,从而允许用户检测出捕获、对准或挑选严重失败的情况,并进行重新捕捉而无须经历构造过程的剩余部分。所述图像通过以下方式来创建:将最终点云中的各点投射并溅射在正面和背面色彩图像的阿尔法通道中、基于对准转换来旋转背面图像、以及进行某个附加图像清除。
表面重新构造步骤采用最终点云并生成三角网格。图16示出有表面重新构造的网格输出的图示。这在存储器和时间两方面都可能是数字化的计算最密集的部分,在某些实施例中,对于大约20,000个点的典型点云数据来说花费10-20秒。在重新构造期间可以限制空洞填充的数量以保持存储器使用受到控制,但是如果在点云中存在大量的空洞,这样的限制可以导致非水密的网格。
图17是根据一个实施例的对象的经平滑和处理的图像的图示。构建顶点邻接列表,并且计算面和顶点法线。随后,一个实施例使用拉普拉斯算法来平滑某些约束。结果,对象的各侧被圆整,噪声被移除,并且在其中各点的切片没有完美对齐的区域被清理。
取决于点云的质量,表面重新构造可以创建小的几何“岛”,而不是单个大网格。一个实施例使用连通区域标记来查找岛、计算它们的体积并移除明显小于最大岛的那些岛。
对于每个顶点,一个实施例评判在该顶点的法线和正面及背面捕捉视图方向之间的点积。正面视图方向可以沿着模型空间的负Z轴,而背面视图方向可以取决于切片对准处理的结果并且不沿着正Z轴。结果,一些顶点对于正面和背面捕捉视图两者都是可见的,而一些顶点对于这两个视图都不可见。如果一些顶点的法线面向正面而非背面,则它们可以被归类为“正面”,反之亦然。这也允许定位“接缝”顶点(即横跨对象的正面和背面视图的顶点)。
为了创建纹理图并应用到最终网格,一个实施例将来自所述正面捕捉物的色彩图像放置在纹理的顶部,而将来自所述背面捕捉物的色彩图像放置在正面捕捉物正下方。来自纹理的顶部部分的纹理像素(Texel)随后被映射到基本上面向正面的三角形上,并且对于基本上面向背面的三角形来说反之亦然。各顶点最初可以在正好沿着正面-背面接缝的正面和背面三角形之间共享,并且随后复制这些共享顶点以便将纹理的不同部分映射到正面相对背面的三角形。
图18示出了具有UV坐标的图像的图示,而图19示出根据一个实施例的绘制在最终纹理图的一部分中的面向正面的三角形边缘的图示。为了计算UV坐标,面向正面的三角形被映射到纹理的顶部部分,在该部分中放置有正面捕捉色彩图像,并且对于底部来说也是一样的。顶点位置在深度相机的空间中,而色彩图像位于彩色相机的空间中,所以在将各顶点投射到正面/背面深度图像上之后,一个实施例使用深度与色彩的偏移表来将坐标转换到彩色相机空间。
在一个实施例中,网格被重新居中、被围绕向上的轴镜像映射,并且被缩放以增强最大宽/高比。与实际的物理对象相比,所捕捉的色彩和深度图像被镜像映射,因此另一个镜像映射被用于反转这个。对于较高而不是较宽的对象,可以优化骨架并且加入动画,这样宽/高比限制对因动画化与某个骨架不匹配的宽对象而引起的伪像设置了一个限制范围。
在一个实施例中,单个骨架被用于对象的所有动画。该骨架可以具有给出良好运动范围(走路、跳跃、爬行、跳舞、向左和向右看等)的骨骼,而无需目标对象具有更多形状。
为了将皮肤应用到经数字化图像,该网格被重新缩放并被定位成使骨架适合于其内部,其中顶部骨骼被定位在距对象的顶部(将其粗略地放置在对象的”头”内)某个百分比(例如大约90%),而底部骨头被定位在对象的底部范围。通过查找沿着向上轴的与每个顶点最接近的骨骼并使用衰减曲线来对它们进行加权,可以计算骨骼索引以及向骨架添加的权重。图20A-图20E是示出根据一个实施例的向所生成的骨架结构的不同骨骼添加的权重的图示。下文将详细讨论应用骨架到对象。
处理色彩和/或深度图像以减少噪声并改善质量。在一个实施例中,独自地对正面和背面图像进行处理,并且将结果合并到最终纹理图中,这可能需要附加处理。依照来自艺术家的某些实验和反馈,下述步骤被发现是最优的:将sRGB色彩转换到线性空间,应用“灰度世界”自动白平衡,修复边缘伪像,计算亮度和色度值,应用双向滤波、直方图均衡以及对亮度锐化,对色度应用中值滤波,转换回sRGB,以及最后将各色彩的边缘向外延伸到图像的去分割区域中。在不同的实施例中,可以加入其它步骤,或者删除上述某些步骤。
图21A和21B是根据一个实施例的示出在亮度/色度处理之前和之后的图像。独立地处理亮度/色度允许更加强力地滤波色度同时保留亮度图像中的细节,这对去除图像噪声是有利的。可以轻度应用直方图均衡以补偿曝光欠佳的图像。
图22A和22B是根据一个实施例的示出边缘被滤波掉之后的源图像和输出图像。在一个实施例中,“边缘修复滤波器”试图替换掉目标对象边缘处的、实际来自背景而非对象自身的那些色彩。坏彩色可能由于深度图像的相对低的分辨率和高噪声以及有缺陷的深度到彩色配准而混入。边缘修复滤波器对直接围绕对象边缘的各像素的“争议区域”操作。假设争议区域内部的像素肯定是目标对象的部分,而更外面的像素是背景部分,则计算每个争议区域像素的“背景似然”值,并将其用于混合接近内部色彩的高似然度背景像素。
图23A和图23B是根据一个实施例的示出在其中边缘修复滤波器找到背景颜色和目标颜色的图像。从外面将目标色彩外插进争议区域中。
图24A和图24B是示出根据一个实施例的从边缘到争议区域的距离以及计算的背景似然值的图像。而且,图25示出根据一个实施例的具有在非最终图像的塔(tope)上面的纹理的图像的最终合成纹理图。
把正面和背面图像放置在一起而引起的接缝可能需要被修复。最后一点网格处理被用来改善在正面-背面接缝附近的以及在捕获期间对彩色相机不可见的区域中的对象的外观。首先,计算每个顶点的掩码值,该值表示了纹理色彩在该顶点处将有多“坏”。该值是到接缝(其中正面和背面图像接触但通常没有很好的对齐)的距离以及对于捕捉到的图像中的任何一个而言某顶点有多么面向背面(其中纹理色彩由于表面不再面对相机视野并且还不再面对不足的纹理像素密度而分解了)的乘积。这些值可以被存储在顶点色彩阿尔法通道中。接着,表面色彩的经模糊版本被计算并被存储到顶点色彩RGB通道。这些色彩在质量上是相当好的(虽然是低细节)。需要修复的负面伪像被相对地定位,且具有较高的频率,然而所述模糊给出了更加全局、低频率的色彩。图26A和图26B是根据一个实施例的掩码值和重度模糊的顶点色彩。在一个实施例中,在运行时掩码值被用于在源纹理和被模糊的顶点色彩之间混合。图27A和图27B是根据一个实施例的仅具有纹理(27A)和具有依据掩码值混合的顶点色彩的纹理(27B)的不同网格。
图28是根据一个实施例的经数字化对象的最终渲染。在一个实施例中,一旦最终网格和纹理完成,虚幻引擎3被创建,并用环境以及边缘照明、自阴影和动画来渲染。GOE应用还允许用户通过将Nui骨架映射到骨架上来具体化(avateer)对象。
回到图2,接收组件231可以被进一步配置成接收用户骨架信息。如在此所使用的,用户骨架信息一般指标识用户的骨架的数据。具体而言,关节角度、关节位置等被包括在用户骨架信息中。在一个实施例中,接收组件231可以采用相机的形式,该相机被配置成接收对象和用户骨架信息。在一附加实施例中,相机是游戏系统的相机。
标识组件232可以被配置成标识虚拟环境中的对象(例如,已被接收组件231接收到的经数字化对象)、用户骨架、对象骨架等。如在此所使用的,对象骨架一般指要施加在虚拟环境中的对象上的骨架。在一个实施例中,单个系统定义的模板对象骨架被用来控制虚拟环境中的对象。在替换实施例中,多个系统定义的模板对象可用于施加在虚拟环境中的对象上。在附加的实施例中,可以基于用户的运动演示实时地创建对象骨架,如下文中更加详细描述的。
最初,一旦对象被系统200接收,标识组件232就可以标识对象骨架以与对象关联。假设单个系统定义的模板对象骨架可用来与对象关联,标识组件232可以标识单个系统定义的模板对象骨架以与对象关联。
或者,如果多个对象骨架可用,则标识组件232可以标识对象的一个或多个特性。对象的一个或多个特性包括但不限于对象的肢体数目、对象的形状、对象的尺寸(例如,长度、宽度等)等等。一个或多个特性可随后被标识组件232用来标识多个对象骨架中与对象的一个或多个特性对应的一个或多个对象骨架。例如,如果对象被标识为具有两个肢体,则与具有四个肢体的对象骨架相比,具有两个肢体的对象骨架是对象的更好的匹配。
在附加的实施例中,可以基于用户的自由度实时地创建对象骨架。例如,用户可以通过使用其肢体向标识组件232演示运动。通过演示运动中的自由度(即,关节),可以基于用户的关节信息实时地创建对象骨架。
标识组件232还可以被配置成标识用户的用户骨架。在实施例中,用户是人类用户。例如可以使用骨架跟踪技术来标识用户骨架,该骨架跟踪技术被集成到例如游戏系统,诸如微软公司
Figure BDA0000430868410000161
创建的微软KinectTM系统。标识组件232可以标识系统200的图像中的用户。通过标识图像的每个像素以及每个像素距标识组件232的距离,该图像中的用户可以被标识出。例如,用户的每个像素距该标识组件232大致相等的距离,但是与用户相比,用户后面的灯距该标识组件232将是不同的距离。此外,用户的形状可以被用来标识图像中的用户。通过使用这些技术,用户可以随后从背景被分离出。
一旦图像中的用户被标识出(即,从背景分离出),就可以标识用户的用户骨架。用户骨架可以通过标识用户的姿势来标识出。如在此所使用的,用户的姿势一般指捕捉用户的图像时用户的位置。在用户的姿势中,包括但不限于姿势的关节角度、姿势的关节位置等的用户骨架信息被标识。用户的姿势以及在其中的用户骨架信息可以同可从例如数据存储220获取的一个或多个模板姿势比较。该比较可以把用户姿势的关节角度和关机位置同模板姿势的关节角度和关节姿势比较。通过比较此信息,来自模板姿势的最接近匹配可以被标识。该最接近匹配可以与用户骨架相关联。
映射组件233可以被配置成将对象骨架映射到对象以及将用户骨架映射到对象等。最初,对象骨架可以被映射到虚拟环境中的对象。如前所述,对象骨架可以从一个或多个模板对象骨架中选择。映射组件233可通过标识对象骨架的中心来把对象骨架映射到对象。映射组件233还可以标识虚拟环境中的对象的质心。映射组件233随后可以把对象骨架的中心映射到对象的质心。
如可以想象到的,对象骨架由于其可能是系统定义的模板骨架而可能不适合对象(即,对象可能比对象骨架大或者小)。在一个实施例中,对象被重调尺寸以适合对象骨架。重调对象尺寸以适合对象骨架可以包括但不限于使对象的底部与用户骨架的底部对准。在实施例中,对象的底部和用户骨架的底部可以彼此精确地对准。接下来,对象的顶部可以与对象骨架的顶部对准。对象的顶部可以与对象骨架对准从而使对象骨架的顶部在对象顶部下方的预定距离处。对象骨架的顶部可以被对准达对象顶部以下的预定距离,以说明对象的被假设为对象头部的一部分。在一个实施例中,预定距离是对象顶部以下百分之十(10%)。预定距离可以是由授权用户指定的任何距离。
在替换实施例中,不重调对象尺寸而是重调对象骨架尺寸以适合于对象。由此,对象骨架可以与对象对准,从而使对象骨架的底部与对象的底部对准。对象骨架的顶部也可以与对象的顶部对准,从而使对象骨架的顶部在对象顶部以下的预定距离处。在实施例中,预定距离是对象顶部以下百分之十(10%)。预定距离可以是由授权用户指定的任何距离。
一旦映射组件233已经把对象骨架映射到对象,用户骨架就可以被映射到对象骨架。把用户骨架映射到对象骨架可以是一对一的映射(1:1)或不是1:1的映射。1:1映射指示在用户骨架和对象骨架中有相同数目的关节。在此情况下,用户骨架的关节角度被映射到对象骨架的对应关节角度,从而使对象骨架镜像用户骨架的关节角度。
然而,有时映射不是1:1映射,这意味着对象骨架和关节骨架具有不同数目的关节。在此情况下,可能期望放大某些关节的运动,而抑制某些关节的运动。另外,一个关节的运动可以被映射到对象骨架中的不同关节。例如,假设对象是大象。显然,用户没有象鼻而大象没有如用户的手臂一样工作的手臂。用户骨架的手臂的运动可以被映射到例如大象的象鼻。由此,大象的象鼻将根据用户手臂的运动作出响应。
同样,映射不需要是角对角的。例如,关节位置(例如,用户把其手举到多高)可以被映射到对象骨架中的关节缩放,使得对象响应于用户举手而向上伸展。此外,用户关节角度可以被用来控制更加复杂的多关节动画,因此一个用户关节位置可以以非线性方式控制多个对象关节。
一旦用户骨架被映射到对象骨架,虚拟环境中的对象就镜像真实世界用户。例如,如果用户举起其右臂,对象将根据映射在性质上作出响应(例如,映射可以是1:1的,从而使对象也举起其右臂,或者映射可以还不是1:1的,从而使对象用已被映射到用户右臂运动的另一运动作出响应)。
控制引擎230可以实时操作,从而每当用户运动时数据就被更新。具体而言,每次用户运动时都可以更新用户骨架。这也导致用户骨架到对象骨架的重新映射。由于这是实时发生的,对象保持被用户控制并且将继续根据映射对用户的运动作出响应。
显示组件234被配置成显示对象。被显示的对象将根据映射对用户的运动作出响应。
现在参考图29,提供了示出根据本发明的一个实施例的用于控制虚拟环境中的对象的总的方法2900的流程图。最初,如在框2910所示,标识在虚拟环境中的对象。如前所述,对象可以是从真实世界接收到虚拟环境中的任何非人类对象。在框2920处,对象骨架被映射到对象。对象骨架可以是被重调尺寸以适合对象的、系统定义的对象骨架模板。或者,对象可以被重调尺寸以适合对象骨架。在框2930处,用户的用户骨架被接收。真实世界用户的用户骨架被接收并且包括关节数目、关节角度、关节位置等的骨架信息被标识。在框2940处,用户骨架被映射到对象骨架从而使对象被用户控制。具体而言,用户的运动控制对象的运动。
现在参考图30,提供了示出根据本发明的一个实施例的用于控制虚拟环境中对象的总的方法3000的流程图。最初,如在框3010所示,标识虚拟环境中的对象。在实施例中,对象可以是已经在虚拟环境中被数字化并被接收的真实世界对象。在框3020处,通过标识对象的质心并且把对象骨架的中心施加在对象的质心上来将对象骨架映射到对象。在框3030处,对象和/或对象骨架随后可被重调尺寸到适合,从而使对象骨架的底部与对象的底部对准。在框3040处,用户的用户骨架被接收。在框3050处,用户骨架被映射到对象骨架,从而使对象骨架的一个或多个关节角度镜像用户骨架的一个或多个关节角度。在框3060处,用户的运动被标识,并且在框3070处,对象被运动从而使对象的运动镜像用户的运动。
参考各具体实施例描述了本发明,各具体实施例在所有方面都旨在是说明性的而非限制性的。不偏离本发明范围的情况下,各替换实施例对于本发明所属领域的技术人员将变得显而易见。
尽管本发明易于作出各种修改和替换构造,但其某些说明性实施例在附图中示出并在上面被详细地描述。然而应当了解,这不旨在将本发明限于所公开的具体形式,而是相反地,旨在覆盖落入本发明的精神和范围之内的所有修改、替换构造和等效方案。
从前面的描述可以看出,本发明很好地适用于实现上文所阐述的所有目的和目标,并且具有对于该系统和方法是显而易见且固有的其他优点。可理解的是,某些特征和子组合是有用的,并且可以加以利用而无需参考其它特征和子组合。这由权利要求所构想的,并在权利要求的范围内。

Claims (10)

1.一个或多个存储计算机可使用指令的计算机存储介质,所述计算机可使用指令在被一个或多个计算设备使用时,使得所述一个或多个计算设备执行一种方法,所述方法包括:
标识虚拟环境中的对象;
把对象骨架映射到对象,其中所述对象骨架是预定义模板;
接收用户骨架,其中所述用户骨架是用户的骨架的图像;以及
把所述用户骨架映射到所述对象骨架,从而使所述对象被用户控制。
2.如权利要求1所述的一个或多个计算机存储介质,其特征在于,把所述对象骨架映射到所述对象包括:
标识所述对象骨架的中心;
标识所述对象的质心;以及
把所述对象骨架的所述中心施加到所述对象的所述质心上。
3.如权利要求2所述的一个或多个计算机存储介质,其特征在于,还包括:
重调所对象的尺寸以适合所述对象骨架。
4.如权利要求3所述的一个或多个计算机存储介质,其特征在于,重调所述对象的尺寸以适合所述对象骨架包括:
使所述对象的底部和所述对象骨架的底部对准;以及
使所述对象的顶部和所述对象骨架的顶部对准,从而使所述对象骨架的顶部在所述对象骨架的顶部以下的预定距离处。
5.如权利要求4所述的一个或多个计算机存储介质,其特征在于,在所述对象骨架的顶部以下的预定距离处是在所述对象骨架的顶部以下百分之十(10%)处。
6.如权利要求1所述的一个或多个计算机存储介质,其特征在于,所述对象被用户控制从而使对象的运动镜像用户的运动。
7.一种用于控制虚拟环境中对象的系统,包括:
计算设备,所述计算设备与一个或多个处理器和一个或多个计算机可读存储介质相关联;
数据存储,所述数据存储与所述计算设备耦合;以及
控制引擎,所述控制引擎:
标识包括用户骨架和对象骨架的一个或多个骨架,
把所述用户骨架映射到所述对象骨架,以及
管理所述对象骨架从而使对象被操作以镜像所述用户骨架的运动。
8.如权利要求7所述的系统,其特征在于,所述控制引擎通过把所述用户的姿势与多个模板姿势进行比较以及标识所述多个模板姿势中与所述用户的姿势对应的一个模板姿势,从所述多个模板姿势中标识出所述用户骨架。
9.一个或多个存储计算机可使用指令的计算机存储介质,所述计算机可使用指令在被一个或多个计算设备使用时,使得所述一个或多个计算设备执行一种方法,所述方法包括:
标识虚拟环境中的对象,其中所述对象是已经被数字化成虚拟形式的真实世界对象;
通过标识所述对象的质心并且把对象骨架的中心施加在所述对象的质心上,把所述对象骨架映射到所述对象,其中所述对象骨架是预定义模板;
重调所述对象的尺寸以与所述对象骨架的尺寸对应,从而使所述对象骨架的底部与所述对象的底部对准;
接收用户骨架,其中所述用户骨架是用户的骨架;
把所述用户骨架映射到所述对象骨架从而使所述对象骨架的一个或多个关节角度镜像所述用户骨架的一个或多个关节角度,其中关节角度表示一个或多个关节之间的角度的度数;
标识所述用户的运动;以及
响应于标识所述用户的运动,运动所述对象从而使所述对象的运动镜像所述用户的运动。
10.如权利要求9所述的一个或多个计算机存储介质,其特征在于,把所述用户骨架映射到所述对象骨架包括把所述模板姿势的一个或多个关节角度与所述对象骨架相关联,从而使所述对象骨架的一个或多个关节角度镜像表示所述用户的模板姿势的一个或多个关节角度。
CN201280027665.0A 2011-06-06 2012-06-04 控制虚拟环境中的对象 Active CN103597516B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161493787P 2011-06-06 2011-06-06
US61/493,787 2011-06-06
US13/281,596 2011-10-26
US13/281,596 US9724600B2 (en) 2011-06-06 2011-10-26 Controlling objects in a virtual environment
PCT/US2012/040796 WO2012170361A2 (en) 2011-06-06 2012-06-04 Controlling objects in a virtual environment

Publications (2)

Publication Number Publication Date
CN103597516A true CN103597516A (zh) 2014-02-19
CN103597516B CN103597516B (zh) 2018-08-28

Family

ID=47261335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280027665.0A Active CN103597516B (zh) 2011-06-06 2012-06-04 控制虚拟环境中的对象

Country Status (6)

Country Link
US (1) US9724600B2 (zh)
EP (1) EP2718903B1 (zh)
JP (1) JP5985619B2 (zh)
KR (1) KR102060206B1 (zh)
CN (1) CN103597516B (zh)
WO (1) WO2012170361A2 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016150292A1 (zh) * 2015-03-26 2016-09-29 北京小小牛创意科技有限公司 一种融合真实环境的虚实结合的交互方法及系统
CN106663334A (zh) * 2014-06-16 2017-05-10 索尼公司 使用网格雕塑利用深度相机的3d扫描
CN110570357A (zh) * 2019-07-09 2019-12-13 深圳市瑞立视多媒体科技有限公司 基于ue4引擎的镜像实现方法、装置、设备及存储介质
WO2019242454A1 (zh) * 2018-06-21 2019-12-26 华为技术有限公司 一种物体建模运动方法、装置与设备
CN111417987A (zh) * 2017-07-28 2020-07-14 北奥拜勃工作室有限公司 用于实时复杂角色动画和交互性的系统和方法
WO2020192706A1 (zh) * 2019-03-25 2020-10-01 华为技术有限公司 物体三维模型重建方法及装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
US9529428B1 (en) * 2014-03-28 2016-12-27 Amazon Technologies, Inc. Using head movement to adjust focus on content of a display
US10529009B2 (en) * 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
US9536138B2 (en) * 2014-06-27 2017-01-03 Microsoft Technology Licensing, Llc Dynamic remapping of components of a virtual skeleton
US10719123B2 (en) 2014-07-15 2020-07-21 Nant Holdings Ip, Llc Multiparty object recognition
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
US9733790B2 (en) 2014-10-30 2017-08-15 Disney Enterprises, Inc. Haptic interface for population of a three-dimensional virtual environment
KR101677165B1 (ko) * 2016-02-18 2016-12-23 대한민국(국가기록원) 행정박물의 3D 정보의 종합품질을 Test Bed에 의한 검증방법
JP2019128721A (ja) * 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
US10380803B1 (en) * 2018-03-26 2019-08-13 Verizon Patent And Licensing Inc. Methods and systems for virtualizing a target object within a mixed reality presentation
GB2586059B (en) * 2019-08-01 2023-06-07 Sony Interactive Entertainment Inc System and method for generating user inputs for a video game

Family Cites Families (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US5909218A (en) 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
JP2001043400A (ja) 2000-01-01 2001-02-16 Hitachi Ltd コンピュータグラフィックの表示方法
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US7095388B2 (en) 2001-04-02 2006-08-22 3-Dac Golf Corporation Method and system for developing consistency of motion
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) * 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
DE50302813D1 (de) 2002-04-19 2006-05-18 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
CN101253466A (zh) * 2004-08-02 2008-08-27 皇家飞利浦电子股份有限公司 能够建模虚拟对象的系统和方法
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060028035A (ko) * 2004-09-24 2006-03-29 유용석 3차원 형상의 평균화 모델 구성방법
WO2006050197A2 (en) * 2004-10-28 2006-05-11 Accelerated Pictures, Llc Camera and animation controller, systems and methods
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
WO2006074289A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
WO2006124935A2 (en) 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US20060274068A1 (en) 2005-06-06 2006-12-07 Electronic Arts Inc. Adaptive contact based skeleton for animation of characters in video games
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP2008033521A (ja) 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8540638B2 (en) 2006-10-24 2013-09-24 Alla Gourevitch 3-D quantitative-imaging ultrasonic method for bone inspections and device for its implementation
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN101515374B (zh) 2008-02-20 2010-12-01 中国科学院自动化研究所 基于图像的个性化真实感虚拟人物造型方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8471843B2 (en) 2008-07-07 2013-06-25 International Business Machines Corporation Geometric and texture modifications of objects in a virtual universe based on real world user characteristics
US8306265B2 (en) 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
US8560267B2 (en) 2009-09-15 2013-10-15 Imetrikus, Inc. Identifying one or more activities of an animate or inanimate object
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
CN101579238B (zh) 2009-06-15 2012-12-19 吴健康 人体运动捕获三维再现系统及其方法
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US8864589B2 (en) 2009-10-27 2014-10-21 Activision Publishing, Inc. Video game with representative physical object related content
KR101035291B1 (ko) * 2009-12-18 2011-05-18 전남대학교산학협력단 관절모델db을 이용한 포즈인식 시스템

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106663334A (zh) * 2014-06-16 2017-05-10 索尼公司 使用网格雕塑利用深度相机的3d扫描
CN106663334B (zh) * 2014-06-16 2020-01-07 索尼公司 通过计算装置执行的方法、移动通信装置和存储介质
WO2016150292A1 (zh) * 2015-03-26 2016-09-29 北京小小牛创意科技有限公司 一种融合真实环境的虚实结合的交互方法及系统
CN111417987A (zh) * 2017-07-28 2020-07-14 北奥拜勃工作室有限公司 用于实时复杂角色动画和交互性的系统和方法
WO2019242454A1 (zh) * 2018-06-21 2019-12-26 华为技术有限公司 一种物体建模运动方法、装置与设备
CN110634177A (zh) * 2018-06-21 2019-12-31 华为技术有限公司 一种物体建模运动方法、装置与设备
CN111640175A (zh) * 2018-06-21 2020-09-08 华为技术有限公司 一种物体建模运动方法、装置与设备
CN111640176A (zh) * 2018-06-21 2020-09-08 华为技术有限公司 一种物体建模运动方法、装置与设备
US11436802B2 (en) 2018-06-21 2022-09-06 Huawei Technologies Co., Ltd. Object modeling and movement method and apparatus, and device
WO2020192706A1 (zh) * 2019-03-25 2020-10-01 华为技术有限公司 物体三维模型重建方法及装置
CN110570357A (zh) * 2019-07-09 2019-12-13 深圳市瑞立视多媒体科技有限公司 基于ue4引擎的镜像实现方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR20140043378A (ko) 2014-04-09
KR102060206B1 (ko) 2019-12-27
WO2012170361A3 (en) 2013-03-14
EP2718903A2 (en) 2014-04-16
US20120306924A1 (en) 2012-12-06
WO2012170361A2 (en) 2012-12-13
US9724600B2 (en) 2017-08-08
CN103597516B (zh) 2018-08-28
EP2718903B1 (en) 2019-04-03
JP5985619B2 (ja) 2016-09-06
JP2014517413A (ja) 2014-07-17
EP2718903A4 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
CN103597516A (zh) 控制虚拟环境中的对象
CN103703489B (zh) 对象数字化
US11721067B2 (en) System and method for virtual modeling of indoor scenes from imagery
US9336625B2 (en) Object refinement using many data sets
Valgaerts et al. Lightweight binocular facial performance capture under uncontrolled lighting.
JP4898800B2 (ja) イメージセグメンテーション
US9282313B2 (en) Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
JP5784356B2 (ja) 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
US20170085863A1 (en) Method of converting 2d video to 3d video using machine learning
US20150243031A1 (en) Method and device for determining at least one object feature of an object comprised in an image
US20090028432A1 (en) Segmentation of Video Sequences
US20180144212A1 (en) Method and device for generating an image representative of a cluster of images
CN103929634A (zh) 3d动画效果产生方法和系统
Richter et al. Real-time reshaping of humans
CN113706431A (zh) 模型优化方法及相关装置、电子设备和存储介质
CN111462294B (zh) 一种图像处理方法、电子设备及计算机可读存储介质
US20160203368A1 (en) Smudge removal
CN112866507A (zh) 智能化的全景视频合成方法、系统、电子设备及介质
Fukiage et al. Perceptually based adaptive motion retargeting to animate real objects by light projection
Kawai et al. From image inpainting to diminished reality
Petajan alterEGO: Video analysis for facial animation
JP2020178235A (ja) 映像効果装置及びプログラム
Jiang et al. Project report: Light source estimation using kinect

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150720

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150720

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant