CN102681655B - 一种放大系统及其运用 - Google Patents

一种放大系统及其运用 Download PDF

Info

Publication number
CN102681655B
CN102681655B CN201110420386.8A CN201110420386A CN102681655B CN 102681655 B CN102681655 B CN 102681655B CN 201110420386 A CN201110420386 A CN 201110420386A CN 102681655 B CN102681655 B CN 102681655B
Authority
CN
China
Prior art keywords
user
action
virtual world
self role
role
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110420386.8A
Other languages
English (en)
Other versions
CN102681655A (zh
Inventor
黄得锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhangzhou Asixinggu Electronic Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201110420386.8A priority Critical patent/CN102681655B/zh
Publication of CN102681655A publication Critical patent/CN102681655A/zh
Application granted granted Critical
Publication of CN102681655B publication Critical patent/CN102681655B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • A63F2300/6054Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands by generating automatically game commands to assist the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Abstract

本发明提供了一种放大系统及其运用,满足:用户可以控制虚拟世界中的自我角色,其特征在于:系统中设有可被机算机识别的一套或一套以上的用户允许微动作方案和一套或一套以上的虚拟允许动作方案,用户通过实施用户允许微动作方案以控制自我角色实施相应的虚拟允许动作方案;所述用户允许微动作方案设有用户或道具执行该微动作的最大幅度M、对应自我角色执行相应允许动作的最大幅度为N,设在t时间点上用户执行该微动作的幅度为Mt,对应自我角色执行相应允许动作的幅度为Nt,则该系统满足:当Mt大于或等于M时,Nt=N;当Mt小于M时,N大于Nt大于Mt;所述用户允许微动作方案满足:用户在实施该动作时,其躯干无需离开用户所在位置。

Description

一种放大系统及其运用
技术领域
本发明涉及一种可使人机互动的仿生虚拟世界的生成方法及运用。
背景技术
战车上的各控制件其实都不用再联接的,但这种传统方式显然机械控件多,成本高,而且携带不便。
发明内容
本发明的目的是提供一种让用户可身临其境进入虚拟世界,并完全通过自身的相应部位控制虚拟世界赋于自我角色享有的功能和能力方法及使用的设备。
为了便于理解本发明,特对所涉及的各术语进行如下名词解释。
自我角色:指在虚拟世界中,可被用户操控的,并被用户认为是自己的虚拟角色,可是人类或任意活动物方。
用户允许微动作方案:当用户实施某一个或一个组符合条件的微动作时,可以对计算机发出一控制指令;这里的微动作尤其指用户小幅度的动作,如:相应的任意关节移动位移小于20cm,具体表现如:手臂微动、脚微曲;本发明的上述条件,尤其包括限定不发出命令的情形。
虚拟允许动作方案:虚拟世界赋于自我角色或虚拟世界中器具可以进行的动作或动作方案,所述动作方案包括连续的动作组合、动作力度、速度等。
活动关节:用户并非全部关节的活动都可以控制我自我角色相部位的活动,尤其自我角色为非人类时,并没有用户身上的某些关节,因此本发明所指的“活动关节”是指虚拟世界赋于自我角色可活动部位而对应于用户实际身体上的关节。另一方面,当自我角色的活动部多于用户实际的活动关节数时,则采用本发明介绍的其他方法。
反向动作:自我角色所在的虚拟世界场景执行与用户发出的指令具有矢量值相同但方向相反的矢量动作;所述矢量动作本发明尤其特指任意时间点上的位移变化、体积变化,如图1所示:以矢量动作为纵坐标,以时间为横坐标建立坐标系,则用户发出的指令与自我角色所在的虚拟世界场景对应曲线图以横坐标呈轴对称关系,如:从时间点t1到时间点t2,用户要朝东南方向前进5米时,只要在该时间段上使自我角色所在场景向西北方向移动5米就可实现;再如:从时间点t1到时间点t2,用户要自己全身等比例变大2倍,则自我角色所在场景在相同时间段缩小两倍,这里尤其指出:用户的变身或变形指令里,要先判断是否包括眼睛及双眼间距的变化,如果眼睛及双眼间距没有变化,则场景在体积上不会变化,即场景的体积矢量动作与自我角色的眼睛及双眼间距离的体积矢量动作具有:矢量值相同、方向相反的关系。
所述反向动作是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
手掌:如图2所示手掌1包括手腕11在内的所有手掌上的关节,如手指12。
脚掌:如图2所示脚掌2包括脚腕21在内的所有脚掌2上的关节,如脚指头22。
评价运动幅度的指标:被跟踪部位发生的位移及方向、被跟踪部位在两个时间点上的夹角。
为实现上述目的,本发明技术方案为:
一、 用户可在现实中的同一处操控位完成虚拟世界的各种操作。
实现该技术效果的技术方案是采用动作放大系统,所述的动作放大系统是指设定用户或虚拟世界道具执行任一用户允许动作的最大幅度M、对应虚拟世界中自我角色的虚拟允许动作的最大幅度为N、在t时间点上用户或虚拟世界道具执行该允许动作的幅度为Mt,对应虚拟世界中人或物的执行相应的允许动作的幅度为Nt,则该系统满足:当Mt大于或等于M时,Nt=N;当Mt小于M时,N大于Nt大于Mt如:用户手臂抬起5度时,自我角色则完全抬起手臂,当用户抬手臂的角度大于5度,自我角色均完全抬起手臂,这里,我们称5度为用户执行抬手臂的最大幅度,显然用户手臂不仅可以抬5度。
这里尤其指出:无残疾且健康的用户执行某允许动作时,实际的运动极限均大于该允许动作的最大幅度,而为了更有效实现本技术效果,虚拟世界过程采用动作放大系统时,最好通过对用户肢体的限制只允许其进行小幅度的微动作。
所述用户允许微动作方案满足:当用户以最大幅度M完成任一微动作时,躯干上除手掌和脚掌外的任意相邻的两部份的角度变化值小于30度。如:某允许微动作方案涉及上臂和下臂的角度,在实施该动作的前后角度为120度和140度,则该相邻两部份的夹角变化值就为+20度。另外 本发明可提供持续动作命令,当用户持续对弹性装置作用时,用户可保持转身等动作。因此用户可在任意姿势下控制自我角色的任意动作方案。本发明所述最大幅度M优选正负5度以内。
二、 虚拟世界接收用户指令的方法。
它是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
所述动作定位点控制系统:是在用户身上或虚拟世界道具上设有1个或1个以上的定位感应件,通过各定位感应件的位置(三维坐标)随时间的变化,从而可确定用户在任意时间上的姿势或在某段时间内的动作变化。
以下逐一介绍本技术方案所涉及“定位感应件位置的变化确定方法”、“通过定位感应件位置变化控制自我角色动作的方法”和“定位感应件或其变化与自我角色动作或活动部位的对应方法”。
(一)定位感应件位置的变化确定方法包括以下骤:
1)建一虚拟三维坐标系,并确定三个或三个以上的且不在同一直线上的距离测定点在该坐标系中的坐标;
2)测定定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件在任意时间点上的三维坐标。
(二)通过定位感应件位置变化控制自我角色动作的方法是针对虚拟世界赋于自我角色A1、A2…An共计n个可单独活动部位,按以下两种情形控制:
1)当该N个活动部位均可在用户身上找到对应活动关节进行对应,则在用户在各对应活动关节上分别设置N1、N2…Nn共N个定位感应件,并跟踪在任意时间点t时,N1、N2…Nn三维位置变化; 使各定位感应件的三维位置变化,控制自我角色相应部位进行相关动作;
2)当该N个活动部位不能完全在用户身上找到对应活动关节进行对应时,假设存在若干不能找到对应关系的活动部位Mx,先使用户的活动关节Nx可选择控制自我角色的Mx1、Mx1 …Mxs共s个活动部位,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Mx;所述选择法是指活动关节Nx确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动关节共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动关节设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
“通过定位感应件位置变化控制自我角色动作的方法”还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实 换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
(三)定位感应件或其变化与自我角色动作或活动部位的对应方法是使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则。
三、 它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种。
当系统识别自我角色的越疲劳,则相应部位上的设障机构对该部位的负载就越大,用户执行该动作就越难,实之具有类同的感觉,游戏更真实。
四、 本发明还介绍了一种适用于上述虚拟世界方法的穿套式定点控制设备”。
它包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也局限于上述感应定位点在上述关节的分配方案。
五、 本发明还提供了一种用户看到自己的身体进入虚拟世界的方法。
实现方法是同时采用置身系统、全景系统和场景移动系统,以下逐一介绍各系统。
(一)所述场景移动系统,利用虚拟世界中自我角色所在场景的反向矢量动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉;
所述自我角色所在场景的确定方法包括:
1)直接或间接在用户头部设有能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面;
所述反向动作,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
(二)所述全景系统,使用户只能看到虚拟世界中的场景,而看不到现实中的场景,且虚拟世界场景覆盖用户的全部视觉范围;本系统尤其指用户配带全3D眼镜,眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围。
(三)所述置身系统,满足用户和自我角色在虚拟世界中的位置相同且用户身体与自我角色活动同步,使用户想看自己身体时,均能看到虚拟世界中自己的各种动作。
上述技术方案的有益之处在于:
本发明介绍的“动作放大系统”,可使用户身体无需发生位移或者仅发生微小位移就可以实现全部虚拟世界赋于的全部功能或能力,使得用户在虚拟世界全程中均只在同一处操控位上,同时还便于实现用户的运动部位和虚拟世界人物运动部位一致,使用户容易上手。
本发明介绍的“穿套式定点控制设备”,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
本发明介绍的“感应定位点系统”,可使操控器感知各定位点发生的各矢量变化(包括:位移、速度、方向),可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需备配任何电子系统,由于用户在使用过程中,各定位点均被定位于用户身上的各对应部位,具用户各部位活动空间有限,因此可做设备零损害,即保证设备的使用寿命;因无所电子系统可避免电子短路给用户带来身体伤害。
本发明介绍的“选择法”和“组合法”,可实现自我角色上活动部位数大于感应定位点数。
下面结合附图和具体实施例对本发明作进一步的说明。
附图说明
图1为虚拟世界中自我角色所在场景与自我角色头部就同一矢量动作的矢量动作时间图;
其中t:时间、V:体积、S:位移;
曲线A是虚拟世界中自我角色所在场景的位移或体积矢量动作时间图;
曲线B是自我角色头部的位移或体积矢量动作时间图。
图2为用户关节示意图。
具体实施方式
一种放大系统的实施例1:
一种放大系统,包括:人机同步系统、人机互动系统、用户最大允许微动作限制系统和自我角色虚拟允许动作系统。
1.人机同步系统:设有用户微动作识别系统、微动作匹配命令规则系统。
1.1 所述用户微动作识别系统:
它就用户身体或道具规定活动部位和非活动部位,并在不同非活动部位分别设有具有区别特征的定位感应件 ;建一虚拟三维坐标系,并在三个或三个以上的且不在同一直线上的已知坐标点上固置测距装置;具体识别方法如下:
在任意时间点上,测量定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件的三维坐标,通过跟踪各定位感应件的位置(三维坐标)随时间的变化,以确定用户在任意时间上的姿势或在某段时间内的动作变化。
本实施例中所述用户微动作识别系统旨在对用户肢体运动的时时跟踪,它也可以在任一活动部位上设有2个或 2个以上定位感应件,其中至少两点在x、y、z轴上的坐标值均不相同,使该活动部位在某时间段内的水平转角或竖直转角可确定。
1.2 所述微动作匹配命令规则系统:
用户通过控制肢体动作,而使肢体上感应定位点发生一定规则的位移变化,而匹配于自我角色的动作方案,它包括:
规则1:
设定用户或虚拟世界道具执行任一允许动作的最大幅度M、对应虚拟世界中人或物的执行相应的允许动作的最大幅度为N、在t时间点上用户或虚拟世界道具执行该允许动作的幅度为Mt,对应虚拟世界中人或物的执行相应的允许动作的幅度为Nt,则该系统满足:当Mt大于或等于M时,Nt=N;当Mt小于M时,N大于Nt大于Mt如:用户手臂抬起5度时,自我角色则完全抬起手臂,当用户抬手臂的角度大于5度,自我角色均完全抬起手臂,这里,我们称5度为用户执行抬手臂的最大幅度,显然用户手臂不仅可以抬5度。这里尤其指出:无残疾且健康的用户执行某允许动作时,实际的运动极限均大于该允许动作的最大幅度,而为了更有效实现本技术效果,虚拟世界过程采用动作放大系统时,最好通过对用户肢体的限制只允许其进行小幅度的微动作。
具体包括:“定位感应件或其变化与自我角色动作或活动部位的对应方法”,以下逐一介绍。
1.2.1 通过定位感应件位置变化控制自我角色动作的方法。
是针对虚拟世界赋于自我角色A1、A2…An共计n个可单独活动部位A,就其中任一可单独活动部位Ax设有Ax1、Ax2…Axm共计m种允许动作,Axx为其中任一允许动作,按以下两种情形控制。
情形1 当该n个活动部位均可在用户身上找到对应活动关节进行对应时:
1)在用户身上的n个可单独活动部位上分别固定A1’、A2’…An’共计n个感应定位点A’, 跟踪在任意时间点t时,任一感应定位点Ax’的三维位置变化,并匹配属于Ax1’、Ax2’…Axm’共计m种中的哪种活动规则,设Axx’为其中任一活动规则;
2)使自我角色的可单独活动部位A一一对应于用户身上的感应定位点A’,任一可单独活动部位Ax的允许动作Axx可在并仅在感应定位点Ax’按Axx’活动规则动作时被启动,如:Ax发生的位移随在各时间点上的变化一一对应于Ax’ 发生的位移随在各时间点上的变化,再如:Ax实施的力度强弱对应于Ax’所对应关节弯曲度及该关节抖动频率,Ax使用力度达最大值的条件在于:当用户的Ax’达到最大幅度;另外 Ax还应考虑对应于Ax’的紧张程度、运动速度和执行时间,以实现用户更自然操控虚拟世界,且使自我角色的运动尽量符合自然规律;
3)本实施例所述的关节旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,这里本发明人特别列举其中之一可以满足此目的的关节总和:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点。
情形2 当该n个活动部位不能完全在用户身上找到对应活动关节进行对应时:
假设存在若干不能找到对应关系的活动部位Ay,先使用户的活动关节Ay’可选择控制其中的Ay1、Ay2…Ays共s个活动部位Ay,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Ay;所述选择法是指活动关节Ay’确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动关节共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动关节设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
另外 通过定位感应件位置变化控制自我角色动作的方法还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
1.2.2 定位感应件或其变化与自我角色动作或活动部位的对应方法。
使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则,如涂点密度为d或具有涂点规则1的定位感应件发生位置变化时,自我角色的某活动部位就执行相应的允许动作;涂点密度或涂点规则可以通过盖章实现。
规则2:
不促发命令的规则;
本实施例中优选不促发命令的规则,当然也可以是促发命令的规则。
2.人机互动系统:设有反作用感知装置和被作用感知装置。
它主要用于修正:用户的最大允许微动作幅度Mm,与自我角色的最大虚拟允许动作幅度Nm的比值Mm/Nm;并使Mm/Nm值比常态大 即反作用感知装置和被作用感知装置工作时,Nm根据以下情形等因子减小。
2.1 当人机互动由自我角色促发,则按以下方法实现。
1)锁定用户想要作用的目标
方法一:
利用户眼睛定位装置,当用户的视线方向经过某物方且肢体或道具的作用方向朝向该物方时,给系统作出该肢体或道具要作用于该物方的指令;则系统发出提令,自我角色已锁定该目标;其中用户的视线方向的跟踪可采用本发明人申请的申请号为:“201110411809.X”的《一定识别眼观物方的方法》,或者任意的现有技术,如:专利号为“02829315.0”的《跟踪扭转的眼睛的方向和位置》;
方法二:
通过对眼睛图像采集装置准确判断用户锁定的主要目标,其中眼睛图像采集装置可能过多种现有技术实现,如专利号为“200610072961.9”的《眼睛图像采集装置》。
2)该动作作用于目标后,自我角色因被反作用而必然存在的“动作速度”“动作幅度”变化;系统通过反作用感知装置提搞对用户相应的限制负载向用户反馈,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生反作用感知装置相同或类似的错觉。
3)计算目标被作用后的形态变化,包括形变(姿势变化,不可还原的变形,尤其指破坏)、动能变化情况(动能值+动能方向)。
2.2 当机互动由虚拟世界中的其他物方作用于自我角色,而使自我角色被动进入互动,则按以下方法实现:
1)当自我角色被作用并产生作用效果时,自动锁定实施作用的物方为目标;
2)自我角色被作用而产生的作用效果指:自我角色被作用后的形态变化、动能变化;自我角色被作用而产生的作用效果通过被作用感觉装置反馈给用户,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生被作用感知装置相同或类似的错觉。
以下以实例介绍:
如自我角色要攻击一个游戏角色,首先锁定目标,当自我角色打出一拳,作用到对方运动的手臂,而受到对方手臂的反作力,这里尤其指出:不管对方有没朋格挡,只要自我角色碰到目标,根据作用力与反作用力的原理,自我角色必然会受到反作用力;这里当目标进行格挡时,自我角色还受到目标格挡用手臂的作用,则叠加被作用感知装置的设置效果。
3.用户最大允许微动作限制系统。
本实施例为使虚拟世界更逼真,包括嗅觉系统、触觉系统和体力疲劳等随机设障系统中一种或多种;所述体力疲劳的随机设障系统,可结合穿套式定点控制设备,如脚掌套件上连接一可伸缩的推进机构、 手掌套件内设一可收缩的手握器。所述设障系统包括反作用感知装置和被作用感知装置;所述被作用感知装置满足:当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上;反作用感知装置满足:当自我角色作用于虚拟世界任一物方时,系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。所述设障系统根据自我角色的疲劳程度及最大运动能力,改变反作用感知装置和被作用感知装置对用户的荷载。
以下通过实例介绍:
虚拟世界前要先将用户固定在某操控位上(如:床上),用户动作任一肢体,在虚拟世界中的对应人物则执行完全的动作,目的 在于用户执行任何一动作都可以在同一处操控位进行,动作后,身体所在位置也不会变化,从而减少用户的运动空间。
让用户躺在或坐在控制台上,使设障系统限制用户各躯干的最大活动范围,如:脚板装置弹性接触用户的脚板;手臂限位装置以远盈配合套于用户手臂上。
所述设障机构设于在用户允许动作的部位上方,在常态下使设障机构与用户的躯干保持一定距离(称为自由空间),使用户各部位在不接触到设障机构的情况下,可不受作用进行任何意微动作;所述设障机构设有弹性荷载活动区(称为荷载空间),当用户的躯干与设障机构接触,并续继往弹力反方向运动时,相应部位需克服弹力作功。它的功能对应如下:
1)用户在自由空间和荷载空间的可移动的总和对应于用户的最大允许微动作幅度;
2)当用户躯干作用于设障机构,同时其动作符合机算机识别命令时;自我角色持续执行虚拟允许动作,如:连续转身;
3)当用户促发人机互动时,设障机构表现为目标对用户的反作用;
4)当自我角色被虚拟世界中的物方作用时,设障机构缩小自由空间,并作用于用户的相应躯干;
5)当自我角色运动能力值提升时,设障机构的负载减小;
6)当自我角色运动能力值减弱时,如:疲劳时,设障机构的负载提高。
本实施例所述的感应定位点可以适用以下两种方案:
1)将能被探测涂料作为感应定位点涂在肌肉的敏感点上,通过肌肉的紧张程度和运动速度,使各股肉上的感应定位点能判断用户的意图,从而有效对虚拟世界发出相应指令;
2)将感应定位点固设于穿套式定点控制设备的各活动部位上,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
上述两方案并不局限于“动作放大系统”,尤其针对不要求用户身体发生位移的玩虚拟世界,如:赛车虚拟世界。
本实施例中穿套式定点控制设备也可以在设备中植入控制器,使操控器感知各定位点发生的各矢量变化(包括:位移、速度、方向);但结合本发明介绍的“感应定位点系统”,可可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需备配任何电子系统,由于虚拟世界过程中,用户各部位仅进行微动作,因此可做设备零损害,即保证设备的使用寿命,又可避免所电子系统中可能的电子短路给用户带来身体伤害。
本实施例中穿套式定点控制设备包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也局限于上述感应定位点在上述关节的分配方案。
尤其指出:
1)为确保动作放大系统的有效性,自我角色的允许动作执行条件并非感应定位点在某时间上的位置,而是相对上一时间点上的位置变化;
2)距离测定点是固定不动的,或者其坐标可计算而确定;
3)有些虚拟世界,为了减小电脑资源的占用,只给自我角色很特定的几个动作,这种情况下,应满足用户某些部位的动作或组合动作,就应可以控制自我角色进行一连惯的允许动作;
4)动作放大系统和动作定位点控制系统可以组合运用,也可单独使用;
5)本发明还包括语音控制系统,使得用户可以通过语音发出指令以控制自我角色的允许动作及虚拟世界的各项基本操作,如:退出、保存。本系统还包括语音识别系统,如可以对用户的声音预先录入,并匹配各项指令。
其他说明:
用户准备就绪后,睁眼会发现自已在上一次退出虚拟世界时所在的位置,各种动作所带来的场景的变化,完全从该位置为起始点。
本虚拟世界允许自我角色具有变形能力当变形后需要控制的部位大于人的关节数 怎么办?可以采用 选择法 当执行选择命令动作时,可以选择某关节控制虚拟世界中对像的具体运动部位;也可以 采用 组合法 即 两个或两个以上关节同时执行某特定动作时,也可以起到相同效果。
本虚拟世界方法还允许用户具有隔空取物等超能力,该指令的启动条件是: 用户手臂上的感应定位点集在同一直线上,手掌上的感应定位点集成爪状并朝向该物品;而虚拟世界判断吸力的大小,则可先预定自我角色吸力最大值,而取值的条件可以是手指抖动的频率,当频率减小,则吸力对应减小。
当虚拟世界接到用户这一意图,就会计算并比较吸力与物品被吸的难度,当物品的重力太大或被原所在位置的吸付力太大,就发求用户使用抓的力度加大,这时手指的弯曲程度就会加强,而手指的抖动加剧,而使手指上的感应定位点抖动加剧,电脑就会接到用户吸力加强,从而进一步判断能否完成吸收。
定位感应件与所要控制的部位如何对应?如果每个关节都对应一个定位感应件,在有丰富允许动作的虚拟世界里就需要用户进行长时间的准备才可能进入虚拟世界,为此本发明还提供了穿套式定点控制设备”,用户只需配带对应的手套、脚套、支架套和头盔,就可以操控绑覆在全身的每处关节上的感应定位点,因此极具实用性。
由于采用动作放大法,用户有身体和自我角色各肢体位置和姿势并没有完全对应,因此不能单以感应定位点的位置确定,但两者的头部(由其是眼睛)在虚拟世界中的位置和朝向是相同的。那如何说明用户也能在虚拟世界确定坐标?首先 用户的视觉通过眼镜获得,那眼镜在虚拟世界的坐标是可确定的,因为眼球与眼镜的相对位置始终不变,因此,用户眼球在虚拟世界的坐标可定。
一种虚拟设备的实施例1
它包括:置身系统、全景系统、场景移动系统、动作判断系统和动作放大系统。
A.全景系统
所述全景系统是指虚拟世界过程中,虚拟世界画面始终覆盖用户的全部视觉范围,使用户只能看到虚拟世界中的场景,而看不到现实中的场景;眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围;该技术可采用现有技术如专利号为为“200810066897.2”的《一种集成了CMMB接收模块的移动视频眼镜》。
B.置身系统
所述置身系统,满足用户和自我角色在虚拟世界中的位置相同,且用户身体活动与自我角色活动同步,使用户看自我角色的身体时,会误以为是自己的现实中的身体;用户身体活动与自我角色活动同步的方法是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
C.场景移动系统
所述场景移动系统,利用虚拟世界中自我角色所在场景的反向动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉; 所述自我角色所在场景的确定方法包括:
1)直接在用户头部设有能与头部同步发生位移的定位件;所述定位件上设有不在同一直线的三个定位感应件,所述定位感应件满足在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面。
本实施例中定位件的安装位置重点在满足可与头部同步发生位置,因此还可以安装在用户头部上的各种器具。
本实施例中用户与自我角色在脸部运用的同步关系也可以采用动作放大系统。
本发明的视频设备并不限于通过眼睛观看的设施,如专利号为“00820024.6”的“人体电子植入体及其人工视觉系统”已经给出了通非眼睛使大脑获得图像的方法。

Claims (8)

1.一种放大系统,满足:用户可以控制虚拟世界中的自我角色,其特征在于:系统中设有可被机算机识别的一套或一套以上的用户允许微动作方案和一套或一套以上的虚拟允许动作方案,用户通过实施用户允许微动作方案以控制自我角色实施相应的虚拟允许动作方案;所述用户允许微动作方案设有用户或道具执行该微动作的最大幅度M、对应自我角色执行相应允许动作的最大幅度为N,设在t时间点上用户执行该微动作的幅度为Mt,对应自我角色执行相应允许动作的幅度为Nt,则该系统满足:当Mt大于或等于M时,Nt=N;当Mt小于M时,N大于Nt大于Mt;所述用户允许微动作方案满足:用户在实施该动作时,其躯干无需离开用户所在位置;它设有一控制台,并限制用户仅能在控制台内活动;任意允许动作的最大幅度M满足:用户执行该允许动作时,无需离开控制台,同时还满足:用户可在任意姿势下控制自我角色的任意动作方案;
所述用户允许微动作方案满足:当用户以最大幅度M完成任一微动作时,躯干上除手掌和脚掌外的任意相邻的两部份的角度变化值小于30度。
2.如权利要求1所述的一种放大系统,其特征在于:所述控制台设有一设障系统,所述设障系统包括反作用感知装置和被作用感知装置;所述被作用感知装置满足:当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上;反作用感知装置满足:当自我角色作用于虚拟世界任一物方时,系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。
3.如权利要求2所述的一种放大系统,其特征在于:所述设障系统根据自我角色的疲劳程度及最大运动能力,改变反作用感知装置和被作用感知装置对用户的荷载。
4.一种运用如权利要求1所述一种放大系统的虚拟设备,其特征在于:它包括视频设备、用户允许微动作方案的识别捕捉设备和控制视频设备所播放自我角色的虚拟允许动作与用户的允许微动作同步的同步控制系统。
5.如权利要求4所述的一种虚拟设备,其特征在于所述的同步控制系统的同步控制方法包括:
1)、保持用户与自我角色的头部及头部上的各器官的运动幅度相同;
2)、自我角色所在场景的确定方法:包括确定用户头部在虚拟世界中的位置及面部朝向,并通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面,即视频设备的播放画面;用户头部在虚拟世界中的位置及面部朝向的确定方法是设在用户头部或间接设于用户头部的,能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,使得用户的头部在虚拟世界中的位置及面部朝向均可确定;
3)、反向动作控制方法,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
6.如权利要求4所述的一种虚拟设备,其特征在于:所述识别捕捉设备在用户的N1、N2…Nn部位上分别设置定位感应件,并跟踪在任意时间段t内,定位感应件N1、N2…Nn三维位置变化;当其中的定位感应件的活动规律满足一个或多个用户允许微动作方案时,同步控制系统使自我角色执行相应部位进行虚拟允许动作。
7.如权利要求6所述的一种虚拟设备,其特征在于:所述识别捕捉设备设有不在同一直线上的三个或三个以上测距装置,并通过以下方法测量定位感应件位置的变化:
1)、建一虚拟三维坐标系,并确定各测距装置在该坐标系中的坐标;
2)、测定定位感应件分别到上述各测距装置的距离,从而计算出各定位感应件在任意时间点上的三维坐标;
3)、参照同一定位感应件的三维坐标随时间的变化,以判断用户期望达至的动作,继而控制自我角色对就活动部位的活动。
8.如权利要求6所述的一种虚拟设备,它至少还具有以下一个或多个特征:
1)、用户身上不同部位上的定位感应件均具有不同的区别特征,以使计算机可识别定位点所对应用户部位;
2)、它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种;
3)、它还设有一穿套式定点控制设备,包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位件。
CN201110420386.8A 2011-02-11 2011-12-15 一种放大系统及其运用 Active CN102681655B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110420386.8A CN102681655B (zh) 2011-02-11 2011-12-15 一种放大系统及其运用

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201110036356.7 2011-02-11
CN2011100363567 2011-02-11
CN201110036356 2011-02-11
CN201110420386.8A CN102681655B (zh) 2011-02-11 2011-12-15 一种放大系统及其运用

Publications (2)

Publication Number Publication Date
CN102681655A CN102681655A (zh) 2012-09-19
CN102681655B true CN102681655B (zh) 2017-07-07

Family

ID=46348299

Family Applications (6)

Application Number Title Priority Date Filing Date
CN201710112619.5A Active CN106964150B (zh) 2011-02-11 2011-12-09 一种动作定位点控制系统及其穿套式定点控制设备
CN201710113697.7A Active CN106984041B (zh) 2011-02-11 2011-12-09 一种人机互动控制系统
CN201710113698.1A Pending CN107050852A (zh) 2011-02-11 2011-12-09 一种游戏系统及其穿套式定点控制设备
CN201110408355.0A Active CN102631781B (zh) 2011-02-11 2011-12-09 一种游戏方法
CN201110420386.8A Active CN102681655B (zh) 2011-02-11 2011-12-15 一种放大系统及其运用
CN2011104581683A Active CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用

Family Applications Before (4)

Application Number Title Priority Date Filing Date
CN201710112619.5A Active CN106964150B (zh) 2011-02-11 2011-12-09 一种动作定位点控制系统及其穿套式定点控制设备
CN201710113697.7A Active CN106984041B (zh) 2011-02-11 2011-12-09 一种人机互动控制系统
CN201710113698.1A Pending CN107050852A (zh) 2011-02-11 2011-12-09 一种游戏系统及其穿套式定点控制设备
CN201110408355.0A Active CN102631781B (zh) 2011-02-11 2011-12-09 一种游戏方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN2011104581683A Active CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用

Country Status (6)

Country Link
US (1) US10058773B2 (zh)
EP (2) EP3950076A1 (zh)
JP (3) JP6193764B2 (zh)
KR (1) KR101679805B1 (zh)
CN (6) CN106964150B (zh)
WO (1) WO2012106978A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106964150B (zh) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
CN103019386B (zh) * 2011-12-24 2018-03-23 漳州市爵晟电子科技有限公司 一种人机互动的控制方法及其运用
CN103544636A (zh) * 2013-11-08 2014-01-29 梁涛 基于虚拟商场的互动方法及设备
US10827268B2 (en) 2014-02-11 2020-11-03 Apple Inc. Detecting an installation position of a wearable electronic device
US10254804B2 (en) 2014-02-11 2019-04-09 Apple Inc. Detecting the limb wearing a wearable electronic device
CN108776541A (zh) * 2014-04-11 2018-11-09 黄得锋 一种人机互动的控制方法
US20190121515A1 (en) * 2015-10-15 2019-04-25 Sony Corporation Information processing device and information processing method
CN105867600A (zh) * 2015-11-06 2016-08-17 乐视移动智能信息技术(北京)有限公司 一种交互方法和设备
CN105488834B (zh) * 2015-12-01 2019-03-19 网易(杭州)网络有限公司 角色面部朝向的调整方法及装置
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和系统
JP6756236B2 (ja) 2016-10-31 2020-09-16 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
US10901494B2 (en) 2017-03-28 2021-01-26 Wipro Limited Method and a system for providing gesture-based interaction with a virtual product
US20200016743A1 (en) * 2017-03-31 2020-01-16 Sony Corporation Information Processing Apparatus, Information Processing Method, And Program
CN107158709A (zh) * 2017-05-16 2017-09-15 杭州乐见科技有限公司 一种基于游戏引导运动的方法和设备
EP3451117B1 (en) 2017-09-05 2023-08-23 Apple Inc. Wearable electronic device with electrodes for sensing biological parameters
EP3459447A3 (en) 2017-09-26 2019-07-10 Apple Inc. Optical sensor subsystem adjacent a cover of an electronic device housing
DE102017009169A1 (de) 2017-10-02 2019-04-04 Holger Wild Interaktives Oberkörperabbildgerät
KR101967072B1 (ko) * 2017-12-14 2019-04-08 김민철 사용자 활동 기반 가상 객체 관리 방법, 이를 수행하는 가상 객체 관리 장치 및 이를 기록한 기록매체
CN108553893B (zh) * 2018-04-28 2021-11-16 网易(杭州)网络有限公司 赛车游戏中车辆转向的控制方法和装置
CN110908568B (zh) * 2018-09-18 2022-11-04 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
CN111221416B (zh) * 2020-01-06 2021-12-07 腾讯科技(深圳)有限公司 一种虚拟道具分配的方法、服务器及终端设备
US11055891B1 (en) 2020-03-10 2021-07-06 Microsoft Technology Licensing, Llc Real time styling of motion for virtual environments
CN112527109B (zh) * 2020-12-04 2022-05-17 上海交通大学 基于坐姿的vr全身动作控制方法、系统及计算机可读介质
JP7372717B1 (ja) 2023-03-30 2023-11-01 mirrorX株式会社 プログラム、情報処理装置及び方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
EP0712074B1 (en) * 1994-11-11 2000-11-29 Fujitsu Limited Production system
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法
CN102262438A (zh) * 2010-05-18 2011-11-30 微软公司 用于操纵用户界面的姿势和姿势识别
CN202120199U (zh) * 2011-06-13 2012-01-18 深圳市远望落星山科技有限公司 一种光影跟踪系统

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6408289B1 (en) * 1993-06-11 2002-06-18 Mri Devices Daum Gmbh Shapeable elastic body with master unit and method of controlling
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
EP0761265A4 (en) * 1994-12-30 2005-03-16 Sega Corp VIDEO GAME SYSTEM FOR GAME SIMULATION OF A COMICHEFT
GB9525047D0 (en) * 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
CN1168057C (zh) * 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JPH10302083A (ja) * 1997-04-30 1998-11-13 Yamaha Corp Cgモデルの動作制御システム
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP4332254B2 (ja) * 1999-04-28 2009-09-16 株式会社アミテック インテリジェント型手袋型手形入力装置
US6377281B1 (en) * 2000-02-17 2002-04-23 The Jim Henson Company Live performance control of computer graphic characters
JP2002032788A (ja) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
WO2007130793A2 (en) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
JP2004129180A (ja) * 2002-09-30 2004-04-22 Atsusato Fujii 仮想空間体験のためのシステム
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4048999B2 (ja) * 2003-04-15 2008-02-20 セイコーエプソン株式会社 画像処理装置及び画像処理方法
CN101564596A (zh) * 2004-08-23 2009-10-28 盖姆卡斯特公司 用以观看和操纵虚拟环境的设备、方法和系统
JP2006163886A (ja) * 2004-12-08 2006-06-22 Canon Inc 情報入力方法及び情報入力装置
JP4406693B2 (ja) * 2005-01-28 2010-02-03 学校法人立命館 バルーンアクチュエータ、エンドエフェクタ、及び医療用器具
JP4848515B2 (ja) * 2006-06-12 2011-12-28 国立大学法人九州工業大学 アバター動作制御システム、そのプログラム及び方法
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US8336078B2 (en) * 2006-07-11 2012-12-18 Fmr Corp. Role-based access in a multi-customer computing environment
CN101110102A (zh) * 2006-07-20 2008-01-23 中国科学院自动化研究所 基于玩家拳头的游戏场景和角色控制方法
EP2079361B1 (en) * 2006-09-19 2013-01-09 Myomo, Inc. Powered orthotic device
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
US8706914B2 (en) * 2007-04-23 2014-04-22 David D. Duchesneau Computing infrastructure
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
CN102124423A (zh) * 2008-01-22 2011-07-13 新世代株式会社 摄像装置、在线游戏系统、操作物、输入方法、图像解析装置、图像解析方法以及记录媒体
CN101256673A (zh) * 2008-03-18 2008-09-03 中国计量学院 用于在实时视频跟踪系统中跟踪手臂运动的方法
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
US8793498B2 (en) * 2008-08-11 2014-07-29 Nbcuniversal Media, Llc System and method for forensic analysis of media works
WO2010022882A2 (en) * 2008-08-25 2010-03-04 Universität Zürich Prorektorat Mnw Adjustable virtual reality system
TWI373361B (en) * 2008-10-09 2012-10-01 Univ Nat Chiao Tung Glove puppet manipulation system
CN101732858B (zh) * 2008-11-11 2013-10-30 盛乐信息技术(上海)有限公司 现实与虚拟结合的联网游戏系统及实现方法
US8253801B2 (en) * 2008-12-17 2012-08-28 Sony Computer Entertainment Inc. Correcting angle error in a tracking system
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
CN102473035B (zh) * 2009-07-22 2015-01-21 意美森公司 具有横跨平台的触觉反馈的交互式触摸屏游戏象征
US8284157B2 (en) * 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
CN106964150B (zh) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
CN102253713B (zh) * 2011-06-23 2016-10-12 康佳集团股份有限公司 面向三维立体影像显示系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
EP0712074B1 (en) * 1994-11-11 2000-11-29 Fujitsu Limited Production system
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
CN102262438A (zh) * 2010-05-18 2011-11-30 微软公司 用于操纵用户界面的姿势和姿势识别
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法
CN202120199U (zh) * 2011-06-13 2012-01-18 深圳市远望落星山科技有限公司 一种光影跟踪系统

Also Published As

Publication number Publication date
EP3950076A1 (en) 2022-02-09
CN106943743A (zh) 2017-07-14
JP6193764B2 (ja) 2017-09-06
CN102541260B (zh) 2013-04-03
EP2674204A1 (en) 2013-12-18
EP2674204A4 (en) 2015-01-28
CN102631781A (zh) 2012-08-15
WO2012106978A1 (zh) 2012-08-16
KR101679805B1 (ko) 2016-11-25
US10058773B2 (en) 2018-08-28
CN106964150A (zh) 2017-07-21
KR20140049503A (ko) 2014-04-25
CN106984041A (zh) 2017-07-28
CN106964150B (zh) 2021-03-02
CN106943742A (zh) 2017-07-14
CN102541260A (zh) 2012-07-04
JP6749384B2 (ja) 2020-09-02
CN106984041B (zh) 2021-07-06
CN102681655A (zh) 2012-09-19
JP6722624B2 (ja) 2020-07-15
CN107050852A (zh) 2017-08-18
US20130331964A1 (en) 2013-12-12
CN102631781B (zh) 2017-04-05
JP2014510336A (ja) 2014-04-24
JP2019061707A (ja) 2019-04-18
JP2018022498A (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
CN102681655B (zh) 一种放大系统及其运用
CN103019386B (zh) 一种人机互动的控制方法及其运用
Ma et al. Hand rehabilitation learning system with an exoskeleton robotic glove
Huo Using unconstrained tongue motion as an alternative control mechanism for wheeled mobility
Zhou et al. Human motion tracking for rehabilitation—A survey
CN104825258B (zh) 肩部可穿戴功能辅助机械臂
US20190374161A1 (en) Exosuit systems and methods for detecting and analyzing lifting and bending
CN108056898A (zh) 基于下肢连杆模型和力觉信息的虚拟场景交互式康复训练机器人及其控制方法
Piazza et al. The softhand pro-h: a hybrid body-controlled, electrically powered hand prosthesis for daily living and working
Taheri et al. Robot-assisted Guitar Hero for finger rehabilitation after stroke
CN110215676A (zh) 一种上肢双臂康复训练人机交互方法和系统
Xu et al. A shared control strategy for reach and grasp of multiple objects using robot vision and noninvasive brain–computer interface
Oppenheim et al. WiiEMG: A real-time environment for control of the Wii with surface electromyography
EP3509801A1 (en) Jacket for embodied interaction with virtual or distal robotic device
CN111091890A (zh) 自我激励与反馈控制下的健康认知系统
JPH0720978A (ja) 仮想体感装置
Kuttuva et al. The rutgers arm: an upper-extremity rehabilitation system in virtual reality
US20230404838A1 (en) System and method for performing computer-based, robot-assisted therapy
CN106943742B (zh) 一种动作放大系统
CN110280016B (zh) 一种vr场景体验系统
CN106943743B (zh) 一种人机互动控制方法
Tripicchio Virtual Reality Sports Training.
Abbruzzese et al. Development of Haptic Virtual Reality System for Neurorehabilitation
Tutak Model of the Arm Manipulator in the Process of Spastic Limb Rehabilitation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230106

Address after: 509, 5th floor, building 1, women's and children's activity center, No. 20, Nanchang East Road, Longwen District, Zhangzhou City, Fujian Province, 363000

Patentee after: Zhangzhou Asixinggu Electronic Technology Co.,Ltd.

Address before: 363000 Fujian city of Zhangzhou province Yanan Plaza 4 Building No. 1511 Xiangcheng Ming

Patentee before: Huang Defeng

TR01 Transfer of patent right