WO2017158990A1 - ゲームプログラム、方法およびゲームシステム - Google Patents

ゲームプログラム、方法およびゲームシステム Download PDF

Info

Publication number
WO2017158990A1
WO2017158990A1 PCT/JP2016/088949 JP2016088949W WO2017158990A1 WO 2017158990 A1 WO2017158990 A1 WO 2017158990A1 JP 2016088949 W JP2016088949 W JP 2016088949W WO 2017158990 A1 WO2017158990 A1 WO 2017158990A1
Authority
WO
WIPO (PCT)
Prior art keywords
player
game
movement
processing
virtual reality
Prior art date
Application number
PCT/JP2016/088949
Other languages
English (en)
French (fr)
Inventor
功淳 馬場
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2017158990A1 publication Critical patent/WO2017158990A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the present disclosure relates to a technique for displaying a virtual reality space (hereinafter referred to as VR (Virtual Reality)) on a head mounted display in a game system including a head mounted display (hereinafter also referred to as HMD (Head Mounted Display)).
  • VR Virtual Reality
  • HMD Head Mounted Display
  • Patent Document 1 proposes that a user wearing a head-mounted display is immersed in the video displayed on the head-mounted display and enjoys the game.
  • a game controller that can be held by the player is used, and the player moves the hand or moves the body while holding the game controller.
  • An input operation may be performed by physical movement.
  • the game controller has a sense of being immersed in the VR space and is faster than necessary. Etc. may be operated. Therefore, a technique for further improving the safety of the player is required.
  • the present disclosure has been made in view of the above-described problems, and an object thereof is to further improve the safety of a player who plays a game.
  • a game program for controlling operation of a game system including a head mounted display.
  • the game system includes a processor, a memory, and an input reception device that can detect the physical movement of the player.
  • the game system displays a virtual reality space that constitutes a game on a head-mounted display, and moves an object to be operated by the player in the virtual reality space in conjunction with the physical movement of the player detected by the input receiving device. To be displayed.
  • the game program when the movement of the player for moving the object in the virtual reality space exceeds a certain speed, the player is disadvantageous in the game as compared with the case where the movement of the player does not exceed the certain speed.
  • the process step is executed.
  • a method in which a game system including a head-mounted display causes a virtual reality space constituting a game to be displayed on the head-mounted display.
  • the game system includes a processor, a memory, and an input reception device that can detect the physical movement of the player.
  • the method includes a step of causing the processor to display on the head mounted display so that the object to be operated by the player is moved in the virtual reality space in conjunction with the physical movement of the player detected by the input receiving device; Processing to cause the player to be disadvantaged in the game when the movement of the player for moving in the virtual reality space exceeds a certain speed compared to the case where the movement of the player does not exceed the certain speed.
  • a game system includes a head mounted display, an information processing device, and an input receiving device capable of detecting a physical movement of the player.
  • the information processing device displays a virtual reality space constituting the game on a head-mounted display, and in conjunction with a physical movement of the player detected by the input receiving device, an object to be operated by the player in the virtual reality space. Display to move.
  • the player for moving the object in the virtual reality space exceeds a certain speed, the player is disadvantaged in the game as compared to the case where the movement of the player does not exceed the certain speed.
  • a processing unit for processing is included.
  • FIG. 1 is a hardware configuration diagram of a game system 100 according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of the outer shape of the game controller 300.
  • FIG. 3 is a system configuration diagram showing the entire system according to an embodiment.
  • FIG. 4 is a diagram illustrating a functional configuration of the game machine according to the embodiment.
  • FIG. 5 is a flowchart illustrating an aspect of a method according to an embodiment.
  • FIG. 6 is a diagram illustrating an example of a change display of the operation target object according to an embodiment.
  • FIG. 7 is a diagram illustrating an example of a change display of the operation target object according to an embodiment.
  • FIG. 8 is a diagram illustrating an example of an enemy object change display according to an embodiment.
  • a game program for controlling the operation of a game system including a head-mounted display,
  • the game system includes a processor, a memory, and an input reception device capable of detecting a physical movement of a player, displays a virtual reality space constituting a game on the head mounted display, and the input reception device In conjunction with the detected physical movement of the player, the player is displayed so as to move the object to be operated in the virtual reality space.
  • the game program is stored in the processor.
  • the step of processing so that the player is disadvantaged includes: When the movement of the player exceeds a certain speed, the object is an object to be operated by the player or an object different from the object to be operated by the player, and the object is linked to the movement of the player.
  • the step of processing so that the player is disadvantaged includes: The program according to item 1 or 2, including a process of changing a state of a character object indicating a game character to be operated by the player as an object to be operated by the player so as to be disadvantageous to the player.
  • the step of processing so that the player is disadvantaged includes: As a state of a character object indicating a game character to be operated by the player, a parameter set for the game character is changed so as to be disadvantageous for the player, and visual processing corresponding to the change is performed on the head mounted display.
  • Item 4 The program according to Item 3, including processing to be displayed on the screen.
  • the step of processing so that the player is disadvantaged includes: As an object to be operated by the player, a state of a target object associated with a game character to be operated by the player and moving in the virtual space in conjunction with the movement of the player, Item 3.
  • the program according to item 1 or 2 including a process for changing so as to be disadvantageous to the player.
  • the step of processing so that the player is disadvantaged includes: 6.
  • the step of processing so that the player is disadvantaged includes: The program according to item 2, including a process of changing the state of the affected object so as to be disadvantageous to the player.
  • the input receiving device is configured to be held or worn by the player, a speed detector for detecting the speed of the input receiving device, and an acceleration detector for detecting the acceleration of the input receiving device; Comprising at least one of Any of items 1 to 7, wherein the step of processing so that the player is disadvantaged includes a process of determining whether or not the movement of the player exceeds a certain speed based on the result of the detection.
  • a game system including a head-mounted display is a method for displaying a virtual reality space constituting a game on the head-mounted display
  • the game system includes a processor, a memory, and an input receiving device capable of detecting a physical movement of the player
  • the processor comprises: Displaying on the head mounted display so as to move the object to be operated by the player in the virtual reality space in conjunction with the physical movement of the player detected by the input receiving device; When the movement of the player for moving the object in the virtual reality space exceeds a certain speed, the player is disadvantaged in the game compared to the case where the movement of the player does not exceed a certain speed. And a method of performing the processing.
  • the game system includes a head-mounted display, an information processing device, and an input reception device capable of detecting a physical movement of a player, and the information processing device forms a virtual reality space that constitutes a game. Display on a display, and display the object to be moved by the player in the virtual reality space in conjunction with the physical movement of the player detected by the input receiving device;
  • the game system includes: When the movement of the player for moving the object in the virtual reality space exceeds a certain speed, the player is disadvantaged in the game compared to the case where the movement of the player does not exceed a certain speed.
  • a game system including a processing unit for processing as described above.
  • FIG. 1 is a hardware configuration diagram of a game system 100 according to an embodiment of the present disclosure.
  • Game system 100 is configured to provide a gaming experience to player 160 by executing a computer game.
  • the present embodiment relates to associating the action of the player 160 with the movement of an object in a computer game.
  • the game system 100 includes a game machine 200, a display device 120, a game controller 300 (hereinafter simply referred to as “controller”), and a tracking sensor 130.
  • the game machine 200 and the display device 120 are electrically connected by a wired cable 150 and can communicate with each other. Instead of the wired cable 150, a wireless connection may be used.
  • the game machine 200 and the controller 300 and the game machine 200 and the tracking sensor 130 are also connected by wire or wirelessly.
  • the game machine 200 is a device that generates a game image and a game sound based on a computer game program.
  • the game machine 200 includes at least a processor 202, a memory 204, and a peripheral device interface 206.
  • the game machine 200 further includes, as other components, a network interface (not shown) for communicating with other devices via a network (for example, the Internet) and a user input for receiving operation inputs to the game machine 200 from the player 160.
  • An interface eg, keyboard, mouse, etc.
  • the game machine 200 can be realized as, for example, a general-purpose personal computer, a tablet terminal, a smartphone, or the like, in addition to a game console dedicated to computer games.
  • the memory 204 stores at least an operating system and a computer game program.
  • the operating system is a computer program for controlling the overall operation of the game machine 200.
  • the computer game program is a program for the game machine 200 to realize each function of game processing described later.
  • the memory 204 may also store data generated by the operation of the game machine 200 temporarily or permanently. Specific examples of the memory 204 include a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, a flash memory, and an optical disk.
  • the processor 202 is configured to read a program stored in the memory 204 and execute processing according to the program. When the processor 202 executes a computer game program stored in the memory 204, each function of game processing described later is realized.
  • the processor 202 includes a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the peripheral device interface 206 provides the game machine 200 with the ability to communicate with the peripheral device.
  • the game machine 200 includes the display device 120, the controller 300, and the tracking sensor 130 as peripheral devices.
  • the game machine 200 can transmit predetermined data to and from the display device 120, the controller 300, and the tracking sensor 130 via the peripheral device interface 206.
  • Connection methods supported by the peripheral device interface 206 include wired connection and wireless connection.
  • the display device 120 is a device for providing the game image generated in the game machine 200 to the player 160 as visual information.
  • the display device 120 may be configured as a head mounted display as shown in FIG.
  • the display device 120 may be configured as a normal stationary display that is not an HMD.
  • the display device 120 When the display device 120 is an HMD (hereinafter, when the display device 120 is an HMD, the “display device 120” may be referred to as “HMD120”), as shown in the figure, the HMD 120 displays the field of view of the player 160. Is attached to the head of the player 160 so as to cover.
  • the HMD 120 includes a display 122 arranged in front of the player 160 wearing the HMD 120.
  • the display 122 displays a game image sent from the game machine 200.
  • the display 122 may be configured as a non-transmissive display, for example. In this case, the external scene of the HMD 120 is blocked from the view of the player 160, and only the game image displayed on the display 122 is delivered to the eyes of the player 160.
  • the game image displayed on the display 122 of the HMD 120 may be an image representing a virtual reality space by a computer game, for example.
  • the HMD 120 to which a non-transmissive display is applied as the display 122 can allow the player 160 to experience a feeling (immersion feeling) as if entering the virtual reality space of the computer game by using such a virtual reality space image.
  • the HMD 120 is also a sensor (not shown) for detecting which direction the head of the player 160 wearing the HMD 120 is facing (for example, one of a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof). May be provided.
  • the detected head direction of the player 160 may be used to change the display image of the display 122 so as to follow the movement of the player 160 when the head moves. Thereby, the immersion feeling in the virtual reality space that the player 160 can experience can be further enhanced.
  • the HMD 120 may further include a speaker (headphone) (not shown) for outputting game sound generated in the game machine 200.
  • the controller 300 is a device used by the player 160 to control the movement of objects in the computer game.
  • FIG. 2 is a diagram illustrating an example of the outer shape of the controller 300, and FIG. 2 will be referred to in the following description.
  • the controller 300 includes a right-hand controller 320 that the player 160 uses with the right hand and a left-hand controller 330 that the player 160 uses with the left hand.
  • the right hand controller 320 and the left hand controller 330 are configured as separate devices. Therefore, the player 160 can freely move the right hand having the right hand controller 320 and the left hand having the left hand controller 330.
  • the right-hand controller 320 and the left-hand controller 330 each include an operation button 302, an infrared LED (Light Emitting Diode) 304, a sensor 306, and a transceiver 308. As will be described later, only one of the infrared LED 304 and the sensor 306 may be provided alternatively.
  • an infrared LED Light Emitting Diode
  • the operation buttons 302 are a plurality of button groups configured to receive operation inputs from the player 160.
  • the operation button 302 includes a push button, a trigger button, and an analog stick.
  • the push-type button is a button configured to be operated by an operation of pressing with a finger (for example, a thumb).
  • two push buttons 302 a and 302 b are provided on the top surface 322 of the right hand controller 320, and two push buttons 302 c and 302 d are provided on the top surface 332 of the left hand controller 330.
  • the trigger type button is a button configured to be operated by an operation such as pulling a trigger with an index finger or a middle finger.
  • the right hand controller 320 is provided with a trigger button 302e on the front portion of the grip 324 and a trigger button 302f on the side surface portion of the grip 324, and the left hand controller 330 has a trigger type on the front portion of the grip 334.
  • Trigger buttons 302h are provided on the side portions of the button 302g and the grip 334, respectively.
  • the trigger buttons 302e, 302f, 302g, and 302h are assumed to be operated by the index finger of the right hand, the middle finger of the right hand, the index finger of the left hand, and the middle finger of the left hand, respectively.
  • the analog stick is a stick-type button that can be operated by being tilted 360 degrees from a predetermined neutral position.
  • an analog stick 302 i is provided on the top surface 322 of the right-hand controller 320
  • an analog stick 302 j is provided on the top surface 332 of the left-hand controller 330.
  • the analog sticks 302i and 302j are assumed to be operated using the thumbs of the right hand and the left hand, respectively.
  • the right-hand controller 320 and the left-hand controller 330 each have a frame 326 extending from both sides of the grips (324 and 334) in a direction opposite to the top surface (322 and 332) to form a semicircular ring, 336.
  • a plurality of infrared LEDs 304 are embedded on the outer surfaces of the frames 326 and 336.
  • a plurality of (for example, about 10) infrared LEDs 304 are provided in a line along the circumferential direction of the frames 326 and 336.
  • a plurality of rows (for example, two rows) of infrared LEDs 304 may be arranged along the circumferential direction of the frames 326 and 336.
  • the finger of the player 160 is between the grip (324 or 334) and the frame (326 or 336). Therefore, the infrared LED 304 arranged on the outer surface of each of the frames 326 and 336 is not covered by the player's 160 hand or finger. In addition to the outer surfaces of the frames 326 and 336, the infrared LED 304 may be embedded in portions of the surfaces of the grips 324 and 334 that are not hidden by the finger of the player 160. These infrared LEDs 304 emit infrared light while playing a computer game. Infrared light emitted from the infrared LED 304 can be used to detect the positions and postures (tilt and orientation) of the right-hand controller 320 and the left-hand controller 330.
  • the right-hand controller 320 and the left-hand controller 330 incorporate a sensor 306 instead of or in addition to the infrared LED 304.
  • the sensor 306 may be a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof.
  • the sensor 306 outputs a value (magnetism, angular velocity, or acceleration value) according to the direction and movement of each controller 320, 330 when the player 160 moves each controller 320, 330 with the right hand and the left hand. To do.
  • the positions and postures of the right-hand controller 320 and the left-hand controller 330 can be detected.
  • the acceleration sensor may be a triaxial acceleration sensor. By using this triaxial acceleration sensor, it is possible not only to detect changes in acceleration in the three directions of front and rear, left and right, and up and down, but also to detect the tilt of the controller.
  • the transceiver 308 is configured to transmit and receive data between the controllers 320 and 330 and the game machine 200. For example, the transceiver 308 transmits data based on the operation input given to the controller by the player 160 via the operation button 302 to the game machine 200. Further, the transceiver 308 receives a command for instructing the controller to emit the infrared LED 304 from the game machine 200. Furthermore, the transceiver 308 transmits data corresponding to various values detected by the sensor 306 to the game machine 200.
  • the transceiver 308 receives a command for causing the vibrator to perform tactile feedback from the game machine 200. It is good to do.
  • the transceiver 308 is preferably configured to transmit and receive data by wireless communication so that the player 160 can freely move the hand holding the controllers 320 and 330.
  • the tracking sensor 130 is a device that detects the infrared light emitted from the infrared LEDs 304 of the right-hand controller 320 and the left-hand controller 330 and tracks the movement of each controller.
  • the tracking sensor 130 may be configured as an infrared camera that captures an image in the infrared wavelength region, and may transmit data of the captured image to the game machine 200.
  • the image picked up by the infrared camera is a bright and dark image reflecting the arrangement of a large number of infrared LEDs 304 embedded in the surfaces of the controllers 320 and 330. Based on this bright and dark image, the respective positions and postures (tilt and orientation) of the right hand controller 320 and the left hand controller 330 are detected.
  • a plurality of infrared LEDs 304 are arranged in a row on the frames 326 and 336 of each controller.
  • the position and orientation of each controller can be detected by identifying the arrangement of bright spots corresponding to this one row of infrared LEDs 304 in the image captured by the infrared camera.
  • FIG. 3 is an overall configuration diagram of a game system according to an embodiment of the present disclosure.
  • a plurality of users' game machines 200 and game servers 400 are connected to the network 2.
  • the game machine 200 receives content such as games and movies from the game server 400 via the network 2.
  • the game server 400 provides the game machine 200 with an online application such as a game that allows a plurality of users to participate via the network 2.
  • the network 2 can be connected to the Internet via the Internet, various mobile communication systems constructed by radio base stations (not shown) (for example, so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution)), and predetermined access points.
  • a wireless network for example, WiFi (registered trademark) may be included.
  • the game server 400 is preferably a general-purpose computer such as a workstation or a personal computer.
  • the game server 400 includes a processor 40, a memory 41, a storage 42, a communication interface (IF) 43, and an input / output IF 44 that are electrically connected to each other via a communication bus.
  • a processor 40 a memory 41, a storage 42, a communication interface (IF) 43, and an input / output IF 44 that are electrically connected to each other via a communication bus.
  • IF communication interface
  • the processor 40 includes a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the entire game server 400.
  • CPU Central Processing Unit
  • MPU Micro Processing Unit
  • GPU Graphics Processing Unit
  • the memory 41 includes a main storage device that can be configured by a volatile storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory).
  • the storage 42 is configured to include an auxiliary storage device that can be configured by a non-volatile storage device such as a flash memory or an HDD (Hard Disk Drive).
  • the memory 41 temporarily stores various programs and data loaded from the storage 42 and provides a work area to the processor 40.
  • the storage 42 of the game server 400 stores game data such as game programs.
  • the game program is expanded in the memory 41 and executed by the processor 40.
  • Various types of game data generated while the processor 40 is operating according to the game program are also temporarily stored in the memory 41.
  • the communication IF 43 has a communication control function for transmitting and receiving various data between the game machine 200 and the game server 400.
  • the communication control function includes, for example, a wireless LAN connection function, an Internet connection function via a wired or wireless LAN or a mobile phone network, a short-range wireless communication function, and the like.
  • the data includes game data such as a predetermined game program, player information, and game information, an instruction to transmit and receive them between the game machine 200 and the game server 400, and an instruction to advance the game.
  • the input / output IF 44 of the game server 400 includes an input unit that is an information input device such as a mouse and a keyboard, and an output unit such as a liquid crystal display, and is used for monitoring computer information.
  • the game server 400 may be configured to include at least part of the functions of the game machine 200 described above. Further, at least a part of the functions of the game server 400 may be configured to be included in the game machine 200. That is, a computer that realizes a predetermined function by executing the game program in the present embodiment can be arbitrarily selected from the above-described information control device including the game machine 200 and the game server 400.
  • FIG. 4 is a block diagram illustrating a functional configuration of the game machine 200 according to an embodiment of the present disclosure.
  • the game machine 200 includes a storage unit 220 and a processing unit 230.
  • the processing unit 230 further includes a player input reception unit (operation content reception unit) 231, a player operation speed determination unit (determination unit) 232, a change processing unit (change processing unit) 233, an image generation unit 234, and an image Output unit 235.
  • the storage unit 220 corresponds to the memory 204 shown in FIG.
  • the processing unit 230 and the units 231 to 235 included in the processing unit 230 are game processes according to the present disclosure that are realized by the processor 202 illustrated in FIG. 1 reading and executing the computer game program in the memory 204. Represents a function.
  • the player input receiving unit 231 detects the postures (tilt, orientation, and position) of the right-hand controller 320 and the left-hand controller 330, and acquires the operation content operated by the player.
  • the right-hand controller 320 and the left-hand controller 330 are held at home positions in which the top surfaces 322 and 332 are horizontally oriented in an initial state such as when a computer game is started.
  • the player 160 can operate the right-hand controller 320 and the left-hand controller 330 in various directions in order to control the movement of the object in the computer game.
  • the player input receiving unit 231 separately detects and acquires the operation contents of each of the controllers 320 and 330.
  • the player input reception unit 231 may use captured image data output from the tracking sensor (infrared camera) 130.
  • the player input reception unit 231 identifies a bright spot in the captured image.
  • the bright point in the image captured by the infrared camera corresponds to the infrared LED 304 provided on the controller.
  • the player input receiving unit 231 detects the posture of the right-hand controller 320 and the posture of the left-hand controller 330 based on the direction in which the identified plurality of bright spots are arranged in the captured image, respectively. Get the operation details of.
  • the player input receiving unit 231 may use detection data of the sensors 306 received from the controllers 320 and 330 instead of the captured image data from the tracking sensor 130 for detection of the operation of each controller.
  • the three-axis angular velocity sensor (sensor 306) of the right-hand controller 320 detects rotations about the three orthogonal axes of the right-hand controller 320. Based on this detection data, the player input receiving unit 231 determines how much the right-hand controller 320 has rotated in which direction, and further accumulates the rotation direction and the rotation amount that are sequentially determined. The attitude of the controller 320 may be calculated.
  • the player input receiving unit 231 may calculate the attitude of the left-hand controller 330 using detection data output from the triaxial angular velocity sensor of the left-hand controller 330.
  • the player input receiving unit 231 may use detection data from, for example, a triaxial magnetic sensor and / or a triaxial acceleration sensor in addition to the detection data of the triaxial angular velocity sensor.
  • the player input receiving unit 231 can further determine the positions of the right-hand controller 320 and the left-hand controller 330 and detect temporal changes in the positions.
  • the player input reception unit 231 determines, from among the two bright spot groups identified from the captured image, the positions of the center of gravity of a plurality of bright spots constituting the left group as positions of the right-hand controller 320.
  • the barycentric positions of a plurality of bright spots constituting the right group may be determined as the positions of the left-hand controller 330.
  • the player input receiving unit 231 may detect temporal changes in the positions of the controllers 320 and 330 using detection data from the sensors 306 (for example, acceleration sensors) of the controllers 320 and 330.
  • the player input receiving unit 231 may be any means (input receiving device) that can detect the physical movement of the player, and is not limited to the above-described controller.
  • the player operation determination unit 232 determines whether or not the operation content (for example, the operation speed of each controller) of each of the controllers 320 and 330 acquired by the player input reception unit 231 has exceeded a predetermined operation value (for example, speed or acceleration). judge. That is, the player operation determination unit 232 determines whether or not the player moves the operation target object faster than a predetermined speed.
  • the predetermined speed can be set according to the game content. For example, in the case of a boxing battle game, it is assumed that the player moves the arm having the controller quickly. Therefore, in the case of a boxing battle game, the predetermined speed can be set to a certain high speed.
  • the player operation determination unit 232 may determine whether or not the acceleration of each of the controllers 320 and 330 acquired by the player input reception unit 231 exceeds a predetermined value. That is, the player operation determination unit 232 can determine whether or not the player has moved the operation target object beyond a predetermined acceleration.
  • the predetermined acceleration can be appropriately set according to the game content. Further, the player operation determination unit 232 can set a predetermined operation value by combining the speed and acceleration related to the operation of the controller.
  • the change processing unit 233 performs visual change processing that is disadvantageous to the player on part of the game content.
  • the visual change process that is disadvantageous for the player differs depending on the game content.
  • the change processing unit 233 can perform processing so that the boxing glove that is the operation target object visually changes and the opponent is not punched.
  • the change processing unit 233 can generate a warning sound or display a warning message together with the object change process.
  • the change processing unit 233 may display that an in-game parameter (such as a durability parameter) decreases with the object change process.
  • an in-game parameter such as a durability parameter
  • the change process is a disadvantage for the player when compared with the case where the movement of the player does not exceed a certain speed with respect to the object operated by the player or the object that the player acts on in proceeding with the game scenario. It means to process to become.
  • the disadvantageous process may include a reduction in various parameters (physical strength value, experience value, etc.) set for the game character in addition to the deformation of the object. In this way, the user who is a player recognizes a state in which processing that is disadvantageous in proceeding with the game content is performed when performing an operation exceeding a predetermined operation speed, and the predetermined operation is performed. You are encouraged not to exceed speed.
  • the image generation unit 234 generates a game image so that the operation target object moves in the computer game in conjunction with the operations of the right-hand controller 320 and the left-hand controller 330.
  • the image generation unit 234 generates a game image of the computer game processed by the change processing unit 233.
  • the image generation unit 234 acquires predetermined data from the storage unit 220 and generates a game image by computer graphics processing based on the acquired data.
  • the generated game image is output to the display device 120 via the image output unit 235 and displayed on the display device 120.
  • FIG. 5 is a flowchart showing a processing procedure of a method according to an embodiment.
  • This flowchart represents a process in which the game machine 200 generates a one-frame game image.
  • step S1 the processing from the beginning (step S1) to the end (step S6) of the flowchart is completed, a game image is generated for one frame, and then the same from the beginning of the flowchart again to generate the next frame of the game image. The process is repeated.
  • step S1 captured image data captured by the tracking sensor 130 or detection data output by the sensors 306 of the right hand controller 320 and the left hand controller 330 is output to the game machine 200.
  • step S2 the player input receiving unit 231 detects the postures of the right hand controller 320 and the left hand controller 330 based on the received captured image data or detection data.
  • the player input receiving unit 231 can further detect the positions of the right-hand controller 320 and the left-hand controller 330 based on the captured image data or the detection data.
  • step S3 the player input receiving unit 231 detects the speeds of the right-hand controller 320 and the left-hand controller 330 based on the temporal change in the position.
  • step S4 the player operation determination unit 232 determines whether or not the respective operation speeds of the right-hand controller 320 and the left-hand controller 330 exceed a predetermined value (for example, a predetermined speed).
  • step S5 the change processing unit 233 performs change processing that is more disadvantageous than usual for the operation target object or the enemy object. Apply.
  • This change processing includes processing the operation target object into a deteriorated state and processing the enemy object into a strengthened state.
  • step S6 a game image in which the operation target object in the game image moves is generated based on the operation content of the player.
  • the image output unit 235 outputs the generated game image to the display device (for example, the HMD) 120.
  • the display device 120 displays the game image of the operation target object in the computer game that is linked to the action of the player.
  • the player 160 can move the operation target object in the computer game in conjunction with the operation contents of the right hand controller 320 held in the right hand and the left hand controller 330 held in the left hand.
  • FIG. 6 and FIG. 7 are diagrams for explaining operation target object change processing in one embodiment.
  • a player 160 wearing a head-mounted display is playing a battle game fighting an enemy using the controllers 320 and 330, and shows “sword” as an example of an operation target object.
  • the player swings up the right hand controller 320 (position a) and then swings down the right arm (position b).
  • the “sword” (operation target object a) in the virtual reality space is controlled so as to be linked to the action of the player. Therefore, if the player swings down his arm quickly, the operation target object can be moved quickly according to the motion.
  • the “sword” is “broken” or “cracked” from the normal state. (Operation target object a ′), the change process in which the operation target object is destroyed is displayed, and the attack action (damage) is restricted from being applied to the enemy. As a result, the player is prompted to avoid operating the operation target object faster than necessary, and can enjoy the game more safely while maintaining the interlocking between the controller and the object. Similarly, even when the player swings the controller with momentum, the “sword” can be changed and displayed.
  • the player 160 wearing a head-mounted display uses the controller 330 to play a boxing game
  • “boxing glove” operation target object b
  • “boxing glove” operation target object b
  • the “boxing glove” changes the transparency process or the blur process. It is displayed in the processed state (operation target object b ′).
  • the operation object may be displayed so as to pass through the body of the opponent character. In this way, the player can visually recognize that his / her action is invalidated or disabled in the game when his / her operation content exceeds a predetermined limit value.
  • FIG. 8 is a diagram illustrating object change processing in game content according to an embodiment.
  • the player 160 wearing the head-mounted display uses the controllers 320 and 330 to play a battle game in which an enemy (enemy object c) fights.
  • a user who is a player swings up the right-hand controller 320 (position a) and then swings down the right arm (position b).
  • the “sword” (operation target object a) in the virtual reality space is controlled so as to be linked to the player motion. Therefore, if the player swings down his arm quickly, the operation target object can be moved quickly according to the motion.
  • the enemy object becomes transparent (enemy object c ′) from the normal state (enemy object c). ), The sword appears to pass through the enemy object, and can no longer attack the enemy (damage). As a result, the player is prompted to avoid operating the operation target object faster than necessary, and can enjoy the game more safely while maintaining the interlocking between the controller and the object.
  • the predetermined parameter of the player character associated with the player may be decreased.
  • the predetermined parameters include, for example, hit points (a physical strength value indicating an allowable damage amount. When the physical strength value falls below a predetermined value, the player character cannot be operated), attack power (once to an enemy character, etc.) And the like, and various parameters in the game such as defensive power (the amount by which the player character's hit points are reduced by a single attack from the enemy character).
  • a player wearing an HMD plays a golf game using a game controller.
  • the player operates the game controller and operates the golf club of the operation target object faster than a predetermined motion value
  • the golf club object in the virtual reality space is subjected to change processing so as to be bent and displayed.
  • the golf ball object may be displayed after being transparently processed. Thus, the player can no longer hit the golf ball and is prompted to operate the club at an appropriate speed.
  • a player wearing an HMD plays a baseball game using a game controller.
  • a player who is a batter operates a bat that is an operation target object faster than a predetermined speed
  • the bat is bent, cracked, made transparent, translucent, etc. Is displayed.
  • the player cannot hit the ball and is prompted to operate the bat at an appropriate speed.
  • this indication is not limited to this, A various change is possible within the range which does not deviate from the gist.

Abstract

VR空間において、ゲームのプレイヤの身体的な動きに連動させてプレイヤが操作対象とするオブジェクトを移動させるゲームコンテンツのプレイヤの安全性をいっそう向上させる技術を提供する。ゲームシステムは、ヘッドマウント・ディスプレイと、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含む。ゲームシステムは、ゲームを構成する仮想現実空間をヘッドマウント・ディスプレイに表示させ、入力受付装置が検出したプレイヤの身体的な動きに連動させて、仮想現実空間においてプレイヤが操作対象とするオブジェクトを移動させるよう表示させる。ゲームプログラムは、プロセッサに、オブジェクトを仮想現実空間において移動させるためのプレイヤの動きが一定の速さを超えると、プレイヤの動きが一定の速さを超えない場合と比べてゲームにおいてプレイヤが不利になるように処理する。

Description

ゲームプログラム、方法およびゲームシステム
 本開示は、ヘッドマウント・ディスプレイ(以下、HMD(Head Mounted Display)ともいう)を含むゲームシステムにおいて、仮想現実空間(以下、VR(Virtual Reality))をヘッドマウント・ディスプレイに表示させる技術に関する。
 仮想現実空間へのユーザの没入感を高めるため、いわゆる360度すべてを見渡せる動画、ゲーム画面その他のコンテンツを表示することができるヘッドマウント・ディスプレイの普及が始まりつつある。特許文献1には、ヘッドマウント・ディスプレイを装着したユーザが、そのヘッドマウント・ディスプレイに表示される映像に没入してゲームを楽しむことが提案されている。
特開2013-257716号公報
 ゲームへの没入感覚をいっそう高めるため、ゲームアプリケーションによっては、例えばプレイヤが把持することができるゲームコントローラを使用して、プレイヤがゲームコントローラを持ちながら手を動かしたり、体を移動させたりする等の身体的な動きによって入力操作を行うことがある。しかしながら、ヘッドマウント・ディスプレイを装着したプレイヤがゲームコントローラ等を使用して、例えば対戦ゲーム、スポーツゲームその他のゲームを楽しむ場合は、VR空間への没入感覚のあまり、必要以上の速さでゲームコントローラ等を動作させてしまうことがある。したがって、プレイヤの安全性をいっそう向上させる技術が必要とされている。
 本開示は、上記の課題に鑑みてなされたものであり、その目的は、ゲームをプレイするプレイヤの安全性をいっそう向上させることである。
 一実施形態によると、ヘッドマウント・ディスプレイを含むゲームシステムの動作を制御するためのゲームプログラムが提供される。ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含む。ゲームシステムは、ゲームを構成する仮想現実空間をヘッドマウント・ディスプレイに表示させ、入力受付装置が検出したプレイヤの身体的な動きに連動させて、仮想現実空間においてプレイヤが操作対象とするオブジェクトを移動させるよう表示させる。ゲームプログラムは、プロセッサに、オブジェクトを仮想現実空間において移動させるためのプレイヤの動きが一定の速さを超えると、プレイヤの動きが一定の速さを超えない場合と比べてゲームにおいてプレイヤが不利になるように処理するステップを実行させる。
 別の実施形態によると、ヘッドマウント・ディスプレイを含むゲームシステムが、ゲームを構成する仮想現実空間をヘッドマウント・ディスプレイに表示させる方法が提供される。ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含む。方法は、プロセッサが、入力受付装置が検出したプレイヤの身体的な動きに連動させて、仮想現実空間においてプレイヤが操作対象とするオブジェクトを移動させるようヘッドマウント・ディスプレイに表示させるステップと、オブジェクトを仮想現実空間において移動させるためのプレイヤの動きが一定の速さを超えると、プレイヤの動きが一定の速さを超えない場合と比べてゲームにおいてプレイヤが不利になるように処理するステップとを含む。
 別の実施形態に従うゲームシステムは、ヘッドマウント・ディスプレイと、情報処理装置と、プレイヤの身体的な動きを検出可能な入力受付装置とを含む。情報処理装置は、ゲームを構成する仮想現実空間をヘッドマウント・ディスプレイに表示させ、入力受付装置が検出したプレイヤの身体的な動きに連動させて、仮想現実空間においてプレイヤが操作対象とするオブジェクトを移動させるよう表示させる。ゲームシステムは、オブジェクトを仮想現実空間において移動させるためのプレイヤの動きが一定の速さを超えると、プレイヤの動きが一定の速さを超えない場合と比べてゲームにおいてプレイヤが不利になるように処理する処理部を含む。
 一実施形態によると、プレイヤの身体的な動きが一定の速さを超えないようプレイヤに働きかけることができ、プレイヤの安全性をいっそう向上させることができる。
図1は、本開示の実施の一形態に係るゲームシステム100のハードウェア構成図である。 図2は、ゲームコントローラ300の外形の一例を示す図である。 図3は、一実施形態に係るシステム全体を示すシステム構成図である。 図4は、一実施形態に係るゲーム機の機能構成を示す図である。 図5は、一実施形態に係る方法の一態様を示すフローチャートである。 図6は、一実施形態に係る操作対象オブジェクトの変化表示の一例を示す図である。 図7は、一実施形態に係る操作対象オブジェクトの変化表示の一例を示す図である。 図8は、一実施形態に係る敵オブジェクトの変化表示の例を示す一例を示す図である。
[本開示の実施形態の説明]
 最初に、本開示の実施形態の内容を列記して説明する。本開示の一実施形態は、以下のような構成を備える
(項目1)
ヘッドマウント・ディスプレイを含むゲームシステムの動作を制御するためのゲームプログラムであって、
 前記ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、ゲームを構成する仮想現実空間を前記ヘッドマウント・ディスプレイに表示させ、前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう表示させるものであり、
 前記ゲームプログラムは、前記プロセッサに、
 前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理するステップを実行させる、プログラム。
(項目2)
 前記プレイヤが不利になるように処理するステップは、
 前記プレイヤの動きが一定の速さを超えた場合に、前記プレイヤが操作対象とするオブジェクト、または、前記プレイヤが操作対象とするオブジェクトとは異なるオブジェクトであって前記オブジェクトを前記プレイヤの動きと連動させて移動させることで作用を受ける被作用オブジェクト、の少なくともいずれか一方の状態を変化させる処理を含む、項目1に記載のプログラム。
(項目3)
 前記プレイヤが不利になるように処理するステップは、
 前記プレイヤが操作対象とするオブジェクトとして、前記プレイヤが操作対象とするゲームキャラクタを示すキャラクタオブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、項目1または2に記載のプログラム。
(項目4)
 前記プレイヤが不利になるように処理するステップは、
 前記プレイヤが操作対象とするゲームキャラクタを示すキャラクタオブジェクトの状態として、前記ゲームキャラクタに設定されるパラメータを前記プレイヤにとって不利となるよう変化させ、当該変化に応じた視覚的処理を前記ヘッドマウント・ディスプレイに表示させる処理を含む、項目3に記載のプログラム。
(項目5)
 前記プレイヤが不利になるように処理するステップは、
 前記プレイヤが操作対象とするオブジェクトとして、前記プレイヤが操作対象とするゲームキャラクタと関連付けられた対象オブジェクトであって前記プレイヤの動きと連動して前記仮想空間内において移動する対象オブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、項目1または2に記載のプログラム。
(項目6)
 前記プレイヤが不利になるように処理するステップは、
 前記対象オブジェクトの状態を劣化させるための処理と、当該処理に応じた視覚的処理を前記ヘッドマウント・ディスプレイに表示させる処理を含む、項目5に記載のプログラム。
(項目7)
 前記プレイヤが不利になるように処理するステップは、
 前記被作用オブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、項目2に記載のプログラム。
(項目8)
前記入力受付装置は、前記プレイヤが保持または装着可能に構成されており、前記入力受付装置の速度を検出するための速度検出器と、前記入力受付装置の加速度を検出するための加速度検出器とのうち少なくともいずれかを備え、
 前記プレイヤが不利になるように処理するステップは、前記検出の結果に基づいて、前記プレイヤの動きが一定の速さを超えているか否かを判定する処理を含む、項目1から7のいずれか1項に記載のプログラム。
(項目9)
ヘッドマウント・ディスプレイを含むゲームシステムが、ゲームを構成する仮想現実空間を前記ヘッドマウント・ディスプレイに表示させる方法であって、
 前記ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、
 前記方法は、前記プロセッサが、
 前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう前記ヘッドマウント・ディスプレイに表示させるステップと、
  前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理するステップとを実行する、方法。
(項目10)
ゲームシステムであって、
 前記ゲームシステムは、ヘッドマウント・ディスプレイと、情報処理装置と、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、ゲームを構成する仮想現実空間を前記情報処理装置が前記ヘッドマウント・ディスプレイに表示させ、前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう表示させるものであり、
 前記ゲームシステムは、
 前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理する処理部を含む、ゲームシステム。
[本開示の実施形態の詳細]
 本開示の実施形態に係るゲームプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本開示はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
 図1は、本開示の一実施形態に係るゲームシステム100のハードウェア構成図である。ゲームシステム100は、コンピュータゲームを実行することによってプレイヤ160にゲーム体験を提供するように構成される。本実施形態は、プレイヤ160の動作とコンピュータゲーム内のオブジェクトの動きとを対応づけることに関する。図示されるように、ゲームシステム100は、ゲーム機200と、表示装置120と、ゲームコントローラ300(以下、単に「コントローラ」と称することがある)と、トラッキングセンサ130とを備える。ゲーム機200と表示装置120は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。同様に、ゲーム機200とコントローラ300との間、及びゲーム機200とトラッキングセンサ130との間も、有線又は無線で接続される。
 ゲーム機200は、コンピュータゲームプログラムに基づいてゲーム画像やゲーム音声を生成する装置である。ゲーム機200は、プロセッサ202と、メモリ204と、周辺機器インターフェイス206とを少なくとも備える。ゲーム機200は更に、その他のコンポーネントとして、ネットワーク(例えばインターネット)を介して他の装置と通信するためのネットワークインターフェイス(不図示)や、プレイヤ160からゲーム機200に対する操作入力を受け取るためのユーザ入力インターフェイス(例えばキーボード、マウス等)(不図示)を備えてもよい。ゲーム機200は、コンピュータゲーム専用のゲームコンソールのほか、例えば、汎用のパーソナルコンピュータ、タブレット端末、スマートフォン等として実現することが可能である。
 メモリ204には、少なくともオペレーティングシステムとコンピュータゲームプログラムとが格納されている。オペレーティングシステムは、ゲーム機200の全体的な動作を制御するためのコンピュータプログラムである。コンピュータゲームプログラムは、ゲーム機200が後述するゲーム処理の各機能を実現するためのプログラムである。メモリ204はまた、ゲーム機200の動作によって生成されるデータを一時的又は永続的に記憶することとしてもよい。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
 プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納されたコンピュータゲームプログラムを実行することによって、後述するゲーム処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
 周辺機器インターフェイス206は、ゲーム機200に周辺機器と通信を行う能力を提供する。上述したようにゲーム機200は、周辺機器として表示装置120、コントローラ300、及びトラッキングセンサ130を有する。ゲーム機200は、周辺機器インターフェイス206を介して、表示装置120、コントローラ300、及びトラッキングセンサ130との間で所定のデータを伝送することができる。周辺機器インターフェイス206がサポートする接続方式は、有線接続及び無線接続を含む。
 表示装置120は、ゲーム機200において生成されたゲーム画像を視覚的な情報としてプレイヤ160に提供するための装置である。例えば、表示装置120は、図1に示されるようなヘッドマウント・ディスプレイとして構成されてよい。あるいは、表示装置120は、HMDではない通常の据置型ディスプレイとして構成されてもよい。
 表示装置120がHMDである場合(以下、表示装置120がHMDである場合に、「表示装置120」を「HMD120」と称することがある)、図示されるように、HMD120は、プレイヤ160の視界を覆うようにしてプレイヤ160の頭に装着される。HMD120は、HMD120を装着したプレイヤ160の眼前に配置されたディスプレイ122を備える。ディスプレイ122には、ゲーム機200から送られたゲーム画像が表示される。ディスプレイ122は、例えば、非透過型ディスプレイとして構成することとしてよい。この場合、HMD120の外界の光景はプレイヤ160の視界から遮断され、プレイヤ160の目にはディスプレイ122に映し出されたゲーム画像だけが届けられる。HMD120のディスプレイ122に表示されるゲーム画像は、例えば、コンピュータゲームによる仮想現実空間を表す画像であってよい。ディスプレイ122として非透過型ディスプレイを適用したHMD120は、このような仮想現実空間画像によって、プレイヤ160にコンピュータゲームの仮想現実空間へ入り込んだような感覚(没入感)を体験させることができる。
 HMD120はまた、HMD120を装着したプレイヤ160の頭がどちらの方向を向いているかを検知するための不図示のセンサ(例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせ)を備えてもよい。検知されたプレイヤ160の頭の向きは、プレイヤ160が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することとしてよい。これにより、プレイヤ160が体感する仮想現実空間への没入感を更に高めることができる。HMD120は、更に、ゲーム機200において生成されたゲーム音声を出力するための不図示のスピーカ(ヘッドホン)を備えてもよい。
 コントローラ300は、プレイヤ160がコンピュータゲーム内のオブジェクトの動きを制御するのに用いる装置である。図2は、コントローラ300の外形の一例を表す図であり、以下の説明において図2を参照する。コントローラ300は、プレイヤ160が右手に持って使用する右手用コントローラ320と、プレイヤ160が左手に持って使用する左手用コントローラ330からなる。右手用コントローラ320と左手用コントローラ330は、別体の装置として構成される。そのため、プレイヤ160は、右手用コントローラ320を持った右手と左手用コントローラ330を持った左手を、相互に自由に動かすことができる。右手用コントローラ320と左手用コントローラ330は、それぞれ、操作ボタン302と、赤外線LED(Light Emitting Diode)304と、センサ306と、トランシーバ308とを備える。後述するように、赤外線LED304とセンサ306は、どちらか一方だけが択一的に設けられてもよい。
 操作ボタン302は、プレイヤ160からの操作入力を受け取るように構成された複数のボタン群である。例えば、操作ボタン302は、プッシュ式ボタン、トリガー式ボタン、及びアナログスティックを含む。プッシュ式ボタンは、指(例えば親指)で押下する動作によって操作するように構成されたボタンである。例えば、右手用コントローラ320の天面322上に2つのプッシュ式ボタン302a及び302bが設けられ、左手用コントローラ330の天面332上に2つのプッシュ式ボタン302c及び302dが設けられる。トリガー式ボタンは、人差し指や中指で引き金を引くような動作によって操作するように構成されたボタンである。例えば、右手用コントローラ320には、グリップ324の前面部分にトリガー式ボタン302e、グリップ324の側面部分にトリガー式ボタン302fがそれぞれ設けられ、左手用コントローラ330には、グリップ334の前面部分にトリガー式ボタン302g、グリップ334の側面部分にトリガー式ボタン302hがそれぞれ設けられる。トリガー式ボタン302e、302f、302g、302hは、それぞれ右手の人差し指、右手の中指、左手の人差し指、左手の中指で操作されることが想定されている。アナログスティックは、所定のニュートラル位置から360°任意の方向へ傾けて操作することが可能なスティック型のボタンである。例えば、右手用コントローラ320の天面322上にアナログスティック302i、左手用コントローラ330の天面332上にアナログスティック302jがそれぞれ設けられる。アナログスティック302i及び302jは、それぞれ右手と左手の親指を使って操作されることが想定されている。
 右手用コントローラ320と左手用コントローラ330は、それぞれ、グリップ(324及び334)の両側面から天面(322及び332)とは反対側の方向へ延びて半円状のリングを形成するフレーム326、336を備える。各フレーム326及び336の外表面には、複数の赤外線LED304が埋め込まれている。例えば、複数(例えば10個程度)の赤外線LED304が、フレーム326、336の円周方向に沿って一列に並んで設けられる。フレーム326、336の円周方向に沿って、赤外線LED304を複数列(例えば2列)配列することとしてもよい。プレイヤ160がコントローラ300を握る際には、プレイヤ160の指はグリップ(324又は334)とフレーム(326又は336)との間にある。したがって、各フレーム326、336の外表面に配置された赤外線LED304は、プレイヤ160の手や指によって覆い隠されてしまうことはない。フレーム326、336の外表面に加えて、更に、グリップ324及び334の表面のうちプレイヤ160の指で隠されない部分にも、赤外線LED304が埋め込まれてもよい。これらの赤外線LED304は、コンピュータゲームのプレイ中に赤外線を発光する。赤外線LED304から発せられた赤外光は、右手用コントローラ320と左手用コントローラ330のそれぞれの位置や姿勢(傾き、向き)を検出するのに利用可能である。
 各コントローラ320、330の位置及び姿勢の検出を可能にするために、右手用コントローラ320と左手用コントローラ330は、赤外線LED304の代わりに、又は赤外線LED304に加えて更に、センサ306を内蔵する。センサ306は、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせであってよい。センサ306は、プレイヤ160が各コントローラ320、330をそれぞれ右手と左手で持って動かした際に、各コントローラ320、330の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ306からの出力値を適宜の方法で加工することで、右手用コントローラ320と左手用コントローラ330のそれぞれの位置及び姿勢を検出することができる。加速度センサのデータを積分することで、コントローラの速度・変位に関する情報を取得することができる。なお、加速度センサは三軸加速度センサであってもよい。この三軸加速度センサを利用することで、前後・左右・上下の3方向に対する加速度の変化を検知するだけでなく、コントローラの傾きを検出することもできる。
 トランシーバ308は、各コントローラ320、330とゲーム機200との間でデータを送受信するように構成される。例えば、トランシーバ308は、プレイヤ160が操作ボタン302を介してコントローラに与えた操作入力に基づくデータを、ゲーム機200へ送信する。また、トランシーバ308は、赤外線LED304の発光をコントローラに指示する命令をゲーム機200から受信する。更に、トランシーバ308は、センサ306によって検知した各種の値に対応するデータをゲーム機200へ送信する。これらのデータの送受信に加えて、各コントローラがプレイヤ160の手に振動による触覚フィードバックを伝えるためのバイブレータを備える場合、トランシーバ308は、バイブレータに触覚フィードバックを行わせるための命令をゲーム機200から受信することとしてもよい。プレイヤ160が各コントローラ320、330を持った手を自由に動かせるよう、トランシーバ308は、無線通信によってデータを送受信するように構成されるのが好適である。
 トラッキングセンサ130は、右手用コントローラ320と左手用コントローラ330のそれぞれの赤外線LED304から発せられた赤外光を検知し、各コントローラの動きを追跡する装置である。例えば、トラッキングセンサ130は、赤外波長領域で画像を撮像する赤外カメラとして構成され、撮像した画像のデータをゲーム機200へ送信するものであってよい。赤外カメラによって撮像された画像は、各コントローラ320、330の表面に埋め込まれた多数の赤外線LED304の配置を反映した明暗画像である。この明暗画像に基づいて、右手用コントローラ320と左手用コントローラ330のそれぞれの位置及び姿勢(傾き、向き)が検出される。一例として、各コントローラのフレーム326、336上には、複数の赤外線LED304が一列に配列している。赤外カメラの撮像画像においてこの一列の赤外線LED304に対応する明点の並びを識別することで、各コントローラの位置と姿勢を検出することができる。
 図3は、本開示の一実施形態に係るゲームシステムの全体構成図である。
 複数のユーザのゲーム機200およびゲームサーバ400は、ネットワーク2に接続される。ゲーム機200はネットワーク2を介してゲームサーバ400からゲームや映画などのコンテンツの提供を受ける。ゲームサーバ400は、複数のユーザがネットワーク2を介して参加できるゲームなどのオンラインアプリケーションをゲーム機200に提供する。ネットワーク2は、インターネットや、図示しない無線基地局によって構築される各種移動通信システム(例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution))や、所定のアクセスポイントによりインターネットに接続可能な無線ネットワーク(例えば、WiFi(登録商標))を含んでいても良い。
 ゲームサーバ400はワークステーションやパーソナルコンピュータのような汎用コンピュータであることが好ましい。ゲームサーバ400は、通信バスにより互いに電気的に接続されたプロセッサ40と、メモリ41と、ストレージ42と、通信インターフェース(IF)43と、入出力IF44と、を備える。
 プロセッサ40は、CPU(Central Processing Unit)やMPU(Micro processing unit)、GPU(Graphics Processing Unit)等を含んで構成され、ゲームサーバ400全体の制御を行う。
 メモリ41は、ROM(Read Only Memory)やRAM(Random Access Memory)等の揮発性記憶装置で構成され得る主記憶装置を含んで構成される。ストレージ42は、フラッシュメモリやHDD(Hard Disk Drive)などの不揮発性記憶装置で構成され得る補助記憶装置を含んで構成される。メモリ41は、ストレージ42からロードされた各種プログラムやデータが一時的に記憶され、プロセッサ40に対して作業領域を提供する。ゲームサーバ400のストレージ42にはゲームプログラム等のゲームデータが格納される。当該ゲームプログラムは、メモリ41に展開され、プロセッサ40によって実行される。メモリ41には、プロセッサ40が当該ゲームプログラムに従って動作している間に生成した各種ゲームデータも一時的に格納される。
 通信IF43は、ゲーム機200とゲームサーバ400の間で各種データを送受信するための通信制御機能を備える。通信制御機能には、例えば、無線LAN接続機能、有線または無線LANや携帯電話回線網を介したインターネット接続機能、近距離無線通信機能などが含まれる。本実施形態では、当該データは所定のゲームプログラムやプレイヤ情報、ゲーム情報といったゲームデータ、それらをゲーム機200とゲームサーバ400の間に送受信させる指示や、ゲームを進行させるための指示を含む。 
 ゲームサーバ400の入出力IF44は、マウスやキーボード等の情報入力機器である入力部や、液晶ディスプレイ等の出力部を備えており、コンピュータの情報をモニタリングするために用いられる。
 上記のゲーム機200の機能の少なくとも一部は、ゲームサーバ400が備えるように構成されていても良い。また、上記のゲームサーバ400の機能の少なくとも一部は、ゲーム機200が備えるように構成されていても良い。すなわち、本実施形態におけるゲームプログラムが実行されることにより所定の機能が実現されるコンピュータは、上述のゲーム機200やゲームサーバ400を含む情報制御装置等から任意に選択され得る。
 図4は、本開示の一実施形態に係るゲーム機200の機能的な構成を示すブロック図である。ゲーム機200は、記憶部220及び処理部230を有する。処理部230は更に、プレイヤ入力受付部(操作内容受付手段)231と、プレイヤ操作の速度判定部(判定手段)232と、変化処理部(変化処理手段)233と、画像生成部234と、画像出力部235とを含む。記憶部220は、図1に示されたメモリ204に対応する。処理部230及び処理部230に含まれる各部231~235は、図1に示されたプロセッサ202がメモリ204内のコンピュータゲームプログラムを読み出して実行することによって実現される、本開示に係るゲーム処理の機能を表す。
 プレイヤ入力受付部231は、右手用コントローラ320と左手用コントローラ330のそれぞれの姿勢(傾き、向き、位置)を検出し、プレイヤの操作した操作内容を取得する。例えば、右手用コントローラ320と左手用コントローラ330は、コンピュータゲームの開始時などの初期状態において、それぞれの天面322、332を水平に向けたホームポジションに保持される。コンピュータゲームが開始されると、プレイヤ160は、コンピュータゲーム内のオブジェクトの動きを制御するために、右手用コントローラ320と左手用コントローラ330を様々な方向に操作することができる。
 プレイヤ入力受付部231は、このような各コントローラ320、330の操作内容を、それぞれ別個に検出し、取得する。例えば、プレイヤ入力受付部231は、トラッキングセンサ(赤外カメラ)130から出力される撮像画像データを利用することとしてよい。プレイヤ入力受付部231は、撮像画像内で明点を識別する。上述したように、赤外カメラによって撮像された画像内の明点は、コントローラ上に設けられている赤外線LED304に対応する。プレイヤ入力受付部231は、識別した複数の明点が撮像画像内においてどの方向に並んでいるかに基づいて、右手用コントローラ320の姿勢と、左手用コントローラ330の姿勢とをそれぞれ検出して、プレイヤの操作内容を取得する。
 プレイヤ入力受付部231はまた、トラッキングセンサ130からの撮像画像データに代えて、各コントローラ320、330から受信されるセンサ306の検知データを、各コントローラの操作の検出に利用することとしてもよい。例えば、右手用コントローラ320の三軸角速度センサ(センサ306)が、右手用コントローラ320の3つの直交する各軸回りの回転を検知する。プレイヤ入力受付部231は、この検知データに基づいて、右手用コントローラ320がどちらの方向にどれだけ回転したかを判別し、更に、逐次判別した回転方向と回転量を累積することにより、右手用コントローラ320の姿勢を算出するのであってよい。同様にして、プレイヤ入力受付部231は、左手用コントローラ330の三軸角速度センサから出力される検知データを用いて、左手用コントローラ330の姿勢を算出することとしてよい。プレイヤ入力受付部231は、三軸角速度センサの検知データに加えて、例えば三軸磁気センサ及び/又は三軸加速度センサからの検知データを併用してもよい。
プレイヤ入力受付部231は、更に、右手用コントローラ320と左手用コントローラ330のそれぞれの位置を判別し、その位置の時間的変化を検出することができる。一例として、プレイヤ入力受付部231は、撮像画像から識別された2つの明点の集団のうち、左側の集団を構成している複数の明点の重心位置を右手用コントローラ320の位置と判別し、右側の集団を構成している複数の明点の重心位置を左手用コントローラ330の位置と判別するのであってよい。あるいはまた、プレイヤ入力受付部231は、各コントローラ320、330のセンサ306(例えば加速度センサ)による検知データを用いて、各コントローラ320、330の位置の時間的変化を検出することとしてもよい。
なお、プレイヤ入力受付部231は、プレイヤの身体的な動きを検出することができる手段(入力受付装置)であればよく、前述のコントローラに限定されるものではない。
 プレイヤ操作判定部232は、プレイヤ入力受付部231により取得された各コントローラ320、330の操作内容(例えば、各コントローラの動作速度)が所定の動作値(例えば、速度や加速度)を超えたかどうかを判定する。すなわち、プレイヤ操作判定部232は、プレイヤが操作対象オブジェクトを所定の速度を超えて速く動作させたかどうかを判定する。当該所定の速度は、ゲームコンテンツに応じて設定することができる。例えば、ボクシング対戦ゲームのような場合、プレイヤはコントローラを持つ腕を速く動作させることが想定される。従って、ボクシング対戦ゲームの場合には、所定の速度をある程度高速に設定することができる。
 プレイヤ操作判定部232は、プレイヤ入力受付部231により取得された各コントローラ320、330の加速度が所定の値を超えたかどうかを判定してもよい。すなわち、プレイヤ操作判定部232は、プレイヤが操作対象オブジェクトを所定の加速度を超えて動作させたかどうかを判定することができる。当該所定の加速度は、ゲームコンテンツに応じて適宜設定することができる。また、プレイヤ操作判定部232は、コントローラの動作に係る速度と加速度とを組み合わせて、所定の動作値を設定することもできる。
 変化処理部233は、プレイヤ操作判定部232により「YES」と判定された場合、ゲームコンテンツの一部にプレイヤが不利となる視覚的な変化処理を施す。プレイヤが不利となる視覚的な変化処理は、ゲームコンテンツにより異なる。例えば、ボクシング対戦ゲームの場合には、変化処理部233は、操作対象オブジェクトであるボクシンググローブが視覚的に変化し、対戦相手にパンチが当たらないように処理することができる。なお、一実施形態では、変化処理部233は、オブジェクトの変化処理と共に警告音を発生させたり、警告メッセージを表示することもできる。さらに、一実施形態では、変化処理部233は、オブジェクトの変化処理と共に、ゲーム内パラメータ(耐久度パラメータ等)が減少することを表示してもよい。こうして、プレイヤは、自己の動作内容が所定の範囲を超えていることをより明確に認識するようになる。
 ここで、変化処理とは、ゲームシナリオを進行する上で、プレイヤが操作するオブジェクト又はプレイヤが作用を及ぼすオブジェクトに対して、プレイヤの動きが一定の速さを超えない場合と比べてプレイヤが不利になるように処理することを意味する。不利になるような処理には、オブジェクトの変形のほか、ゲームキャラクタに設定される各種のパラメータ(体力値、経験値等)が減少することを含んでもよい。このようにして、プレイヤであるユーザは、所定の動作速度を超えた動作をする場合には、ゲームコンテンツを進行する上で不利となる処理がなされる状態を認識するようになり、所定の動作速度を超えることがないように促される。
 画像生成部234は、右手用コントローラ320と左手用コントローラ330の動作に連動して操作対象オブジェクトがコンピュータゲーム内で動くように、ゲーム画像を生成する。所定の動作速度を超えた動作をする場合には、画像生成部234は、変化処理部233によって処理の施された、コンピュータゲームのゲーム画像を生成する。例えば、画像生成部234は、記憶部220から所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によってゲーム画像を生成する。生成されたゲーム画像は、画像出力部235を介して表示装置120へ出力され、表示装置120に表示される。
 図5は、一実施形態に係る方法の処理手順を示すフローチャートである。このフローチャートは、ゲーム機200が1フレームのゲーム画像を生成する処理を表す。フローチャートの最初(ステップS1)から最後(ステップS6)までの処理が完了すると、ゲーム画像が1フレーム分生成され、その後、ゲーム画像の次の1フレームを生成するために、再びフローチャートの最初から同じ処理が繰り返される。
 ステップS1において、トラッキングセンサ130によって撮像された撮像画像データ、又は右手用コントローラ320と左手用コントローラ330の各センサ306によって出力された検知データが、ゲーム機200に出力される。
 ステップS2において、プレイヤ入力受付部231は、受信された撮像画像データ又は検知データに基づいて、右手用コントローラ320と左手用コントローラ330のそれぞれの姿勢を検出する。プレイヤ入力受付部231は、更に、撮像画像データ又は検知データに基づいて、右手用コントローラ320と左手用コントローラ330のそれぞれの位置を検出することができる。
 ステップS3において、プレイヤ入力受付部231は、上記の位置の時間的変化に基づいて、右手用コントローラ320と左手用コントローラ330の速度を検出する。
 ステップS4において、プレイヤ操作判定部232は、右手用コントローラ320と左手用コントローラ330のそれぞれの操作速度が所定の値(例えば所定の速度)を超えるかどうかを判定する。
 プレイヤの操作速度が所定の動作値(例えば速度)を超えた場合、ステップS5において、変化処理部233は、操作対象オブジェクト乃至は敵オブジェクトに対して、通常よりも不利となるような変化処理を施す。この変化処理には、操作対象オブジェクトを劣化させた状態に処理すること、及び、敵オブジェクトを強化させた状態に処理することを含む。
 ステップS6において、プレイヤの操作内容に基づいて、ゲーム画像内の操作対象オブジェクトが動くゲーム画像が生成される。ステップS5において、画像出力部235は、生成されたゲーム画像を表示装置(例えばHMD)120へ出力する。こうして、表示装置120には、プレイヤの動作に連動したコンピュータゲーム内の操作対象オブジェクトのゲーム画像が表示される。プレイヤ160は、右手に持った右手用コントローラ320と左手に持った左手用コントローラ330の操作内容に連動して、操作対象オブジェクトをコンピュータゲーム内で動かすことができる。 
 図6及び図7は、一実施形態における、操作対象オブジェクトの変化処理について説明する図である。例えば、図6では、ヘッドマウント・ディスプレイを装着したプレイヤ160は、コントローラ320、330を使用して、敵と戦うバトルゲームをプレイしており、操作対象オブジェクトの例として「剣」を示している。プレイヤは、右手用コントローラ320を振り上げて(ポジションa)、そして、右腕を振り下ろしている(ポジションb)。このプレイヤの動作に連動するように、仮想現実空間内の「剣」(操作対象オブジェクトa)はコントロールされる。従って、プレイヤが速く腕を振り下ろせば、その動作に応じて操作対象オブジェクトを速く動かすことができる。プレイヤ160が、所定の速さよりも速くコントローラ320を、ポジションaの位置からポジションbの位置へ振り下ろした場合、「剣」は、通常の状態から「折れる」乃至は「ひびが入る」といった状態になり(操作対象オブジェクトa‘)、操作対象のオブジェクトが破壊された変化処理がなされて表示され、敵に攻撃作用(ダメージ)を加えることが制限される。その結果として、プレイヤは、操作対象オブジェクトを必要以上に速く操作することを回避するように促され、コントローラとオブジェクトの連動を保ちつつ、ゲームをいっそう安全に楽しむことができる。なお、同様に、プレイヤが、コントローラを勢いをつけて振り回すような場合でも、「剣」は変化処理されて表示され得る。
 図7に示す例では、ヘッドマウント・ディスプレイを装着したプレイヤ160は、コントローラ330を使用して、ボクシングゲームをプレイしており、操作対象オブジェクトの例として「ボクシンググローブ」(操作対象オブジェクトb)を示している。一実施形態によれば、プレイヤ160が、ポジションcの位置からポジションdの位置へ、所定の速さよりも速くコントローラ330を押し出して操作した場合、「ボクシンググローブ」は透明化処理或いはぼかし処理の変化処理がなされた状態で表示される(操作対象オブジェクトb’)。なお、操作オブジェクトが相手キャラクタの身体をすり抜けるように表示されるようにしてもよい。このようにして、プレイヤは、自らの操作内容が、所定の制限値を超えた場合には、自らのアクションがゲームにおいて無効化或いは無力化することを視覚的に認識することができる。
 図8は一実施形態における、ゲームコンテンツ内のオブジェクトの変化処理について説明する図である。ヘッドマウント・ディスプレイを装着したプレイヤ160は、コントローラ320、330を使用して、敵(敵オブジェクトc)と戦うバトルゲームをプレイしている。プレイヤであるユーザは、右手用コントローラ320を振り上げて(ポジションa)、そして、右腕を振り下ろしている(ポジションb)。このプレイヤ動作に連動するように、仮想現実空間内の「剣」(操作対象オブジェクトa)はコントロールされる。従って、プレイヤが速く腕を振り下ろせば、その動作に応じて操作対象オブジェクトを速く動かすことができる。プレイヤ160が、所定の速さよりも速くコントローラ320を、ポジションaの位置からポジションbの位置へ振り下ろした場合、敵オブジェクトは通常の状態(敵オブジェクトc)から透明化した状態(敵オブジェクトc‘)に変化し、剣は敵オブジェクトを通過するよう表示され、敵に攻撃作用(ダメージ)を与えることができなくなる。その結果として、プレイヤは、操作対象オブジェクトを必要以上に速く操作することを回避するように促され、コントローラとオブジェクトの連動を保ちつつ、ゲームをいっそう安全に楽しむことができる。
 別の実施形態によれば、HMDを装着したプレイヤが手の動きが一定の速さを超えた場合、当該プレイヤに関連付けられたプレイヤキャラクタの所定のパラメータを減少させてもよい。これにより、プレイヤの手の動きが一定の速さを超えない場合と比べて、ゲームにおいてプレイヤが不利になる。所定のパラメータは、例えば、ヒットポイント(許容可能なダメージ量を示す体力値。体力値が所定値を下回ると、プレイヤキャラクタを操作することができなくなる。)、攻撃力(敵キャラクタ等に一回の攻撃で与えることが可能なダメージ量)、および防御力(敵キャラクタからの一回の攻撃により、プレイヤキャラクタのヒットポイントが減少される量)等のゲーム内における各種パラメータを含む。
 別の実施形態によれば、HMDを装着したプレイヤがゲームコントローラを用いてゴルフゲームをプレイする。プレイヤが、ゲームコントローラを操作して、操作対象オブジェクトのゴルフクラブを所定の動作値よりも速く操作した場合には、仮想現実空間内のゴルフクラブオブジェクトが、折れ曲がるように変化処理されて表示される、或いは、ゴルフボールのオブジェクトが透明処理されて表示されてもよい。そうして、プレイヤはゴルフボールをショットできなくなり、適切な速さでクラブを操作するように促される。
 更に別の実施形態によれば、HMDを装着したプレイヤがゲームコントローラを用いて野球ゲームをプレイする。打者であるプレイヤが、操作対象オブジェクトであるバットを所定の速さよりも速く操作した場合には、バットが、折れる、ひびが入る、或いは透明化、半透明化する等の変化処理が施されて表示される。そうして、プレイヤはボールを打ち返すことができなくなり、適切な速さでバットを操作するように促される。
 以上、本開示の幾つかの実施形態を説明したが、本開示はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。
100 ゲームシステム
120 表示装置
122 ディスプレイ
130 トラッキングセンサ
160 プレイヤ
200 ゲーム機
202 プロセッサ
204 メモリ
206 周辺機器インターフェイス
220 記憶部
230 処理部
231 プレイヤ入力受付部
232 プレイヤ操作判定部
233 変化処理部
234 画像生成部
235 画像出力部
300 コントローラ
302 操作ボタン
304 赤外線LED
306 センサ
308 トランシーバ
320 右手用コントローラ
330 左手用コントローラ
400 ゲームサーバ
 

Claims (10)

  1.  ヘッドマウント・ディスプレイを含むゲームシステムの動作を制御するためのゲームプログラムであって、
     前記ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、ゲームを構成する仮想現実空間を前記ヘッドマウント・ディスプレイに表示させ、前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう表示させるものであり、
     前記ゲームプログラムは、前記プロセッサに、
     前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理するステップを実行させる、プログラム。
  2.  前記プレイヤが不利になるように処理するステップは、
     前記プレイヤの動きが一定の速さを超えた場合に、前記プレイヤが操作対象とするオブジェクト、または、前記プレイヤが操作対象とするオブジェクトとは異なるオブジェクトであって前記オブジェクトを前記プレイヤの動きと連動させて移動させることで作用を受ける被作用オブジェクト、の少なくともいずれか一方の状態を変化させる処理を含む、請求項1に記載のプログラム。
  3.  前記プレイヤが不利になるように処理するステップは、
     前記プレイヤが操作対象とするオブジェクトとして、前記プレイヤが操作対象とするゲームキャラクタを示すキャラクタオブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、請求項1または2に記載のプログラム。
  4.  前記プレイヤが不利になるように処理するステップは、
     前記プレイヤが操作対象とするゲームキャラクタを示すキャラクタオブジェクトの状態として、前記ゲームキャラクタに設定されるパラメータを前記プレイヤにとって不利となるよう変化させ、当該変化に応じた視覚的処理を前記ヘッドマウント・ディスプレイに表示させる処理を含む、請求項3に記載のプログラム。
  5.  前記プレイヤが不利になるように処理するステップは、
     前記プレイヤが操作対象とするオブジェクトとして、前記プレイヤが操作対象とするゲームキャラクタと関連付けられた対象オブジェクトであって前記プレイヤの動きと連動して前記仮想空間内において移動する対象オブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、請求項1または2に記載のプログラム。
  6.  前記プレイヤが不利になるように処理するステップは、
     前記対象オブジェクトの状態を劣化させるための処理と、当該処理に応じた視覚的処理を前記ヘッドマウント・ディスプレイに表示させる処理を含む、請求項5に記載のプログラム。
  7.  前記プレイヤが不利になるように処理するステップは、
     前記被作用オブジェクトの状態を、前記プレイヤにとって不利となるよう変化させる処理を含む、請求項2に記載のプログラム。
  8.  前記入力受付装置は、前記プレイヤが保持または装着可能に構成されており、前記入力受付装置の速度を検出するための速度検出器と、前記入力受付装置の加速度を検出するための加速度検出器とのうち少なくともいずれかを備え、
     前記プレイヤが不利になるように処理するステップは、前記検出の結果に基づいて、前記プレイヤの動きが一定の速さを超えているか否かを判定する処理を含む、請求項1から7のいずれか1項に記載のプログラム。
  9.  ヘッドマウント・ディスプレイを含むゲームシステムが、ゲームを構成する仮想現実空間を前記ヘッドマウント・ディスプレイに表示させる方法であって、
     前記ゲームシステムは、プロセッサと、メモリと、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、
     前記方法は、前記プロセッサが、
     前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう前記ヘッドマウント・ディスプレイに表示させるステップと、
      前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理するステップとを実行する、方法。
  10.  ゲームシステムであって、
     前記ゲームシステムは、ヘッドマウント・ディスプレイと、情報処理装置と、プレイヤの身体的な動きを検出可能な入力受付装置とを含み、ゲームを構成する仮想現実空間を前記情報処理装置が前記ヘッドマウント・ディスプレイに表示させ、前記入力受付装置が検出した前記プレイヤの身体的な動きに連動させて、前記仮想現実空間において前記プレイヤが操作対象とするオブジェクトを移動させるよう表示させるものであり、
     前記ゲームシステムは、
     前記オブジェクトを前記仮想現実空間において移動させるための前記プレイヤの動きが一定の速さを超えると、前記プレイヤの動きが一定の速さを超えない場合と比べて前記ゲームにおいて前記プレイヤが不利になるように処理する処理部を含む、ゲームシステム。
     
PCT/JP2016/088949 2016-03-18 2016-12-27 ゲームプログラム、方法およびゲームシステム WO2017158990A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-056316 2016-03-18
JP2016056316A JP5996138B1 (ja) 2016-03-18 2016-03-18 ゲームプログラム、方法およびゲームシステム

Publications (1)

Publication Number Publication Date
WO2017158990A1 true WO2017158990A1 (ja) 2017-09-21

Family

ID=56960927

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088949 WO2017158990A1 (ja) 2016-03-18 2016-12-27 ゲームプログラム、方法およびゲームシステム

Country Status (3)

Country Link
US (1) US10279256B2 (ja)
JP (1) JP5996138B1 (ja)
WO (1) WO2017158990A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108939533A (zh) * 2018-06-14 2018-12-07 广州市点格网络科技有限公司 体感游戏互动方法与系统

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6118444B1 (ja) * 2016-07-28 2017-04-19 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US11794094B2 (en) * 2016-10-17 2023-10-24 Aquimo Inc. Method and system for using sensors of a control device for control of a game
JP6820469B2 (ja) * 2016-12-14 2021-01-27 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6290490B1 (ja) * 2017-04-14 2018-03-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6580619B2 (ja) * 2017-04-14 2019-09-25 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018175503A (ja) * 2017-04-14 2018-11-15 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6941130B2 (ja) * 2017-05-19 2021-09-29 株式会社コロプラ 情報処理方法、情報処理プログラム及び情報処理装置
JP6957218B2 (ja) 2017-06-12 2021-11-02 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6509955B2 (ja) * 2017-06-28 2019-05-08 株式会社コロプラ 情報処理方法、プログラム及び情報処理装置
JP2018181306A (ja) * 2018-02-07 2018-11-15 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN108525296B (zh) 2018-04-24 2019-12-06 网易(杭州)网络有限公司 虚拟现实游戏中的信息处理方法、装置及处理器
US10859831B1 (en) * 2018-05-16 2020-12-08 Facebook Technologies, Llc Systems and methods for safely operating a mobile virtual reality system
KR102120975B1 (ko) * 2018-08-20 2020-06-17 주식회사 픽셀리티게임즈 3자유도 컨트롤러를 이용한 가상 객체의 움직임 구현 장치 및 방법
US10950055B2 (en) 2018-11-03 2021-03-16 Facebook Technologies, Llc Video game controlled by player motion tracking
US20200139226A1 (en) * 2018-11-03 2020-05-07 Beat Games s.r.o. Player tracking video game
JP7089114B2 (ja) * 2019-03-29 2022-06-21 株式会社ソニー・インタラクティブエンタテインメント 境界表示制御装置、境界表示制御方法及びプログラム
CN111249721B (zh) * 2020-01-20 2023-09-01 郑宇洋 一种基于虚拟vr现实技术的游戏设计方法和装置
WO2021163418A1 (en) * 2020-02-12 2021-08-19 University Of Florida Research Foundation Human eyes design: first person vr characters for testing inclusive design solutions
CN114327039A (zh) * 2021-11-24 2022-04-12 青岛歌尔声学科技有限公司 检测vr游戏用户动作的方法、系统及存储介质
US20230256297A1 (en) * 2022-01-26 2023-08-17 Ilteris Canberk Virtual evaluation tools for augmented reality exercise experiences

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125069A (ja) * 2008-11-27 2010-06-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2011104170A (ja) * 2009-11-18 2011-06-02 Konami Digital Entertainment Co Ltd ゲーム装置、動作方法、ならびに、プログラム
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
US20150352441A1 (en) * 2014-06-04 2015-12-10 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5405152A (en) * 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) * 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US5877748A (en) * 1995-11-20 1999-03-02 Redlich; Sanford I. Computer control input interface system
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP5188682B2 (ja) * 2006-04-28 2013-04-24 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステムおよびゲーム制御方法
JP5085059B2 (ja) * 2006-06-28 2012-11-28 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US20080211768A1 (en) * 2006-12-07 2008-09-04 Randy Breen Inertial Sensor Input Device
US20090069096A1 (en) * 2007-09-12 2009-03-12 Namco Bandai Games Inc. Program, information storage medium, game system, and input instruction device
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US8303412B2 (en) * 2009-03-31 2012-11-06 Nintendo Co., Ltd. Game apparatus and game program
US9352218B2 (en) * 2009-04-21 2016-05-31 Nintendo Co., Ltd. Game apparatus and computer-readable storage medium
TW201203030A (en) * 2010-03-16 2012-01-16 Intel Corp A gaming system with safety features
US20120142415A1 (en) * 2010-12-03 2012-06-07 Lindsay L Jon Video Show Combining Real Reality and Virtual Reality
US9317660B2 (en) * 2011-03-31 2016-04-19 Adidas Ag Group performance monitoring system and method
CN103635240B (zh) * 2011-07-01 2015-12-16 英派尔科技开发有限公司 基于姿势的游戏的安全方案
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
GB2495551B (en) * 2011-10-14 2014-04-09 Sony Comp Entertainment Europe Motion scoring method and apparatus
JP5880115B2 (ja) * 2012-02-17 2016-03-08 ソニー株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US8880223B2 (en) * 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
JP5935640B2 (ja) * 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP2014106445A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 電子機器および表示制御方法
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP6334925B2 (ja) * 2013-01-18 2018-05-30 キヤノンメディカルシステムズ株式会社 動作情報処理装置及び方法
US20140240351A1 (en) * 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9878235B2 (en) * 2013-06-07 2018-01-30 Sony Interactive Entertainment Inc. Transitioning gameplay on a head-mounted display
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
WO2015142019A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
US20150273331A1 (en) * 2014-03-31 2015-10-01 Xaviant, LLC (a GA Limited Liability Company) System, Method, and Apparatus for Critical Hits
US20160025971A1 (en) * 2014-07-25 2016-01-28 William M. Crow Eyelid movement as user input
WO2016017997A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
JP2016034480A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 報知装置、運動解析システム、報知方法、報知プログラム、運動支援方法及び運動支援装置
GB2529192B (en) * 2014-08-12 2017-12-06 Sony Interactive Entertainment Europe Ltd Apparatus and method of user interaction
US10449445B2 (en) * 2014-12-11 2019-10-22 Elwha Llc Feedback for enhanced situational awareness
US9814982B2 (en) * 2015-02-25 2017-11-14 Globalfoundries Inc. Mitigating collisions in a physical space during gaming
US10191561B2 (en) * 2015-06-15 2019-01-29 Facebook Technologies, Llc Tracking controllers of a virtual reality system
JP6723720B2 (ja) * 2015-10-20 2020-07-15 キヤノン株式会社 表示システム、情報処理方法及びプログラム
US9939635B2 (en) * 2016-02-29 2018-04-10 Brillio LLC Method for providing notification in virtual reality device
US10281982B2 (en) * 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125069A (ja) * 2008-11-27 2010-06-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2011104170A (ja) * 2009-11-18 2011-06-02 Konami Digital Entertainment Co Ltd ゲーム装置、動作方法、ならびに、プログラム
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
US20150352441A1 (en) * 2014-06-04 2015-12-10 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108939533A (zh) * 2018-06-14 2018-12-07 广州市点格网络科技有限公司 体感游戏互动方法与系统

Also Published As

Publication number Publication date
JP2017169640A (ja) 2017-09-28
US10279256B2 (en) 2019-05-07
JP5996138B1 (ja) 2016-09-21
US20170266551A1 (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP5996138B1 (ja) ゲームプログラム、方法およびゲームシステム
US10936149B2 (en) Information processing method and apparatus for executing the information processing method
JP6401841B1 (ja) 情報処理方法、コンピュータ、及びプログラム
US20180356880A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP6509955B2 (ja) 情報処理方法、プログラム及び情報処理装置
JP2018190163A (ja) 情報処理方法、コンピュータ、及びプログラム
JP6684746B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP6248219B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6425846B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP6479933B1 (ja) プログラム、情報処理装置、および方法
JP6646565B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6580619B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2017170106A (ja) ゲームプログラム、方法およびゲームシステム
JP2019087262A (ja) プログラム、情報処理装置、および方法
JP6263292B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6893532B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP6965304B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP6703578B2 (ja) プログラム、方法及び情報処理装置
JP2017099608A (ja) 制御システム及びプログラム
JP7064265B2 (ja) 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019211865A (ja) コンピュータプログラム、情報処理装置および情報処理方法
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法
JP7037467B2 (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16894607

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16894607

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP