WO2004103864A1 - 物品管理システム、物品管理サーバ、物品管理方法 - Google Patents

物品管理システム、物品管理サーバ、物品管理方法 Download PDF

Info

Publication number
WO2004103864A1
WO2004103864A1 PCT/JP2004/007342 JP2004007342W WO2004103864A1 WO 2004103864 A1 WO2004103864 A1 WO 2004103864A1 JP 2004007342 W JP2004007342 W JP 2004007342W WO 2004103864 A1 WO2004103864 A1 WO 2004103864A1
Authority
WO
WIPO (PCT)
Prior art keywords
article
handling
robot
setting
entity
Prior art date
Application number
PCT/JP2004/007342
Other languages
English (en)
French (fr)
Inventor
Satoshi Sato
Shusaku Okamoto
Masamichi Nakagawa
Kunio Nobori
Osamu Yamada
Tomonobu Naruoka
Yoshihiko Matsukawa
Yasuhiro Morinaka
Katsuji Aoki
Mikiya Nakata
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/532,157 priority Critical patent/US7515990B2/en
Priority to JP2005504501A priority patent/JP3745364B2/ja
Publication of WO2004103864A1 publication Critical patent/WO2004103864A1/ja

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39107Pick up article, object, measure, test it during motion path, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile

Definitions

  • the present invention relates to an article management system, an article management server, and an article management method for managing articles in a predetermined space.
  • the article management system described in the above-mentioned publication only manages the current position of each article in a room (in a space) of a business establishment or a general household, but cannot manage who handled each article. Not performed.
  • One example of managing the handling of goods is to restrict specific people from handling certain goods. For example, considering the ordinary household, it is preferable to restrict the handling of medicine boxes by children. For this reason, measures are generally taken to place items that are prohibited from being handled by children, such that they are out of the reach of children. However, such measures are not necessarily effective in all cases.
  • the present invention has been made in view of such circumstances, and a purpose thereof is to manage the handling of articles by a moving object in a predetermined space, thereby improving convenience. It is to plan.
  • the article management system of the present invention is a system for managing articles in a predetermined space.
  • the article management system includes: a robot that performs the handling operation of the article; a robot control unit that causes the robot to execute the handling operation according to a work instruction; a sensing unit that detects a state of the space; and a detection of the sensing unit.
  • a robot that performs the handling operation of the article
  • a robot control unit that causes the robot to execute the handling operation according to a work instruction
  • a sensing unit that detects a state of the space
  • a detection of the sensing unit When the article is handled by the moving body in response to the result, when the article is handled by the moving body in response to the detection result of the article specifying means for identifying the handled article and the sensing means.
  • an article handling entity identifying means for identifying an article handling entity that has handled the article.
  • the article handling entity specifying means identifies the object issuing the work instruction as the article handling entity handling the article.
  • the state of the space is detected by the sensing means, and when the article is handled by the moving object in the space, the article specifying means specifies the article, and the article handling subject identifying means specifies the article handling subject. . In this way, the handling of articles by the moving object is managed in the space.
  • Another article management system of the present invention includes a robot that executes a handling operation of the article, a robot control unit that causes the robot to execute the handling operation in accordance with a work instruction, and stores information on a handling right set for the article. And a handling right judging means for judging whether or not the subject issuing the work order has the handling right of the article related to the work based on the information stored in the database. Prepare.
  • the robot control means receives the determination result of the handling right determination means and determines the work content of the robot.
  • the article management server of the present invention is a server that manages articles in a predetermined space.
  • the server controls the robot in accordance with a work command and executes a handling operation.
  • the server detects a result of detecting the state of the space and, when the article is handled by a moving body, processes the handled article.
  • An article handling entity identifying means for identifying an article handling entity that has handled the article when the article is handled by a mobile body in response to the detection result;
  • the handling entity identifying means identifies the subject that issued the work instruction as the article handling entity that handled the article.
  • the article management method of the present invention is a method for managing articles in a predetermined space.
  • the method includes a detecting step of detecting a state of the space, an article specifying step of specifying the handled article when the article is handled by a mobile body in response to the detection result of the detecting step.
  • a detecting step of detecting a state of the space receives the detection result of the detection step, when the article is handled by a mobile object, an article handling entity specifying step of identifying an article handling entity that has handled the article;
  • an article handling entity specifying step of identifying an article handling entity that has handled the article.
  • the subject identification step when the moving object handling the article is a mouth pot, the subject that issues a work instruction to the mouth bot is identified as the article handling entity handling the article.
  • FIG. 1 is a block diagram showing the overall configuration of the article management system according to the present embodiment.
  • FIG. 2 is a diagram showing an example in which a gate type reader / writer is arranged on a door or a window.
  • FIG. 3A is a diagram illustrating an example of a modenole image.
  • FIG. 3B is a diagram illustrating an example of a camera image.
  • FIG. 3C is a diagram showing an example of the background difference image.
  • FIG. 4 is a block diagram showing a configuration of the article Z mobile object search / management unit.
  • FIG. 5 is a diagram showing a configuration of the article database and an example of contents described in the article / mobile object database.
  • FIG. 6 is a diagram showing an example of the configuration and description contents of article history data in a door.
  • FIG. 7 is a diagram showing a configuration of a mobile object database and an example of contents described in the article / mobile object database.
  • FIG. 8A is a diagram showing an example of the actual situation of the space.
  • FIG. 8B is a diagram illustrating an example of an environment map including a three-dimensional model.
  • FIG. 8C is a diagram showing an example of an environment map composed of a plane model.
  • FIG. 9 is a schematic diagram illustrating an example of a configuration of a work robot.
  • FIG. 10 is an explanatory diagram showing an example of a state in which an article moves in a space.
  • FIG. 11 is a diagram illustrating an example of the contents of the article database.
  • FIG. 12 is a diagram showing a configuration of the equipment data and an example of the description content.
  • FIG. 13 is a diagram showing an example of description contents of article data.
  • FIG. 14 is a diagram showing an example of description contents of article data.
  • FIG. 15 is a diagram showing an example of the recorded contents of the article database.
  • FIG. 16 is a diagram showing an example of the contents of the article data.
  • FIG. 17 is a diagram showing an example of description contents of article history data.
  • FIG. 18 is a diagram showing an example of description contents of article history data. BEST MODE FOR CARRYING OUT THE INVENTION
  • the article management system is a system that manages articles in a predetermined space.
  • the prescribed space referred to here is a space (living space) where people perform activities, such as general homes, offices, hotels, stores, and hospitals.
  • a general home is taken as an example, and the interior of the home is a predetermined space.
  • space is also referred to as “environment”, and “space” or “environment” is a general term that includes the physical space itself and the surrounding environment that acts on the physical space.
  • “Spatial situation” includes the situation of the space itself and the situation of goods and moving objects existing in the space.
  • the system includes an environment management server 101 (hereinafter, sometimes simply referred to as a server), a work robot 102 (hereinafter, sometimes simply referred to as a robot), an operation terminal 103, and equipment. It consists of 104 broadly divided subsystems. These four subsystems 101 to 104 are connected via a wireless and / or wired network, and transmit and receive information via this network.
  • Each of the four subsystems 101 to 104 includes a control unit 110, 115, 119, 126 and a communication unit 109. Since the communication unit 109 of each of the subsystems 101 to 104 has the same processing, the same reference numeral is assigned.
  • the article refers to an object handled by a person or the work robot 102.
  • the human and the work robots 102 handle articles, and are hereinafter collectively referred to as mobile objects.
  • a mobile that handles goods is called the entity that handles the goods.
  • This system includes a sensing means 120 for detecting and grasping the state (environment) of the space.
  • This sensing means 120 is connected to the environment management server 101 which is the first subsystem.
  • the sensing means 120 includes an entrance / exit sensing unit 121 for detecting a state of an entrance / exit in a space, and an in-environment sensing unit 122 for detecting a situation in a space.
  • the entrance / exit sensing unit 121 detects that the moving object has brought the article into the environment
  • the entrance sensing unit 121 detects that the article has passed through the entrance by the article handling subject.
  • This entrance / exit sensing unit 121 can adopt a configuration including an electronic tag and a reader / writer.
  • An electronic tag is a device that consists of an Ic that stores data and an antenna that transmits and receives data wirelessly.
  • a reader / writer reads information written on the electronic tag and writes information to the electronic tag. It is a device that can do it.
  • gate-type reader / writers (RF antennas) 41 and 42 are provided at the windows 51 and doors 52, which are entrances and exits between the environment and the outside. All the articles passing through the doorway are provided with the electronic tag in advance. It is preferable to embed data related to the article in the electronic tag, for example, data such as the type, shape, and weight of the article, an image of the article, and the date of manufacture.
  • electronic tags are attached to moving objects passing through the entrance in advance.
  • An electronic tag attached to a person may be embedded in something that the person always carries (for example, a watch or a ring).
  • An electronic tag attached to a mobile object should include data about the mobile object, for example, data such as a person's name and date of birth.
  • the reader / writers 41 and 42 installed at the entrances and exits receive information from the electronic tags attached to the goods and moving objects. read.
  • the doorway sensing unit 121 can detect that the article and the moving object have passed through the doorway.
  • the doorway sensing section 121 By installing the reader / writer twice with respect to the doorway, the doorway sensing section 121 not only detects that the article has passed through the doorway, but also whether the article has been brought into the environment or taken out of the environment. That is, it can be detected separately.
  • the first reader / writer is installed outside the opening of the window 51 or the door 52, while the second reader / writer is installed inside the opening of the window 51 or the door 52.
  • the first reader writer installed outside the opening that is, outside the environment
  • detects information from the RFID tag it installs inside the opening, that is, inside the environment.
  • the detected second reader / writer detects the information from the electronic tag
  • the first reader / writer installed outside the opening detects information from the electronic tag after the second reader / writer installed inside the opening detects information from the electronic tag, Can be determined to have been taken out of the environment or the mobile object has gone out of the environment.
  • the reader / writers 41 and 42 are installed so as to surround the top, bottom, left and right of the opening of the window 51 and the door 52. This is to perform detection.
  • the reader / writers 41 and 42 may be installed only at the upper and lower positions of the window 51 and the door 52, only at the left and right positions, or at the center position.
  • the entrance / exit sensing unit 121 is not limited to the configuration including the electronic tag and the reader / writer, and may employ another configuration. Even in such a case, it is preferable that the detection can be performed by distinguishing the carry-out and carry-in of the article. However, articles present in the environment can be detected by the environment sensing unit 122 described later. From this, even if it is not possible to distinguish between taking in and bringing in an object, it is possible to combine the detection result of the in-environment sensing unit 122 with the detection result of the entrance / exit sensing unit 121 to make the article environmentally friendly. It is possible to distinguish whether they were taken outside or brought into the environment.
  • the in-environment sensing unit 122 constantly detects the position and state of articles, equipment (including furniture and the like), people, and the robot 102 existing in the environment.
  • the in-environment sensing unit 122 can adopt a configuration using an image sensor.
  • the in-environment sensing unit 122 using an image sensor is configured such that a camera is fixed to a ceiling, a wall, or the like of a room, and detects an article or the like in the room based on a camera image captured by the camera.
  • the environment sensing unit 122 can use the background difference method. ⁇ 04-8-0 PC P200PC TM? OO ' 7 4 2
  • the background subtraction method is a method in which a model image as a background is prepared in advance, and an object is detected by calculating a difference between a current camera image and the model image.
  • the purpose of the sensing part 122 in the environment of this system is to detect and monitor articles and moving objects in the environment. For this reason, when there is little variation in the situation of the environment, the model image may be an image captured when there is no moving object in the environment. When the environmental situation fluctuates greatly, an image obtained by averaging a plurality of images photographed at predetermined time intervals may be used as a model image.
  • FIG. 3A is a diagram showing an example of a model image
  • FIG. 3B is a diagram showing an image (input image) taken by the camera at a certain point in time
  • FIG. 3C is a diagram showing a model image from the input image
  • FIG. 14 is a diagram showing an example of a background difference image obtained by subtraction. As can be understood from Fig. 3C, the difference between the input image and the model image appears in the background difference image.
  • the in-environment sensing unit 122 may adopt a configuration including an electronic tag and a reader / writer.
  • the Environment in the sensing unit 1 2 2 including the the electronic tag and the reader-writer, which is not shown, constituted by installing many writer in the environment.
  • electronic tags are attached to each item and each mobile object existing in the environment.
  • the reader / writer installed in the environment can read information from the electronic tag attached to each article present in the environment, and the read result can be used even without a camera.
  • the sensing unit 122 in the environment using a camera simply detects the presence of an article, but the sensing unit 122 in the environment using an electronic tag and a reader / writer not only detects the presence of an article but also
  • the information embedded in the electronic tag can be used M04 -s- P PCT / J p 2 oo
  • a plurality of cameras may be arranged in the environment substantially evenly, and all the objects existing in the environment may be imaged by any one of the cameras.
  • simply installing many cameras to eliminate blind spots does not solve the problem of resolution and the problem of overlapping objects. For this reason, it may be difficult to determine what stands out in the background difference image. That is, when the in-environment sensing unit 122 has a configuration using a camera, there is an inconvenience that it is difficult to identify the detected article.
  • the configuration using the camera and the configuration using the electronic tag and the reader / writer have disadvantages.
  • the in-environment sensing unit 122 may be configured to use both the image sensor and the electronic tag, thereby solving both of the disadvantages caused by the single sensor configuration.
  • the hybrid processing is performed in which the position of an article in the environment is specified by the above-described background subtraction method, and the article is specified using an electronic tag. The following two examples are given as specific processing. — S—o 64 PCT P20C PC ;: 2
  • a camera is installed on a ceiling, a wall, or the like in the environment, and a reader writer is attached to the work robot 102 to configure the environment sensing unit 122.
  • An electronic tag is attached to each article and moving object.
  • the position of the article in the environment is specified by the background subtraction method using the camera image.
  • the robot 102 is moved to the vicinity of the specified article, and information is read from an electronic tag attached to the article by a reader / writer attached to the robot 102. Doing so ensures that the item is identified.
  • a camera is installed on a ceiling, a wall, or the like in an environment, and a plurality of reader / writers are installed substantially evenly in the environment to configure the environment sensing unit 122. It is assumed that this reader / writer has directivity for reading data of the electronic tag and the reading direction is variable.
  • the position of the article in the environment is specified by the background subtraction method using the camera image.
  • the reader / writer located closest to the specified article is selected, and the reading direction of the reader / writer is directed to the article.
  • information is read from the electronic tag attached to the article. This makes it possible to identify the article without fail.
  • a relatively strong radio wave is used because the distance between the reader / writer and the electronic tag may be long. For this reason, it is preferable that the reader / writer reads the information of the electronic tag after confirming that there is no person in the environment by, for example, the background subtraction method.
  • the in-environment sensing unit 122 may adopt a method other than the method described here, for example, a configuration using a sensing method using an optical beacon.
  • the sensing means 120 detects a situation in the environment, particularly when a product is brought into or taken out of the environment as described above, and a movement (handling) of an article in the environment is detected, the detection result is sent to the server 101. Send to
  • the environment management server 101 among the situations grasped by the sensing means 120 described above, manages the situation of the articles and the moving objects existing in the environment and the moving object Z moving object detection.
  • An environment map 108 that stores the data of the entire environment and an inquiry (signal) for the data of the article / mobile object database 160 and the data of the environment map 108 are received from outside, and a response signal is transmitted to outside.
  • a communication unit 109 for transmitting and receiving control commands to the robot 102, a handling right setting / changing unit 125 for setting / changing the handling right of articles, and these units 105, 107, 109, and 125.
  • a control unit 110 for controlling.
  • the handling right is the right to permit the mobile to handle a specific article, and is set for each article.
  • this handling right regulates the mobile that does not have the handling right for the article to handle the article or changes the robot's work content.
  • the environment management server 101 can be configured by a general-purpose computer.
  • the computer reads a control program for executing each process described below, so that the computer can function as the environment management server 101.
  • the article Z moving object search / management unit 105 accumulates information on each article and the moving object detected by the sensing means 120 in the article Z moving object database (DB) 160.
  • the article moving object search 'management unit 105 identifies the article based on the information from the sensing means 120, identifies the moving object handling the article, and outputs the identification result to the article Z. Store in mobile DB 160.
  • the article / moving object search 'management unit 105 determines whether the moving object (the article handling entity) has the right to handle the article when the article is handled by the moving object. .
  • the article Z mobile object search / management unit 105 receives an inquiry from the control unit 110 to the article / mobile object DB 160, the information necessary in accordance with the content of the inquiry is obtained. Is extracted from the article / moving object DB 160, and the information is sent to the control unit 110.
  • the article / moving object search 'management unit 105 receives the detection result from the sensing means 120 and detects a state in which the article is handled by the moving object (article handling state).
  • the handling detection unit 31, an article specifying unit 32 that receives the detection result of the article handling detection unit 31, and identifies the article handled by the moving object, and the detection result of the article removal detection unit 31.
  • the goods handling entity identification section 33 that identifies the mobile object (article handling entity) handling the article, the identification results of the article identification section 32, and the article handling entity identification section 33 A handling right judging section 34 for judging whether or not the right of handling the article is set to the article handling entity in response to the specified result.
  • the article handling detection section 31 detects the article handling state at the entrance / exit of the environment based on the detection result of the entrance / exit sensing section 121. Specifically, the article handling detection section 31 detects that the article has been handled by the moving body at the entrance when the entrance sensing section 121 detects that both the article and the moving body have passed through the entrance.
  • the article handling detection unit 31 detects the article handling state in the environment based on the detection result of the environment sensing unit 122. Specifically, when the in-environment sensing unit 122 detects an article in the environment using the background subtraction method, the article handling detection unit 31 described above compares the input image (camera image) with the model image. When an area with a difference occurs, it is detected that an object is handled in that area.
  • the reader / writer that has read information from the electronic tag reads the information from the electronic tag.
  • the reader / writer that has not read the information from the electronic tag can read the information from the electronic tag, However, it detects that the article with the electronic tag is being handled.
  • the article handling detecting section 31 detects the article handling state
  • the article identifying section 32 identifies the article being handled by the article handling entity and stores the information of the article in the article / mobile DB 160. accumulate.
  • the article specifying unit 32 is configured such that the sensing means 120 M04-so c 64 PCT P20CPC TM 47O 7-42
  • the item is specified based on the information from the electronic tag. Also, when the sensing means 120 uses a camera image, it performs an article recognition process based on the camera image and specifies the article.
  • the article handling entity specifying section 33 identifies the article handling entity handling the article, and transmits the information of the article handling entity. Goods Stored in the Z mobile DB 160.
  • the article handling entity identification section 3 3 treats a moving object that has passed through the entrance and exit simultaneously with the article. Identify the subject. This article handling entity may be specified based on information from an electronic tag attached to the mobile object.
  • the article handling entity specifying section 33 specifies the article handling entity as follows.
  • the article handling subject specifying unit 33 causes the camera to image the place where the article is being handled, and adds the image to the image.
  • Face recognition processing is performed on the object, and the moving object is specified by the authentication processing. Since the specified moving object is considered to have been in the vicinity of the handled article, the moving object can be presumed to be the article handling entity.
  • a camera is used as an environmental within sensing unit I 22 is for use in an article detection by background subtraction method is usually a wide-angle camera for photographing a wide area.
  • the image captured by the wide-angle camera has a relatively low resolution, and the resolution may be insufficient for performing the face authentication processing. Therefore, apart from the camera used for the background subtraction method, a narrow-angle high-resolution camera may be installed in the environment or on the robot 102 as a camera for face authentication processing.
  • the article handling subject specifying unit 33 causes the narrow angle force camera to image the area where the article handling detection unit 31 has detected the article taking state, and performs face authentication processing on the image. By doing so, the article handling entity specifying unit 33 can accurately identify the article handling entity.
  • the method of specifying the entity that handles the article in the article handling entity identifying unit 33 is not limited to the face authentication processing, and may be performed by, for example, iris authentication or other authentication processing. Also, the camera image MM s— PCT P20pcT / jP2oo7 / o ⁇ o 7 r2
  • the information of the entity handling the article may be retained by storing the camera image itself in the article / moving object DB 160. This may be performed only when the moving object cannot be identified by the authentication processing.
  • entity handling the article may be specified by using an electronic tag or by using an optical beacon.
  • the identification of the entity that handles the article at the entrance may be performed by an authentication process using a camera image.
  • the handling of articles is not limited to humans, and the robot 102 also handles articles in accordance with the work contents specified by the human at the operation terminal 103 as described later.
  • the article handling entity may be the robot 102, or the object that issues a work instruction to the robot 102 may be the article handling entity.
  • an object that issues a work instruction to the robot 102 is the subject of handling articles.
  • the “subject” that issues the work order includes the person and the server 101.
  • the server 101 issues a work command when the robot 102 automatically executes a task without issuing a work command, as described later.
  • the handling right determination unit 34 is based on the information stored in the article Z moving object database 160, and the article handling entity specified by the article handling entity specifying unit 33 It is determined whether or not a force is permitted to handle the article specified by the article specifying unit 32.
  • the handling right setting Z changing unit 125 sets the handling right of the article, and stores information of the handling right in the article Z mobile database 160 described later.
  • the right-of-authority setting Z changing unit 125 sets the right to handle the article for the moving object and for the moving object group including the plurality of moving objects.
  • the right to handle goods for mobile objects it becomes possible to set the right to handle each mobile object individually.
  • One example is setting the right to handle medicine boxes for “mother”.
  • By setting the handling right of goods for the mobile group there are multiple moving bodies that set the handling right
  • the “parent” of the mobile group includes the father and the mother, which is equivalent to setting the right to handle the medicine box for the father and the mother, respectively.
  • This moving object group may be configured, for example, by a user designating the moving objects included in the group one by one.
  • a mobile group can be formed by giving conditions relating to attributes of the mobile such as age and gender. For example, when a condition that the age is 20 years or older is given, it is possible to configure a mobile group that includes the moving object that satisfies the condition, that is, a mobile object that is 20 years or older.
  • the moving object group can also be configured by the logical product or the logical sum of the moving object group set as described above and the condition relating to Z or the attribute of the moving object.
  • a mobile group B may be configured as a mobile group that includes mobiles that are included in mobile group A and that are at least 20 years of age, or may be included in mobile group A.
  • the moving object group D is possible to configure the moving object group D as a “moving object group including a moving object to be moved and a moving object included in the moving object group C”.
  • the rights setting change unit 125 sets a handling right for each article and / or each article group including articles having the same attribute as each other.
  • a handling right for each article By setting a handling right for each article, it becomes possible to set a handling right for each article individually.
  • One example is setting the right to handle a specific medicine cabinet (medicine-cabinet-0001).
  • a handling right for each product group By setting a handling right for each product group, it is possible to set a handling right for all products with the same attribute when trying to set a right for the same attribute. become.
  • setting a right to handle an article having an attribute of a medicine box is cited.
  • the same handling right is set for the medicine box represented by medicine-cabinet-0001 and the medicine box represented by medicine-cabinet-0002.
  • the handling right setting / change unit 125 automatically sets the handling right according to the attribute of the article, or sets the handling right in response to the setting input of the handling right input by the user at the operation terminal 103.
  • An example of automatically setting a handling right according to the attribute of an article is to set a handling right for alcohol and tobacco whose age is restricted by law. .
  • the age limit information may be embedded in the electronic tags attached to these articles.
  • the handling right setting change unit 125 can automatically set the handling right of the article. If information is not embedded in the electronic tag attached to the article, that is, for articles that do not need to set handling rights according to the attribute of the article, all mobiles should be allowed to handle the article.
  • the handling right setting Z change unit 125 may set the handling right to “all”.
  • the handling right setting Z changing unit 125 will be described later in detail when the handling right of an article is set in response to a setting input by a user. The details of the case of automatically setting the right to acquire the article based on the status of the article will be described later.
  • the information on the handling right of the article set by the handling right setting / change unit 125 is stored in the article DB 161 ′ (see FIG. 5) described later.
  • data on the mobile unit group is stored in a mobile unit DB 163 (see FIG. 7) described later.
  • the article Z moving object DB 160 of the environment management server 101 is a DB that stores information on articles and moving objects, and is configured, for example, as shown in FIGS. That is, the article moving body DB 160 includes article databases 161 and 162 (FIGS. 5 and 6) for handling articles and a moving object database 163 (FIG. 7) for handling moving objects.
  • the article moving body DB 160 includes article databases 161 and 162 (FIGS. 5 and 6) for handling articles and a moving object database 163 (FIG. 7) for handling moving objects.
  • the article DB 161 includes a sub-database for storing three types of data: article data, article history data, and article attribute data. Further, the article history data includes history data in the environment (see FIG. 5) and history data at the doorway (see FIG. 6). The data content stored in each sub-database is as follows.
  • Article data IDs for distinguishing individual articles, pointers to article history data, pointers to article attribute data, and information on handling rights set for the article are stored.
  • IDs for distinguishing individual articles, pointers to article history data, pointers to article attribute data, and information on handling rights set for the article are stored.
  • a plurality of articles of the same type but physically different entities are Xie-s- c
  • the handling right set in this “article data” is the handling right set for individual articles.
  • Article history data This is a sub-database that stores the history of articles handled in the environment, and has four items: time of handling, details of handling, subject of article handling, and position after handling. , Become. Among these, various expressions are conceivable for the expression of the position data.
  • the position is expressed by six parameters.
  • the first three parameters (xl, yl, zl) represent the position of the article (using the center of gravity, etc.), and the last three parameters (ll, ml, nl) represent the orientation of the article.
  • the (article) handling entity in the article history data is the mobile object specified by the article handling entity specifying unit 33 described above.
  • Article genre '1 ⁇ raw data This is a sub-database that stores physical attribute information of the article.
  • attribute information As an example of the attribute information, as shown in FIG. 5, the weight of the article, the size of the shape model, and the image data of its appearance are given. Further, in the “article attribute data”, information on a handling right set for an attribute of the article or an article group including an article having the same attribute is stored.
  • the right to handle an article (article group) having the genre 1 "of the medicine cabinet is set for the parent, the mobile group.
  • the right to handle a specific medicine box (medicine-cabinet-0001) is set for the individual mother “mother”.
  • Article history data 162 This is a sub-database that stores the history of articles handled at the doorway (the door in Fig. 6). The time when the article was handled, the article handled, the handling content, The event consists of 5 items.
  • the content of handling is selectively set as to whether the article was brought into the environment or taken out of the environment.
  • the setting of “article name @ bag C” in the item of handled goods indicates that the article has passed through the door while being put in bag C.
  • Articles in the bread can be detected by installing a reader / writer in bag C.
  • the father stored clothes A, towel C, and umbrella B in bag C and removed them from the environment (room).
  • the event item is an item that is set when the removal of goods is related to the execution of the event. This item is registered by the user making an input.
  • "dad” is associated with the fact that Dad has taken clothes A, towel C, and umbrella B out of the environment (room) by putting them in bag C.
  • the article history data 162 having such a configuration, articles necessary for executing the event can be easily extracted. For example, when "business trip" is designated, by referring to the "event” item of the article history data 162, it is possible to extract the goods which were previously taken out when going out on a business trip. In this way, the user can easily confirm the articles required for executing the event when the event that was previously performed is repeatedly performed. Further, when the user designates the task of moving the articles to the predetermined position by the robot 102 or the server 101 automatically designates the task to the robot, the articles necessary for executing the event are Since the information is collected by the robot 102, the convenience for the user is greatly improved.
  • the mobile DB 163 includes sub-databases for storing three types of data, namely, mobile data, mobile history data, and mobile group data. Is as follows.
  • Moving object data IDs for distinguishing individual moving objects, pointers to moving object history data, and attribute information (age and gender in the example in the figure) of each moving object are stored.
  • the mobile object stored in the mobile object data may be manually registered in advance by the user.
  • Moving object history data It consists of three items: the time, the position of the moving object at that time, and the state of the moving object at that time.
  • the moving object unlike the article, occupies a large volume in the space, and becomes an obstacle when the robot 102 moves in the environment. This Zui-S pCT / Jp20o o 3 2
  • the position of the moving object be represented as realistically as possible.
  • the area occupied by the moving object on the floor is represented by a circle. That is, the position of the moving object is represented by the XY coordinates (x4, y4) of the center position of the circle and the radius (rl) of the circle. This is because the robot 102 can create a route while avoiding obstacles, while indicating the position of the moving object with the minimum necessary information.
  • the position of the moving object may employ a more precise expression.
  • the position of the moving object may be represented by approximating the outline of the area occupied by the moving object on the floor using a plurality of line segment vectors.
  • the state of the moving object in the moving object history data indicates a general human motion such as “sit,” “stand,” “sleep,” “walk,” and the like. If it is 102, it indicates an operation performed by the robot 102 on an article, such as “gripping” or “releasing”. For example, a plurality of state candidates that can be the state of the moving object may be prepared in advance, and it may be determined which state or condition the moving object corresponds to based on the detection result by the sensing means 120 or the like. Note that, in the moving body history data relating to the robot 102, not only the operation but also the object ID of the work target and “article ID: operation content” are stored. Specifically, it is "kan-small-0001: grip".
  • Mobile group data IDs for distinguishing individual mobile groups and information on mobiles belonging to the group are stored. Each mobile group is composed of mobiles registered in mobile data.
  • the environment map management unit 107 creates an environment map 108 based on the information from the sensing means 120, and manages the created environment map 108.
  • the environment map 108 is a map used when the robot 102 moves in the environment.
  • the robot 102 acquires the environment map 108 from the server 101 and makes a travel route plan based on the map 108 as described later.
  • the environment map management unit 107 sends necessary information to the control unit 110 according to the content of the inquiry when the control unit 110 makes an inquiry to the environment map 108, which will be described in detail later. Thigh-S- ⁇ € TM 2004 0
  • the environment map management unit 107 may create the environment map 108 by simplifying the actual situation with a three-dimensional model, for example, when the actual situation of the environment is shown in FIG.
  • the management unit 107 may create a two-dimensional environment map 108 using a plane model. Further, the environment map 108 may be created by directly performing a three-dimensional model on the actual situation of the environment shown in FIG. 8A. In other words, the environment map management unit 107 may create the environment map 108 according to the use of the map and the time (time and labor) required to create the map. For example, when it is necessary to create an environment map consisting of a three-dimensional model in an extremely short time, a three-dimensional object existing in the environment may be modeled with a minimum rectangular parallelepiped covering the three-dimensional object. An environment map 108 shown in FIG.
  • FIG. 8B is an example, in which a table and a bookshelf are each modeled by a rectangular parallelepiped, and a bin is modeled by a cylinder.
  • Environment map consisting of planar model is also similar, the environment map 108 shown in FIG. 8 C, modeled respective table ⁇ Pi bookshelf plane orthogonally projecting rectangular area (the hatched regions), circle trash area ( (Hatched area).
  • the two rectangular regions and the circular region are set as regions in which the robot 102 cannot move.
  • the control unit 110 in the environment management server 101 controls the entire server, and the main control contents are as follows.
  • Communication unit 109 When an inquiry about various data in the 1S server is received, the content of the inquiry is determined, and based on the result of the inquiry, it is sent to the article / mobile object search / management unit 105 and environment map management unit 107. Issue a data reference request.
  • the notification unit 123 and the warning unit 124 connected to the server 101 execute notification and warning to the user.
  • a robot control command is transmitted to the robot 102. This causes the robot 102 to stop the acquisition work as described later.
  • the equipment operation command is transmitted to the equipment 104.
  • the electronic lock provided in the facility 104 is unlocked as described later.
  • a robot control command sequence is automatically created in consideration of the condition of the article and transmitted to the robot 102.
  • the robot 102 automatically performs an article handling operation even if the user does not issue a work instruction.
  • the work robot 102 which is the second subsystem, performs an operation for handling articles.
  • the robot 102 makes a movement plan using an obstacle sensor 111 for detecting an obstacle near the robot 102, a gripper 112 for gripping an article, and an environment map 108.
  • FIG. 9 is a schematic diagram showing an example of the structure of the mouth pot 102 in the present system.
  • the robot 102 includes a substantially box-shaped casing 10 that accommodates a movement plan creation unit 113, a control unit 115, and others.
  • the right side of FIG. 9 is referred to as a front side
  • the left side is referred to as a rear side
  • the back side of the sheet is referred to as a left side
  • the near side of the sheet is referred to as a right side.
  • the grip portion 112 is composed of an articulated arm 12a and a hand 12b provided at the tip of the arm 12a, and is attached to the upper surface of the casing 10 described above.
  • the arm 12a and the hand 12b may use a motor-controlled actuator, or may use another actuator, for example, an actuator using an artificial muscle.
  • the moving section 114 is constituted by wheels 14, and two wheels 14 are mounted on each of the left and right sides of the casing 10 (the left wheel is not shown in the illustrated example).
  • the moving unit 114 is configured by the wheels 14, but the moving unit 114 may be configured by selecting an optimal configuration according to the environment in which the robot is used. For example, when the floor of the environment is highly uneven, it is preferable to configure the moving unit 114 as a crawler type / multi-legged type.
  • the obstacle sensor 111 includes an ultrasonic sensor 11a, a camera 11b as a visual sensor, and a collision sensor 11c.
  • the ultrasonic sensor 11a is a sensor that calculates a distance from the force of the sensor 11a to an obstacle by measuring a time from emitting an ultrasonic wave to receiving a reflected wave, and detects an obstacle at a short distance. It is a sensor for detecting before colliding with it. Three ultrasonic sensors are attached to each side (front, rear, left and right sides) of the casing 10.
  • the camera lib is a sensor for inputting the situation around the robot 102 as an image and performing recognition processing on the image to determine the presence or absence of obstacles and obtain more accurate information on the object to be grasped. is there.
  • This camera lib is attached to the front of the casing 10.
  • the collision sensor 11c is a sensor that detects that a predetermined impact force has been applied to the robot 102. For example, the collision sensor 11c detects that an obstacle collides with the robot 102 or that the robot 102 collides with the obstacle while moving.
  • the collision sensor 11c is attached to each of the front surface and the rear surface of the casing 10.
  • the movement plan creation unit 113 creates a movement route from the current position of the robot 102 to the target position using the environment map 108 when the robot 102 performs a task. At this time, there must be no obstacles on the movement route from the current position to the destination position. 8, as described above, a region where the robot cannot move (for example, a hatched region in FIG. 8C) is set. Therefore, by creating a movement route in an area other than the non-movable area, a movement path that avoids obstacles can be created. For example, when the robot is moved from the point A1 to the point A2 using the environment map 108 shown in FIG. 8C, a route that avoids the immovable area while considering the size of the robot 102 (see the arrow in FIG. 8C) Is created. In creating such a moving route, the Dijkstra method, which is the most general method, may be used, or if the environment is complicated, a route search algorithm that is an improved version of the Dijkstra method may be used.
  • a mode in which the user specifies the movement route of the robot 102 is provided. May be.
  • the control unit 115 of the work robot 102 mainly interprets the robot control command sequence sent from the environment management server 101 and sequentially executes the robot control commands.
  • the robot control command is a command for grasping an article or controlling movement of the robot 102 itself.
  • the following three types of “movement”, “gripping”, and “release” are used. Is set.
  • This command moves the robot 102 from the current position to a position specified by coordinates.
  • the coordinates are specified in the world coordinate system, and the movement route from the current position to the destination position is planned by the movement plan creation unit 113.
  • the location of the article is referred to the article DB, and the grasping plan is created by the grasping unit 112.
  • Robot control commands are not limited to these three types, and may be increased as necessary.
  • the working robot 102 is a self-propelled robot having a moving unit 114. twenty four
  • the working port pot 102 is not limited to this configuration.
  • the work robot 102 may have a configuration in which the above-described grip portion 112 including the arm 12a and the hand 12b is assembled to a guide rail attached to a ceiling in an environment.
  • the work robot 102 having this configuration can move in the environment by the above-described gripping portion 112 being guided by the guide rail and move, whereby the specified article in the environment is designated. Work to move to the position can be performed.
  • the work robot 102 may have a configuration in which a plurality of grip portions 112 (composed of the arm 12a and the hand 12b) are fixedly installed at predetermined positions in the environment.
  • each of the grips 112 is arranged such that all the articles existing in the environment can be gripped by any of the grips 112.
  • the working port pot 102 having this configuration selects the grasping section 112 from which the hand 12b reaches the article from among the plurality of grasping sections 112, and The selected gripper 112 may grip the article, and move the article gripped by the arm 12a and the hand 12b to a designated position.
  • the destination of the article is out of reach of the arm 12a of the gripper 112 holding the article, the article is moved to the designated position by sequentially handing the article between the plurality of grippers 112. I'll do it.
  • An operation terminal 103 which is a third subsystem, is a user interface in the present system, and is a terminal operated by a user mainly to instruct the robot 102 to perform an article handling operation.
  • the operation terminal 103 has, as its basic configuration, a display section 117 composed of, for example, a CRT or a liquid crystal display, for displaying various screens, and performs input on a screen displayed on the display section 117.
  • a display section 117 composed of, for example, a CRT or a liquid crystal display, for displaying various screens, and performs input on a screen displayed on the display section 117.
  • an input unit 116 composed of a pointing device or a keyboard
  • a display control unit 118 that performs display control such as creation of a screen displayed on the display unit 117, and a robot 102 input through the input unit 116.
  • a communication unit 109 that sends work contents and inquiry contents to the environmental management server 101, and a control unit that controls these units 109, 116 to 118 M04 -s- shi PC C beginning 20 o
  • the operation terminal 103 can be constituted by, for example, a general-purpose PC. In this case, by reading the control program by the PC, the PC can function as the operation terminal 103.
  • an operation screen for designating the work contents of the robot 102 On the display unit 117 of the operation terminal 103, an operation screen for designating the work contents of the robot 102, an input screen for inputting contents of inquiry of the goods to the server 101 (contents for searching for goods), and a screen for setting handling rights are provided.
  • the setting screen is displayed.
  • the user designates the work content of the robot 102, inquires of the server 101 for information on articles registered in the article / moving object DB 160, and sets a handling right.
  • the operation terminal 103 performs user authentication processing when the user specifies work contents, inputs inquiries, and sets handling rights.
  • the authentication processing may be performed by inputting a password to the operation terminal 103, or may be performed by performing biometrics authentication processing such as fingerprint authentication, face authentication, voiceprint authentication, and iris authentication.
  • the information of the mobile unit (user) identified by the authentication process in this way is used to specify the entity that handles the goods, as described later.
  • the fourth subsystem, equipment 104 is one that is 'fixed' in the environment and usually not mobile.
  • it shall have a storage section for storing various articles and an opening and closing door for opening and closing the opening of the storage section, and the opening and closing door of the facility 104 shall be provided with an electronic lock. I do.
  • the equipment 104 includes a communication unit 109 that receives an equipment operation command transmitted from the server 101, an operation unit 127 that performs lock / unlock operation of an electronic lock of the equipment 104,
  • the control unit 126 controls the units 109 and 127.
  • the control unit 126 activates the operation unit 127 in response to the equipment operation command transmitted from the server 101, and thereby locks and unlocks the electronic lock. Electronic locks can be locked and unlocked manually.
  • Figure 10 is a bird's-eye view of a certain room (environment) in a general household, where can juice 21 and medicine box 22 enter and exit this room, and can juice 21 and FIG. 4 is a view showing a state in which the medicine box 22 is moved in the environment.
  • a reader / writer which is an entrance / exit sensing unit 121, is installed at the entrance / exit (door) of the room.
  • the reader / writer detects the entry and exit of articles and moving objects while distinguishing them.
  • a reader / writer which is an in-environment sensing unit 122, is installed to detect movement of articles and moving objects in the environment.
  • the can juice 21, the medicine box 22, the person, and the robot 102 are each provided with an electronic tag.
  • the product attribute data of canned juice 21 and medicine box 22 is obtained by reading information embedded in the electronic tag by a reader / writer. It is assumed that the information of each moving object is registered in the moving object data of the moving object DB 163, and that the moving object history data is already initialized. It is also assumed that the article data of article DB161 is empty with nothing recorded.
  • the processing of the system will be described while describing the situation at each time.
  • the entrance sensing unit 121 provided in the door detects that a certain moving body and a certain article have moved into the room.
  • the result of the detection is sent from the sensing means 120 to the article Z mobile object search 'management unit 105, and the article Z mobile object search and management unit 105 receiving the information determines that the article is can juice 21 and the mobile object Each is identified as a father.
  • an ID of [kan-small-0001] is assigned to the can juice 21 and stored in the article data in association with a pointer to the item genus data (see FIG. 5).
  • the article mobile object search 'management unit 105 stores the article attribute data of the can juice 21.
  • the handling right is set for “everyone”. This is due to the fact that information such as age restrictions was not embedded in the electronic tag of canned juice 21 and the handling right setting / change section 125 1
  • the handling right for the attribute of canned juice was set to "everyone" .
  • the moving objects included in this moving object group are a father, a mother, a son, a daughter, and a robot, as shown in the moving object group data in FIG.
  • the article Z mobile object search 'management unit 105 creates "position history list 1" for storing the movement history of the can juice. At this point, the location history list 1 in the environment remains empty.
  • the article Z mobile object search / management unit 105 sets the contents of the article history data 162 for managing the entry / exit of articles at the door (see FIG. 6).
  • the article history data 162 for managing the entry / exit of articles at the door (see FIG. 6).
  • the article / moving object search / management unit 105 refers to the position history of the ID “dad” in the moving object DB 163 and reads “position”. Set the contents of "History list 3" (see Fig. 7). Concrete In general,
  • the position “1” indicates that the moving object has moved into the environment from outside the environment.
  • the position information may be set to the position information of the door that passed when entering the room.
  • the object moving object search / management unit 105 sets a new content in the position history list 1 of the item history data 161 (see FIG. 5). See).
  • the handling content of “new” means that an article that did not exist in the environment was newly brought in from the outside.
  • Management unit 105 sets new contents in the position history list 3 of the mobile object history data 163 (see FIG. 7). In particular,
  • a son that is another moving object registered in the moving object data of the moving object DB 163 (Ministry of Illustration) Xie-s-PC JP20k: T / jP 20 . ; 0
  • the article handling entity identification section 3 3 identifies the article handling entity.
  • the handling right judging section 34 receives these specified results and judges whether or not the son has the handling right for the can juice 21.
  • the handling right judging unit 34 first confirms whether or not the handling right is set for the can juice 21 by referring to the article data (see FIG. 5) of the article DB 161. . In this case, no handling right is set for canned juice 21. Therefore, the next step is to confirm the handling rights set for the attribute of canned juice by referring to the raw data of item 1 ".
  • the right to set is set for" everyone "in the mobile group. ing.
  • the “all” of the mobile group includes a son, so it is determined that the son has the right to handle canned juice. Therefore, in this case, the son is not restricted from handling canned juice 21.
  • the article moving object search / management unit 105 sets new contents in the position history list 1 of the article history data 161 (see FIG. 5).
  • the article moving object search / management unit 105 sets new contents in the position history list 1 of the article history data 161 (see FIG. 5).
  • the position is “one” because the dad goes out of the environment, and the sensing unit 122 in the environment cannot detect the dad.
  • the position information the position information of the door that has passed when going out may be set.
  • the dad operates the operation terminal 103 before entering the room, and inputs a work instruction to the robot 102.
  • the content of the work order is to move the can juice 21 to a predetermined position outside the environment.
  • the robot 102 that has received the work instruction via the server 101 moves to the position P2 (x2, y2) of the can juice and holds the can juice. .
  • the handling right determination unit 34 of the article / moving object search / management unit 105 determines the handling right.
  • the actual article handling entity of the canned juice 21 is the robot 102, but in the present system, the subject that issues a work instruction to the robot 102 is specified as the article handling entity.
  • the target who issued the work instruction is specified based on the authentication result. . Therefore, the father who handles the goods in this case is the father. Since the right to handle canned juice is set for everyone, Dad has the right to take out canned juice. Therefore, the work of moving the can juice 21 by the robot 102 is not restricted.
  • the article / moving object search / management unit 105 stores the moving object history data 163 (position Hello— s— PC 20;:,
  • the new contents are set in the placement history list 5) (see Fig. 7).
  • the new contents are set in the placement history list 5) (see Fig. 7).
  • the operation of the robot 102 may be detected by the in-environment sensing unit 122, but the operation of the robot 102 may be detected by receiving operation information from the server 101 1 robot 102.
  • the robot 102 moves out of the environment from the door while holding the can juice 21. This is detected by the in-environment sensing unit 122, and the article Z mobile object search 'management unit 105 sets new contents in the position history list 5 of the mobile object history data 163 (see FIG. 7).
  • the article Z mobile object search 'management unit 105 sets new contents in the position history list 5 of the mobile object history data 163 (see FIG. 7).
  • the article Z moving object search / management unit 105 sets new contents in the position history list 1 of the article history data 161 (see FIG. 5).
  • the article Z moving object search / management unit 105 sets new contents in the position history list 1 of the article history data 161 (see FIG. 5).
  • the article / moving object search / management unit 105 records, in the article history data 161, an object that has issued a work instruction to the robot 102 as an article handling entity.
  • the entrance / exit sensing unit 121 detects that the robot 102 has passed through the door while holding the can juice 21.
  • New contents are set in the article history data 162 that manages the entry and exit of articles in the store (see Fig. 6).
  • the article history data 162 that manages the entry and exit of articles in the store (see Fig. 6).
  • the object that issued the work instruction to the robot 102 is stored as the article handling entity.
  • a mother who is still another moving object registered in the moving object data of the moving object DB 163 enters the room with the medicine box 22 from the door.
  • the entrance / exit sensing unit 121 detects that the mother and the medicine box 22 have moved into the room.
  • the article moving object search 'management unit 105 assigns an ID of [medicine-cabinet-0001] to the medicine box 22 and stores it in the article data in association with a pointer to article attribute data.
  • the handling right is set to “parent”.
  • the moving objects included in this moving object group are a father and a mother as shown in the moving object group data of FIG. It is assumed that the handling right is set by the handling right setting / change unit 125 in response to the father or mother performing the setting input of the handling right on the operation terminal 103.
  • the article Z moving object search 'management unit 105 creates a "position history list 2" for storing the movement history of the medicine box 22 (see Fig. 5). At this point, the location history list 2 is empty.
  • the article Z moving object search 'management unit 105 sets new contents in the article history data 162 for managing entry and exit of articles at the door (see FIG. 6).
  • the article / moving object search / management unit 105 stores / updates the information of the article / moving object in the article / moving object DB 160.
  • the database is updated each time the position of each article or moving object registered in the article Z moving object DB 160 is changed.
  • the database update timing is not limited to this, and may be set as appropriate.
  • the handling right setting / change unit 125 of the server 101 sets the handling right of the medicine box 22 (medicine-cabinet-0001) to the mother in the article data of the article DB 161 (see FIG. 5). See).
  • the management unit 105 determines the handling right.
  • the right to use medicine box 2 (medicine-cabinet-0001) is set to "Mom", so the right-of-authority judging unit 34 says that the son has the right to use medicine box 22. It is determined that there is not.
  • the control unit 110 executes a warning by the warning unit 124. Warning section 124 provides a warning within the environment in which the article is being handled. For example, you may be warned by voice that there is no handling right.
  • the warning by the warning unit 124 is not limited to sound, and may be displayed on the display unit 117 of the operation terminal 103 or on a television, a computer display, or a projector installed in a room, for example. In this way, a warning is given to the son handling the goods, and also to other mobiles (such as mothers) in the environment, which allow the son to collect the goods. It can be expected to stop handling.
  • the control unit 110 executes the notification by the notification unit 123.
  • the notification unit 123 provides notification outside the environment where articles are handled (in this case, notification that the son is handling the medicine box 22).
  • the notification unit 123 is a mobile unit that has the right to handle the medicine box 22 in particular.
  • the notification unit 123 may display the fact on a television, a computer display, or a projector installed in an environment different from the above environment (an environment in which any moving object is present). In an environment where such a moving object is present, a voice notification may be given. By making such a notification, for example, a small child can inform the parent when the parent is not present and trying to use drugs, tobacco, alcohol, etc. It is effective.
  • this system regulates the handling of goods by mobiles that do not have the handling right.
  • the son operates the operation terminal 103 and inputs a work instruction to the robot 102.
  • the content of the instruction is to move the medicine box 22 to its own position.
  • the system issues a work command to the robot 102.
  • the handling of the article by the robot 102 is restricted as in the case where the son handles the article by himself.
  • the environment sensing unit 1 detects that the robot 102 handles the medicine box 22.
  • the article / moving object search / management unit 105 determines the handling right.
  • the control unit 110 transmits a robot control command to the robot 102.
  • This robot control command is a command for instructing the robot 102 to stop the handling operation of the article.
  • the robot 102 that has received the robot control command stops working.
  • control section 110 transmits a control signal to operation terminal 103 and causes display section 117 of operation terminal 103 to display that the son does not have the handling right.
  • the display unit 117 may display a warning message that “there is no right to use”, or a symbol (for example, “X”) or an illustration that suggests that there is no right to use. May be.
  • the server 101 may operate the equipment 104 in order to surely prevent a mobile body having no handling right from handling the article.
  • control unit 110 of the server 101 receives the determination result of the handling right determination unit 34 and transmits a facility operation command to the facility 104 when the article handling entity does not have the handling right of the article.
  • the control unit 126 of the equipment 104 controls the operation unit 127 to lock the electronic lock. In this way, when an article to be handled by the mobile object is stored in the accommodation section of the facility 104, the opening / closing door does not open, and it is possible to reliably prevent the mobile object from handling the article. Will be possible.
  • the control unit 110 of the server 101 issues a warning by the warning unit 124 or performs a notification by the notification unit 123 as described above.
  • the suspicious individual may be imaged by a camera installed in the environment as the sensing means 120, and the camera image may be stored.
  • the server 101 sends a facility operation command to the facility 104 as described above, and locks the door of the facility 104 to handle the article by the suspicious individual. May be disabled.
  • the control unit 110 of the server 101 prevents the suspicious person from handling the article by the robot 102, and the robot 102 takes over the suspicious person. Or you may be.
  • the handling right can be set collectively for the article having the same attribute, and the setting of the handling right can be facilitated.
  • the handling right can be set collectively for the article having the same attribute, and the setting of the handling right can be facilitated.
  • the handling right When setting the handling right in the operation terminal 103, it is not limited to inputting in the input unit 116, and the handling right may be set by voice. For example, when a voice saying “Set the handling right of the medicine box to the mother” is issued, the handling right setting Z changing unit 125 sets the handling right of the medicine box to the mother.
  • a user authority for setting the handling right may be provided.
  • the authentication process may be performed when the user operates the operation terminal 103, and the user having the authority to set the handling right may be identified.
  • the article / moving object DB 160 stores various information related to the article. Therefore, in this system, when the user operates the operation terminal 103,
  • the user operates the input unit of the operation terminal 103 to input search conditions for articles.
  • the article DB 161 stores article attribute data and article history data as shown in Fig. 5 as well as the name of the article, so that the article type, article handling entity, date and time of handling, It is possible to search using the handling right or the like as a search key.
  • the mode of inputting the search condition on the operation terminal 103 may be a mode of inputting such a search key.
  • a colloquial sentence such as “Who moved the money placed on the table at the time of MM / MM / DD / TT?” May be input.
  • the information of the search condition input to the operation terminal 103 is sent to the environment management server 101 via the network. Having received the information, the article / moving object search / management unit 105 of the server 101 refers to the article / Z moving object DB 160 and searches for information that matches the designated condition. A general method can be used for such information retrieval.
  • the search result by the article / mobile object search 'management unit 105 is sent from the server 101 to the operation terminal 103 via the network.
  • the operation terminal 103 having received the search result presents the search result to the user.
  • a map of the environment may be displayed on the display unit 117, and the current location of the article may be indicated on the map.
  • information may be presented to the user by voice, for example, "the item has been moved by a mother on a shelf.”
  • the right-of-authority determination unit 34 determines whether or not the inquiring mobile has the right to handle the article related to the inquiry. Is good.
  • the inquiring mobile body does not have the right to handle the goods related to the inquiry, it says, "Mother moved to the shelf, but you You cannot handle it because you do not have the right. " Furthermore, if the inquiring mobile does not have the handling right, the inquiry itself may be regulated by presenting information such as “I cannot answer” or “No J” to the user.
  • the handling right setting Z changing unit 125 may set a handling right that regulates the removal of articles from the environment to the outside while permitting the handling of the articles in the environment.
  • the handling right determination unit 34 determines whether or not the article handling entity has the right to handle the article. Then, according to the determination result, the control unit 110 may issue a warning by the warning unit 124 and a notification by the notification unit 123.
  • handling right setting / changing unit 125 may be able to set a handling right for restricting the bringing of articles into the environment. Setting of handling rights according to the situation in one environment
  • the handling right setting / change unit 125 automatically sets the handling right of the article based on the handling history of the article.
  • the handling right setting Z changing unit 125 sets the handling right of the new article to the moving object that brought the article when the article is brought into the environment.
  • FIG. 11 shows an article DB161 with respect to a diary (ID: diary-0001).
  • the article attribute data of the diary is obtained from the electronic tag attached to the diary and recorded in the article attribute data. It is assumed that the handling right of the diary has not been set.
  • the handling history of the diary has already been recorded in the article history data 161 of the diary by the article management by the sensing means 120 and the server 101 described above.
  • the handling entity of the diary is the daughter, and that the moving objects other than the daughter do not handle the diary.
  • the entity that handles the goods is identified ⁇ -s- pcq p20pcT
  • the handling right setting change unit 125 sets the handling right of the diary (ID: diary_0001) to the daughter. At this time, the handling right setting Z changing unit 125 may notify the daughter that the handling right has been set before registering the set handling right in the database.
  • the handling right of the article may be set to the moving object group.
  • the handling entity of goods (article group) having a specific attribute is limited to a specific mobile object (or mobile object group)
  • the right to control the object group Should be set to the mobile (or mobile group).
  • the handling right is set based on the article history data 161, but it is also possible to set the article clearing position and the clearing state based on the article history data 161.
  • the times at times tl to t2, t3 to t4, and t5 to t6 are sufficiently shorter than the times at times t2 to t3 and t4 to.
  • the diary has been placed at (x2, y2, z2) for a long time in the (12, m2, n2) direction.
  • position (x2, y2, z2) corresponds to a drawer on the desk in my daughter's room, which is locked.
  • the lock state history as shown in FIG. 12, for example, it is assumed that equipment data and state history data are recorded in the server 101 as data indicating the state of the equipment 104. In this status history data, the status change content “Unlock” indicates unlocking, and “Lock” indicates locking.
  • the position and condition of the diary can be set as follows. Clearing position: (x2, y2, z2, 12, m2, n2)
  • the handling right, clearing position, and clearing status automatically set in this way are registered in the database as article data, respectively, as shown in FIG.
  • the mobile Before registering the clearing status in the database, notify the mobile that has the right to handle the article that the clearing position and clearing status have been set, and have the mobile check the clearing position and clearing status. May be. Further, the clearing position and the clearing state of the article may be manually set by a moving object having the right to handle the article.
  • the handling right, clearing position, and clearing status can be automatically changed based on the product history data.
  • the mobile having the right of ownership may be able to instruct the system to terminate the learning.
  • the handling right, clearing position, and clearing state may be set by learning, and for less frequently used items, the setting by learning may not be performed. Information on whether to perform learning may be embedded in the electronic tag attached to the article.
  • a moving body having the handling right may change the automatically set clearing position and clearing state.
  • the clearing position and the clearing state are changed, if there are multiple mobiles with the right to handle the article, it is desirable to notify all mobiles with the right of handling that the change has been made.
  • the change of the cleaning position and cleaning condition may not be possible unless all moving objects having the handling right permit.
  • the automatic setting of the handling right when a new article is brought into the environment may be performed as follows.
  • the fact that the article has been brought into the environment by the moving object is detected by the entrance sensing unit 121, and the article and the moving object are respectively specified by the article / moving object search / management unit 105. Then, when the article and the mobile are specified, the right to handle the article is set for the mobile. Through such processing, for example, when shopping and bringing a large amount of new articles into the environment, the right to handle each article is set efficiently.
  • the robot can automatically perform the clearing operation of the article based on the data. This will be described with reference to FIGS.
  • the daughter who has the right to handle the diary takes out the diary from the drawer of the desk and moves it to the position (xl, yl, zl, ll, ml, nl). After that, let's say that he left the room without moving to the drawer, which is the place to clear the diary.
  • the diary is left at the position (xl, yl, zl, ll, ml, nl), and the absence of a daughter in the vicinity is detected by the sensing means 120.
  • the server 101 causes the mouth pot 102 to perform an operation of moving the article to the set clearing position.
  • the handling right setting Z change unit 125 of the server 101 temporarily invalidates the handling right set for the article, and allows the robot 102 to execute the handling work of the article.
  • the handling right setting Z changing unit 125 temporarily invalidates the handling right of the diary.
  • the control unit 110 of the server 101 instructs the robot 102 to put the diary located at (xl, yl, zl, ll, ml, nl) in the clearing position (x2, y2, z2, 12, m2). , N2).
  • the robot 102 moves to the position (xl, yl, zl, ll, ml, nl) to grasp the diary, and then moves to the position (x2, y2, z2, 12, m2, n2). ) Go to and release the diary.
  • the diary is then stored in the desk drawer, which is the place to put it away. Also, since the diary is set to be cleared, the control unit 110 of the server 101 transmits a facility operation command to the desk in order to lock the drawer. The desk that receives the equipment operation command locks the drawer.
  • the handling right setting / changing unit 125 switches the handling right of the diary to valid. Then, the handling right of the diary is Xie-s- ⁇ T / . 732
  • the above-described operation of clearing the article by the mouth pot 102 may be omitted.
  • the execution of the clearing work may be confirmed with respect to the moving object having the right to acquire, and the clearing operation may be performed when the moving object permits.
  • whether or not the force to automatically execute the work of putting away the articles by the mouth pot 102 may be set in advance by a mobile body having the right to handle the articles.
  • the handling right was temporarily invalidated.
  • the handling right setting Z change unit 125 temporarily sets the handling right for the robot 102 so that the robot 102 performs the clearing work. May be enabled.
  • This task of clearing articles by the robot is particularly effective for articles that it is desirable to restrict the handling of specific moving objects.
  • medicine boxes for example, are items that should be restricted from being handled by children.
  • the medicine chest is therefore placed out of reach of children, for example on a chest of drawers.
  • the medicine chest is left in a place where children can reach, for example, forgetting to return to the predetermined cleaning position or falling from the cleaning position to the floor due to an earthquake.
  • the sensing means 120 detects that the medicine box is left in a position different from the clearing position, the handling right of the medicine box is temporarily invalidated as described above, and the robot 102 Perform the medicine box clearing operation. By doing so, danger can be avoided.
  • the robot 102 In addition to the work of automatically clearing articles by the robot 102, when a mobile object having a handling right issues a work command to the robot 102, the robot 102 naturally performs the work of clearing articles.
  • the robot 102 may --> CT / JP2 4 3
  • Figure 14 shows article data for a shirt (ID: s hirt-0001).
  • Article status is added to the article data shown in FIG. 14 in comparison with the article data shown in FIG.
  • the goods status includes the son's room and the dressing room, and the handling right, clearing position, and clearing status are set for each.
  • the right of handling is set to the son
  • the tidying position is set in the closet
  • the tidying state is set to fold.
  • the clearing position is set for the laundry basket, and the clearing state is not set.
  • the handling right is set to "son" and no other mobiles can handle the shirt. Also, since the clearing position and clearing state of the shirt are set respectively, for example, when the shirt is left on the floor of the son's room, the handling right is temporarily set by the handling right setting / change unit 125 as described above. Is invalidated, and the cleaning operation by the robot 102 is executed. The shirt is then folded inside the chest.
  • the handling right set for the item may be overridden, or the handling right may be changed to “Everyone”. By doing so, all mobiles can discard trash.
  • the handling right is changed to everyone, it is desirable that the handling content be limited to waste disposal and other handling be restricted. This is to prevent privacy from being compromised or confidential information being leaked by the contents of the garbage being seen by others.
  • the server 101 notifies the mobile unit of the change of the handling right by the notification unit 123.
  • the mobile object to be notified may be a mobile object that had a handling right up to that point or a mobile object that has a new right of ownership due to a change in the handling right.
  • the moving object may be notified only when a moving object that has a new handling right is located in the vicinity of the article.
  • the handling rights of each article contained in the container are different from each other, and the handling right of each article is different from the handling right of the container. For this reason, who is allowed to handle containers that contain each item? The problem arises. In such a case, the handling right set for the container containing the goods is given priority, and the handling right for each item contained in the container is temporarily invalidated or set for the container. It may be necessary to change the handling right of each article that matches the handling right to be used, or to add a moving object with the handling right set in the container to the handling right of each article, and execute the process. In this way, the handling rights for each article and the container are matched, and a specific right to use is set for the entire container in which the article is stored.
  • the fact that an article is stored in the container can be detected, for example, by providing a reader / writer in the container. Further, when a specific handling right is set for the entire container in which each article is stored, a process of changing the handling right according to the position of the container may be performed.
  • each article is clothing and a container is a laundry basket.
  • the handling right of the clothes put in the washing basket is not changed (that is, the handling right set in advance for the clothes is kept).
  • the handling right of the clothes put in the laundry basket is made to match the handling right set in the laundry basket.
  • Figure 15 shows the article data and article history data for the shirt and laundry basket.
  • article ID laundry basket—0001 is the laundry basket
  • position (x4, y4, z4) is the position of the washing machine
  • position (x7, y7, z7) is the dressing room
  • position (x8, y8, z8) ) Indicates the position near the washing machine
  • position (x9, y9, z9) indicates the position of the clothesline.
  • the mother brought the laundry basket to the dressing room, and at time t2, the son put a shirt (ID: shirt-0001) into this laundry basket.
  • ID shirt-0001
  • the son can remove the shirt from the laundry basket.
  • the mother carries the laundry basket containing the shirt to the position of the washing machine, and at time t4, the shirt is washed by the washing machine. Then, at time 1: 5, the mother puts the washed shirt in the laundry basket and moves the laundry basket to the clothesline.
  • the handling right for the clothes put in the laundry basket is changed to match the handling right for the laundry basket, so the handling right for the shirt (ID: shirt-0001) is only for the mother. Is set to. Therefore, if the son tries to remove the shirt from the laundry basket, that is regulated.
  • the above processing is effective, for example, even when the container is a bag.
  • the handling right for the other item matches the right set for the item with the highest priority among the items. It is also possible to make Such treatment is effective, for example, when managing valuables such as precious metals.
  • a serving operation can be cited.
  • a serving operation can be cited.
  • the robot 102 serves coffee in accordance with a work command.
  • the handling right setting / change unit 1 changes the right of ownership according to the temperature of the coffee. For example, when the coffee temperature is higher than a predetermined temperature, the right to handle is set only for mobiles of a predetermined age or older, while the coffee temperature is lower than the predetermined temperature (including when the temperature drops). Occasionally, handling rights are set for all mobiles. As a result, robot 102 is restricted from serving hot coffee to small children.
  • the temperature of the coffee can be detected by, for example, an infrared camera.
  • the process of changing the handling right of an article according to the temperature of the article is particularly effective in kitchens that often use a temperature control device such as a stove, for example.
  • the in-environment sensing unit 122 when the in-environment sensing unit 122 is configured to use both the image sensor and the electronic tag, it is possible to detect that the article does not have the original shape as follows. In other words, if the presence of multiple items is detected by the background difference method, but the information read from the electronic tag is less than the number of detected items, or the size or shape of the item from the electronic tag In contrast to reading the information on, if the corresponding article cannot be detected by the background subtraction method, then it can be determined that the article is damaged and does not have the original shape.
  • the method of detecting the damage of the article is not limited to this.
  • the sound in the environment may be detected by a microphone, and the damage of the article may be detected by sound source analysis.
  • the handling right setting Z changing unit 125 changes the handling right of the pottery to all members. After doing so, the control unit 110 of the server 101 causes the mouth pot 102 to execute the work of clearing the damaged article. In this way, damaged items can be cleared away without the need for a person to do the cleaning work. The right to handle damaged items may be revoked.
  • An example of this processing is an example in which a robot assists a person in carrying goods.
  • this process will be described in the case where a dad enters the environment while holding a plurality of articles.
  • the handling right setting Z changing unit 125 sets the handling right of the article to the moving object that brought the article. Therefore, the right to handle all items brought into the environment by the father is set with the father.
  • the present system provides the robot 102 with the task of carrying the articles carried by the dad. To assist.
  • the handling right of the above-mentioned plurality of articles is set to the father, the handling right setting Z change unit 125 temporarily changes the handling right of each article to all, Thereby, it enables the robot 102 to perform a transport operation.
  • the threshold value G-th may be set in advance for each moving object and registered in the database.
  • the weight data of only the container not including the contents is recorded in advance in the database as the item attribute data.
  • Such data can be obtained from data embedded in electronic tags.
  • the handling right for the article is set for any of the mobile units.
  • the weight of the article is periodically detected by the sensing means 120.
  • a weight sensor may be attached to the arm 12a of the robot 102 to detect the weight of the article.
  • the right-of-hand setting Z changing unit 125 sets the right to take the article to the robot 102.
  • the control unit 110 of the server 101 causes the robot 102 to execute the work of discarding the article.
  • This example is particularly useful for articles that require disposal of the container prior to disposal.
  • spray cans are articles that need to be punctured and vented of gas before disposal.
  • the robot 102 can also automatically execute the processing for the container. Also, when sorting and discarding according to the material of the article, the sorting operation can be automatically performed by the robot 102.
  • a spray can is an item that you want to restrict from being handled by children when the contents are present. To do so, it is necessary to set a right to handle spray cans for children. The contents are lost and only the can is Xie-s-.
  • the handling right setting / change unit 125 gives the handling right of the spray can to the child. May be set.
  • the item data shown in FIG. 16 is different from the item data shown in FIG. 13 in that a “location of the item” and a “state near the item” are respectively added.
  • the location of the goods includes the room of the son and the dressing room, and the handling right, clearing position and clearing status are set for each.
  • the situation near the article includes “no person” and “with person”. That is, when a shirt (ID: shirt-0001) is present in the son's room, the right to use is set to the son. On the other hand, when the shirt is present at the dressing room and there is no person near the shirt, the handling right is set for all, whereas when the shirt is present at the dressing room. If there is a person near the shirt, the right of handling is set to the person near the shirt.
  • the robot 102 may execute the work related to the instruction.
  • FIG. 16 is an example in which the change of the handling right is set for each article, but the change of the handling right may be set, for example, in association with a place.
  • the handling right set for the attribute of the article may be changed.
  • the handling right set for the robot 102 may be invalidated.
  • the robot 102 when a person is present in the dressing room, the robot 102 may be prohibited from entering the dressing room. Also, in this case, only those in the dressing room may be allowed to allow the mouth bot 102 to enter the dressing room.
  • This process is a process for preventing improper handling of an article from being performed and enabling the robot 102 to automatically perform an appropriate handling operation.
  • this processing an example relating to clothing has been developed, and the details of the processing will be described below according to the example.
  • FIGS. 17 and 18 show article history data of a shirt (ID: shirt-0001) for which a handling right has been set for the son.
  • position (x3, y3, z3) indicates the chest
  • position (x5, y5, z5) indicates the room of the son
  • position (x6, y6, z6) indicates the position of the entrance. It is also assumed that the clearing position of the shirt is set to (x3, y3, z3, 13, m3, n3).
  • the shirt handling history can be determined.
  • the handling right setting / change unit 125 changes the handling right of the shirt to all the members, and the control unit 110 of the server 101 issues a work instruction to the robot 102 to move the shirt to the laundry basket.
  • the shirt will be automatically placed in the laundry basket.
  • the shirt was washed by the mother at time til.
  • this shirt does not need to be washed, since it has never been taken outside after being washed.
  • the handling right setting Z changing unit 125 does not change the handling right of the shirt.
  • the handling right may be temporarily invalidated and the robot 102 may perform the clearing work.
  • This process is also a process for preventing improper handling of an article from being performed, and for enabling the robot 102 to automatically perform an appropriate handling operation.
  • An example of this processing is an example in which the right to handle food is changed according to the expiration date. In other words, it is desirable to dispose of expired foods and prevent them from being eaten by humans. Therefore, based on the data of the articles managed in the article DB 161, the food whose expiration date has expired is extracted, and the right-of-use setting Z changing unit 125 changes the handling right of the food to only the robot 102. . In this way, when a moving object other than the robot 102 attempts to handle the food, a warning is issued by the warning unit as described above. This warning preferably warns that the expiration date has expired, for example.
  • the expiration date information may be embedded in an electronic tag attached to the food.
  • the server 101 that manages the article may notify the mobile that has the right to expire that the expiration date has expired several days before the expiration date.
  • the above process is a process that changes the right to handle the food after the expiration date.
  • the handling right setting Z changing unit 125 may, for example, perform a process of changing the handling right of the food before the expiration date. In other words, by changing the right to handle food to “all”, the right to handle is also set for mobiles that did not previously have the right to handle. This increases the probability that the food will be consumed before the expiration date. If you change the right to control the food before the expiration date, it is advisable to notify all mobiles that have the right to do so.
  • the handling right setting Z changing unit 125 sets the handling right to “all” for all the articles managed in the database. In this way, anyone can handle the goods that exist in the environment.
  • the mobiles for which handling rights are set include those that operate in an emergency environment, such as firefighters and police officers.
  • firefighters and police officers can be authenticated using a common method that combines ID data and pyrometric authentication.
  • the occurrence of fire can be detected by detecting the temperature in the environment using an infrared camera.
  • the above process is only a process of changing the handling right of goods, but for example, in the event of an earthquake, after changing the handling right of goods, the goods are moved to the set clearing position and clearing state.
  • the returning operation may be automatically performed by the robot 102. In other words, even if the gas tap is opened or the glass breaks due to the occurrence of an earthquake, it is not preferable for disaster prevention if the handling rights restrict the handling of articles.
  • the handling right setting change unit 125 changes the handling rights of all the articles at once, and the control unit 110 of the server 101 sends a command to the robot 102 for all the articles.
  • Priorities should be set for this work in advance. For example, work on gas taps and broken glass that cause secondary disasters should be performed first, and other
  • the server 101 may notify a moving object having a handling right of the article of a set-up position or an article that cannot be returned to the cleared state due to damage. Also, the server 101 may automatically contact the repairer of the item or other contact information.
  • the occurrence of an earthquake can be detected based on a camera image of the environment. For example, it is possible to detect that the entire screen is moving periodically by calculating a difference between frames of a captured image. The occurrence of an earthquake can be detected based on the detection results. The occurrence of an earthquake may be detected by a seismograph.
  • a new handling right can be set according to the position, temperature, state change, etc., as well.
  • the system including the work robot 102 has been described.
  • the article management system may be configured as a system without the work robot 102.
  • the system detects the handling of the article in the environment by the sensing means 120, and also detects that by the sensing means 120 when the robot 102 executes the handling work of the article. are doing. Then, the sensing means 12
  • the article and the article handling entity are specified, and it is determined whether or not the handling right has the power.
  • the robot 102 performs the handling operation of the article according to the work instruction, it is possible to recognize that the robot 102 performs the handling operation of the article without using the sensing unit 120. Therefore, the determination as to whether or not there is a handling right It may be performed when a work order is issued.
  • the work instruction to the robot 102 since the work instruction to the robot 102 includes the article to be worked, the article is specified by the work instruction. Also, by performing authentication performed when a work command is input to the mouth pot 102, the article handling entity is specified.
  • the article Z moving object search 'management unit 105 determines the handling right.
  • the control unit 110 does not transmit the robot control command to the robot 102. In other words, the work content of the robot 102 is eliminated.
  • the control unit 110 transmits a robot control command to the robot 102.
  • the control unit 110 performs the process of determining the work content of the robot 102 in accordance with the result of the determination of the handling right, so that the moving object having no handling right can acquire the article via the robot 102. Treatment is regulated.
  • the article management system is a system for managing articles in a predetermined space (environment), and detects that the article is handled by a moving object in the space. and sensing means 122 receives the result detect by the sensing means I 22, an article specifying section 3 2 identifying the articles handled by the mobile, receives the detection result by the sensing means 122, the article And an article handling entity identification unit 33 that identifies the handling entity of the handled article.
  • the sensing means 122 detects the fact, and upon receiving the detection result, the article identification unit 32 identifies the article and the article handling subject identification unit 33 identifies the article handling. Identify the subject. As a result, the handling of articles by mobiles in the environment is controlled.
  • a right-of-hand judging unit 34 for judging whether the object-handling entity has the right to use the above-mentioned item based on the information stored in the database 161; So-called orchid
  • a handling right setting that is set and stored in the database is further provided with a changing unit 125, and the handling right setting is changed.
  • the handling right By setting the handling right in each case), it becomes possible to set the handling right finely.
  • the handling right is set to the parent (in the above example, the handling right is set to “parent”). The handling right can be easily set.
  • the handling right setting ⁇ change section 125 1S By setting the handling right for each article (in the above example, setting the handling right for the specific medicine box 22), the handling right can be finely set. it can.
  • the handling right setting / change unit 125 sets the handling right for each article group including the articles having the same attribute (in the above example, the handling right is set for all the articles having the medicine box attribute). This facilitates setting of handling rights.
  • a warning section 124 for giving a warning in the space where the article is handled is further provided.
  • a warning is given to a moving body near the article handling entity, for example, when the article handling entity is a child, the handling operation can be effectively stopped.
  • the notification section notifies the fact outside the space where the article is handled.
  • a moving body outside the space can recognize that fact.
  • a parent outside the space can be notified of the fact, and as a result, the handling of goods by the child can be effectively regulated.
  • the sensing unit 121 detects that the article has passed through the doorway connecting the space and the outside by the article handling entity, and the article specifying unit 32 detects the result of detection by the sensing unit 121.
  • the article handling entity specifying unit 33 receives the detection result by the sensing unit 121 and specifies the article handling entity that has passed the article by The entry and exit of goods to the environment is controlled. In addition, it will be possible to regulate the removal of goods and the restriction of carry-in of goods.
  • the article handling subject specifying unit 33 sets a work instruction to the robot 102 when the article is handled by the robot 102.
  • the robot control unit 110 for stopping the handling operation of the robot 102 is further provided. It is possible to reliably restrict a mobile body that does not have the handling of articles via the robot 102 from being handled.
  • the handling right setting / changing unit 125 sets and / or changes the handling right based on the detection result of the sensing means 120, so that the handling right is optimized to the situation in the environment.
  • the robot 102 can automatically perform a predetermined operation, and great convenience is obtained in human activities.
  • the article management system is composed of four subsystems: an environment management server 101, a robot 102, an operation terminal 103, and equipment 104, and these subsystems 101 to 104 are connected via a wireless or wired network.
  • the system was designed to exchange information with each other.
  • the article management system is not limited to this configuration.
  • a configuration in which the operation terminal 103 is integrated with the environment management server 101 may be used.
  • the robot 102 may have a configuration in which not one robot but a plurality of robots cooperate to perform work in parallel. O l
  • the present invention can manage the handling of articles by a moving object in a predetermined space, and can control the handling of articles in a space where humans are active, such as general households, offices, hotels, stores, and hospitals. Useful for management.

Abstract

 空間の状況を検出するセンシング手段120と、物品の取扱作業を実行するロボット102と、センシング手段120の検出結果を受けて、物品が移動体によって取り扱われたときに、その物品を特定する物品特定部32と、その物品を取り扱った物品取扱主体を特定する物品取扱主体特定部33と、を備える。物品取扱主体特定部33は、物品を取り扱った移動体がロボット102であるときには、ロボット102への作業命令を発した対象を物品取扱主体と特定する。

Description

謝 - S-0 4 PCT P20CpCT/JP2004/007342
1
明細書 物品管理システム、 物品管理サーバ、 物品管理方法 技術分野
本発明は、 所定の空間における物品の管理を行う物品管理システム、 物品管理サー バ、 物品管理方法に関する。 背景技術
従来より、 事業所や家庭において電子タグを用いて物品を管理する物品管理システ ムが知られている (例えば特開 2 0 0 0— 3 5 7 2 5 1号公報参照) 。
上記公報に記載された物品管理システムは、 事業所や一般家庭の室内 (空間内) に おける各物品の現在位置を管理しているのみで、 各物品が誰によって取り扱われたか を管理することは行わない。
ところが、 人が活動を行う生活空間 (上記の事業所 (オフィス) や一般家庭は勿論 のこと、 その他ホテル、 店舗、 病院等を含む) では、 様々な人によって、 様々な物品 が取り扱われる。 このため、 空間において、 人による物品の取り扱いを管理すること によって、 種々の利便性が得られると考えられる。
物品の取り扱いを管理する一例として、 特定の人が特定の物品を取り扱うことを規 制することが拳げられる。 例えば一般家庭を考えると、 子供が薬箱を取り扱うことは 規制することが好ましい。 そのために、 子供の取り扱いを禁止する物品は、 その子供 の手が届かないところに置くといった対策が一般的に行われているが、 こうした対策 が全ての場合に有効であるとは限らな 、。
また、 近年、 生活空間で人間と共存しながら人間の生活を支援するためのロボット の研究開発がさかんに行われている。 それによつて将来は、 物品を把持可能なロボッ トが一般家庭等に導入され、 例えば老人等の物品の持ち運びが不自由な人に代わって ロボットが物品の移動を行うといったロボットシステムが実現すると考えられる。 匪— s— ο PC P2 CT 2
2
ところが、 ロボットが一般家庭等に導入されることによって、 新たな不都合が生じ る。 つまり、 上述したように、 子供が取り扱うことができないように薬箱を保管して いたとしても、 その薬箱を、 子供がロボットを操作することによって取り扱うことが 可能になってしまうという不都合である。 発明の開示
本発明は、 このような事情に鑑みてなされたものであり、 その目的とするところは、 所定の空間において、 移動体による物品の取り扱いを管理することにあり、 それによ つて利便性の向上を図ることにある。
本発明の物品管理システムは、 所定の空間における物品の管理を行うシステムであ る。
この物品管理システムは、 上記物品の取扱作業を実行するロボットと、 作業命令に 従って上記ロポットに取扱作業を実行させるロボット制御手段と、 上記空間の状況を 検出するセンシング手段と、 上記センシング手段の検出結果を受けて、 上記物品が移 動体によって取り扱われたときに、 その取り扱われた物品を特定する物品特定手段と、 上記センシング手段の検出結果を受けて、 上記物品が移動体によって取り扱われたと きに、 その物品を取り扱った物品取极主体を特定する物品取扱主体特定手段と、 を備 える。
そして、 上記物品取扱主体特定手段は、 上記物品を取り扱った移動体が上記口ボッ トであるときには、 上記作業命令を発した対象を、 上記物品を取り扱った物品取扱主 体と特定する。
空間の状況はセンシング手段によって検出され、 その空間内で物品が移動体によつ て取り扱われたときには、 物品特定手段がその物品を特定すると共に、 物品取扱主体 特定手段が物品取扱主体を特定する。 こうして、 空間内において、 移動体による物品 の取り扱いが管理される。
そして、 上記物品が上記口ポットによって取り扱われたときには、 当該ロボットへ の作業命令を発した対象を、 上記物品を取り扱った物品取扱主体と特定する。 このこ 腿 - s- 0 4 PCT P200PC™4 OO'7;42
3
とにより、 ロボットを介して物品の取り扱いを行う場合の、 実質的な物品取扱主体が 特定される。
本発明の他の物品管理システムは、 上記物品の取扱作業を実行するロボットと、 作 業命令に従って上記ロボットに取扱作業を実行させるロボット制御手段と、 上記物品 に設定された取扱権の情報を記憶するデータベースと、 上記作業命令を発した対象が その作業に係る物品の取扱権を有しているか否かを、 上記データベースに記憶されて ヽる情報に基づいて判定する取扱権判定手段と、 を備える。
そして、 上記ロボット制御手段は、 上記取扱権判定手段の判定結果を受けて、 上記 ロボットの作業内容を決定する。
本発明の物品管理サーバは、 所定の空間における物品の管理を行うサーバである。 このサーバは、 作業命令に従ってロボットに取扱作業を実行させるロボット制御手 段と、 上記空間の状況を検出した結果を受けて、 上記物品が移動体によって取り扱わ れたときに、 その取り扱われた物品を特定する物品特定手段と、 上記検出結果を受け て、 上記物品が移動体によって取り扱われたときに、 その物品を取り扱った物品取极 主体を特定する物品取扱主体特定手段と、 を備え、 上記物品取扱主体特定手段は、 上 記物品を取り扱った移動体が上記ロボットであるときには、 上記作業命令を発した対 象を、 上記物品を取り扱った物品取扱主体と特定する。
本発明の物品管理方法は、 所定の空間における物品の管理を行う方法である。
この方法は、 上記空間の状況を検出する検出ステップと、 上記検出ステップの検出 結果を受けて、 上記物品が移動体によって取り扱われたときに、 その取り扱われた物 品を特定する物品特定ステップと、 上記検出ステップの検出結果を受けて、 上記物品 が移動体によって取り扱われたときに、 その物品を取り极った物品取扱主体を特定す る物品取扱主体特定ステップと、 を含み、 上記物品取扱主体特定ステップは、 上記物 品を取り扱つた移動体が口ポットであるときには、 当該口ボットへの作業命令を発し た対象を、 上記物品を取り扱った物品取扱主体と特定する。 図面の簡単な説明 OPC ;:;
4
図 1は、 本実施形態に係る物品管理システムの全体構成を示すプロック図である。 図 2は、 ゲート型のリ一ダライタをドアや窓に配置した例を示す図である。
図 3 Aは、 モデノレ画像の一例を示す図である。
図 3 Bは、 カメラ画像の一例を示す図である。
図 3 Cは、 背景差分画像の一例を示す図である。
図 4は、 物品 Z移動体検索 ·管理部の構成を示すブロック図である。
図 5は、 物品 /移動体データベースの内、 物品データベースの構成と記載内容例を 示す図である。
図 6は、 ドアにおける物品履歴データの構成と記載内容例を示す図である。
図 7は、 物品/移動体データベースの内、 移動体データベースの構成と記載内容例 を示す図である。
図 8 Aは、 空間の実状況の一例を示す図である。
図 8 Bは、 立体モデルからなる環境マップの一例を示す図である。
図 8 Cは、 平面モデルからなる環境マップの一例を示す図である。
図 9は、 作業ロボットの構成の一例を示す概略図である。
図 1 0は、 空間内で物品が移動する様子の例を示す説明図である。
図 1 1は、 物品データベースの記载内容例を示す図である。
図 1 2は、 設備データの構成とその記載内容例を示す図である。
図 1 3は、 物品データの記載内容例を示す図である。
図 1 4は、 物品データの記載内容例を示す図である。
図 1 5は、 物品データベースの記载内容例を示す図である。
図 1 6は、 物品データの記载内容例を示す図である。
図 1 7は、 物品履歴データの記載内容例を示す図である。
図 1 8は、 物品履歴データの記載内容例を示す図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図面を参照しながら説明する。 本発明に係る 編 - s cT/™ o 3 2
5
物品管理システムは、 所定の空間における物品の管理を行うシステムである。 ここで いう所定の空間は、 一般家庭、 オフィス、 ホテル、 店舗及ぴ病院等の、 人が活動を行 う空間 (生活空間) である。 本実施形態では、 一般家庭を例に、 その家屋内を所定の 空間とする。 また、 以下では、 「空間」 を 「環境」 とも呼び、 「空間」 又は 「環境」 は、 物理的な空間自体、 及ぴ物理空間に対する働きかけを行う周囲環境を含む総称と する。 「空間の状況」 とは、 空間そのものの状況、 空間内に存在する物品や移動体の 状況を含む。
本システムは、 図 1に示すように、 環境管理サーバ 101 (以下、 単にサーバと省略 することもある) 、 作業ロボット 102 (以下、 単にロボットと省略することもある) 、 操作端末 103及ぴ設備 104 の大きく分けて 4つのサブシステムから構成される。 これ ら 4つのサブシステム 101 〜104 は、 無線及び /又は有線のネットワークを介して接 続されていて、 このネットワークを介して情報の送受信を行う。
4つのサブシステム 101 〜104 はそれぞれ、 制御部 110 , 115 , 119, 126 と通信 部 109 とを備えている。 各サブシステム 101 〜104 の通信部 109 は処理が同じである ため、 同じ符号を付す。
ここで、 物品とは、 人や作業ロボット 102 によって取り扱われるものをいう。 また、 人及ぴ作業ロボット 102 は物品の取り扱いを行うものであり、 以下、 これら総称して 移動体と呼ぶ。 さらに、 物品の取り扱いを行っている移動体を、 物品取扱主体と呼ぶ。
—センシング手段の構成一
本システムは、 空間の状況 (環境) を検出 '把握するセンシング手段 120 を備える。 このセンシング手段 120 は、 1番目のサブシステムである環境管理サーバ 101 に接続 されている。
上記センシング手段 120 は、 空間の出入口の状況を検出する出入口センシング部 12 1 と、 空間内の状況を検出する環境内センシング部 122 とを含む。
(出入口センシング部)
上記出入口センシング部 121 は、 移動体が環境内に物品を持ち込んだこと、 及ぴ移
Figure imgf000008_0001
6
動体が環境外へ物品を持ち出したことを検出する。 つまり、 出入口センシング部 121 は、 物品が物品取扱主体によって出入口を通過されたことを検出する。
この出入口センシング部 121 は、 電子タグとリーダライタとを含む構成を採用可能 である。
電子タグとはデータを蓄える I cとデータを無線で送受信するアンテナとから構成 されるデバイスであり、 リーダライタとは電子タグに書き込まれた情報を読みとつた り、 電子タグに情報を書き込んだりすることのできる装置である。
例えば図 2に示すように、 ゲート型のリーダライタ (R Fアンテナ) 4 1, 4 2は、 環境と外部との出入口である窓 5 1及びドア 5 2の開口部それぞれに配設される。 この出入口を通過する全ての物品には、 予め上記電子タグが付される。 この電子タ グには、 その物品に関するデータ、 例えば物品の種類、 形状、 重さ、 その物品の画像、 製造年月日等のデータを埋め込むのがよい。
さらに、 この出入口を通過する移動体にも、 予め電子タグが付される。 人に付す電 子タグは、 その人が常時携帯するもの (例えば腕時計や指輪等) に埋め込んでもよい。 移動体に付す電子タグには、 その移動体に関するデータ、 例えば人の名前や生年月日 等のデータを謇き込むのがよい。
物品及ぴ移動体がこの窓 5 1やドア 5 2を通過するときに、 その出入口に設置され たリーダライタ 4 1 , 4 2は、 物品及ぴ移動体に取り付けられた電子タグからの情報 を読み取る。 電子タグからの情報を読み取ることによって、 出入口センシング部 121 は、 物品及び移動体が出入口を通過したことを検出することができる。
上記リーダライタを出入口に対して二重に設置することによって、 出入口センシン グ部 121 は、 物品が出入口を通過したことだけではなく、 物品が環境内に持ち込まれ たのか、 又は環境内から持ち出されたのか、 を区別して検出することができる。
つまり、 図示は省略するが、 第 1のリーダライタを窓 5 1やドア 5 2の開口部の外 側に設置する一方で、 第 2リーダライタを窓 5 1やドア 5 2の開口部の内側に設置す る。 この構成によって、 開口部の外側、 つまり環境の外側に設置された第 1リーダラ イタが電子タグからの情報を検出した後に、 開口部の内側、 つまり環境の内側に設置 された第 2リーダライタが電子タグからの情報を検出したときには、 物品が外部から 環境内に持ち込まれた、 又は移動体が外部から環境内に入ったと判定することができ る。 逆に、 開口部の内側に設置された第 2リーダライタが電子タグからの情報を検出 した後に、 開口部の外側に設置された第 1リーダライタが電子タグからの情報を検出 したときには、 物品が環境内から外部に持ち出された、 又は移動体が環境内から外部 に出たと判定することができる。
尚、 図 2では、 窓 5 1やドア 5 2の開口部の上下左右を囲むようにリーダライタ 4 1 , 4 2を設置しているが、 これは電子タグの向きに依存せず高精度の検出を行なう ためである。 リーダライタ 4 1 , 4 2は、 窓 5 1やドア 5 2の上下位置のみ、 左右位 置のみ、 又はその中央位置に設置してもよい。
尚、 出入口センシング部 121 は、 電子タグとリーダライタとを含む構成に限らず、 その他の構成を採用してもよい。 その場合も、 物品の持ち出しと持ち込みとを区別し て検出できることが好ましい。 但し、 後述する環境内センシング部 122 によって、 環 境内に存在する物品は検出可能である。 このことから、 出入口センシング部 121 力 物品の持ち出しと持ち込みとを区別して検出できなくても、 この環境内センシング部 122 の検出結果と出入口センシング部 121 の検出結果とを組み合わせることによって、 物品が環境外に持ち出されたか、 環境内に持ち込まれたかを区別することは可能であ る。
(環境内センシング部)
上記環境内センシング部 122 は、 環境内に存在する物品、 設備 (家具等を含む) 、 人、 及びロボット 102 の位置と状態とを常時検出する。
この環境内センシング部 122 は、 画像センサを利用した構成を採用することができ る。 画像センサを用いる環境内センシング部 122 は、 部屋の天井や壁等にカメラが固 定されて構成され、 そのカメラが撮像したカメラ画像によって、 室内の物品、 その他 の検出を行う。
カメラ画像を用いて環境内の物品や移動体を検出する一般的な方法の一つに、 背景 差分法がある。 環境内センシング部 122 は、 その背景差分法を利用することができる。 Μ04-8-0 PC P200PC™ ?OO'7 42
8
背景差分法とは、 背景としてのモデル画像を予め用意しておき、 現在のカメラ画像と 上記モデル画像との差分を取ることによって、 対象物を検出する方法である。
本システムの環境内センシング部 122 は、 環境内の物品や移動体を検出 '監視する ことが目的である。 このため、 環境の状況変動が少ない場合は、 モデル画像は、 その 環境内に物品 '移動体が存在していないときに撮像した画像とすればよい。 尚、 環境 の状況変動が激しい場合は、 所定の時間間隔を空けて撮影された複数の画像を平均し て得られた画像を、 モデル画像とすればよい。
具体的に、 背景差分法による物品の検出方法について、 図 3を参照しながら説明す る。 ここで、 図 3 Aはモデル画像の例を示す図であり、 図 3 Bはある時点でカメラが 撮影した画像 (入力画像) を示す図であり、 図 3 Cは、 入力画像からモデル画像を差 し引くことによって得られた背景差分画像の例を示す図である。 図 3 Cから理解でき るように、 背景差分画像では、 入力画像とモデル画像との差のある部分が浮き出る
(同図の網掛け部分参照) 。 このため、 その浮き出た部分をそれぞれ取り出すことに よって、 環境内に存在する物品を検出することができる。 また、 その画像に対する画 像処理を行うことによって、 その物品が何であるかを特定することが可能である (こ の処理は、 本実施形態では、 後述する物品特定部 3 2が行う) 。
また、 環境内センシング部 122 は、 上記出入口センシング部 121 と同様に、 電子タ グ及ぴリ一ダライタを含む構成を採用することもできる。
この電子タグとリーダライタとを含む環境内センシング部 122 は、 図示は省略する が、 環境内にリーダライタを多数設置して構成される。 また、 環境内に存在する各物 品及び各移動体には、 電子タグが付される。 この構成により、 環境内に設置されたリ 一ダライタは、 環境内に存在している各物品に付された電子タグからの情報を読み取 ることができ、 その読み取り結果によって、 カメラがなくても、 環境内に存在する物 品や移動体を検出することが可能である。
カメラを用いる構成の環境内センシング部 122 は、 単に物品の存在を検出するだけ であるが、 電子タグとリーダライタを用いる構成の環境内センシング部 122 は、 物品 の存在を検出することに加えて、 電子タグに埋め込まれている情報を利用することが M04- s- P PCT/Jp2oo
9
可能である。 それによつて利便性がさらに高まる。 例えば物品が何であるかを確実に 特定することが可能になる、 物品の製造年月日データによる品質期限の管理が可能に なる、 物品の形状データにより後述するロボット 102 の物品の把持作業が容易になる 等、 である。
尚、 カメラを用いた物品、 その他の検出には、 明るさの変化に弱い、 解像度が低い、 物品が他の物に隠されて見えなくなる、 物品が重なっているとそれらが一つの物品と して検出されてしまうといった、 一般的に多くの問題がある。
例えば死角の問題を解決しようとすれば、 環境内に複数台のカメラを略均等に配置 し、 その環境内に存在する物品は全て、 いずれかのカメラによって撮像可能にすれば よい。 しかしながら死角が無くなるようにカメラを多数設置しただけでは、 解像度の 問題及び物品の重なりの問題は解決しない。 このため、 背景差分画像で浮き出た部分 が何であるかを判断することが困難になる場合がある。 つまり、 環境内センシング部 122 がカメラを用いた構成であるときには、 検出した物品を特定することが困難にな るという不都合がある。
一方、 電子タグとリーダライタとの間のデータのやり取りには人体に影響のない非 常に弱い無線電波を使わなければならず、 電子タグとリーダライタとの間の通信距離 は数 1 0 c mと非常に短い。 このため、 環境内の全ての物品を漏れなく検出するには リーダライタを環境内に多数設置しなければならない。 し力、し、 リーダライタはカメ ラに比べてコストが高く、 環境内に多数設置することは現実的ではない。 環境内セン シング部 122 を電子タグとリーダライタを用いた構成としたときには、 検出した物品 を特定することが容易である反面、 コストの増大を招くという不都合がある。
このように、 カメラを用いた構成と、 電子タグ及ぴリーダライタを用いた構成とは、 それぞれ不都合を有している。 そこで、 環境内センシング部 122 を、 画像センサと電 子タグとの双方を用いる構成とすることによって、 単独のセンサ構成で生じてしまう 不都合を共に解消することが考えられる。 つまり、 上述した背景差分法によって、 環 境内の物品の位置を特定し、 さらに電子タグを使ってその物品を特定するというハイ ブリツド処理を行うのである。 具体的な処理として、 以下の 2つの例を挙げる。 — s— o 64 PCT P20CPC ;:2
10
一つの例は、 環境内の天井や壁等にカメラを設置し、 作業ロボット 102 にリーダラ イタを取り付けて環境内センシング部 122 を構成する。 また、 各物品及ぴ移動体には 電子タグを取り付けておく。 この処理では先ず、 上記カメラ画像を用いた背景差分法 によって、 環境内の物品の位置を特定する。 次に、 特定した物品の近傍に上記ロボッ ト 102 を移動させて、 そのロボット 102 に取り付けたリーダライタによって、 その物 品に取り付けられた電子タグから情報を読みとる。 そうすることによって、 その物品 を確実に特定することができる。
もう一つの例は、 環境内の天井や壁等にカメラを設置しかつ、 その環境内に複数個 のリーダライタを略均等に設置して環境内センシング部 122 を構成する。 このリーダ ライタは、 電子タグのデータ読みとりに関して指向性を有しかつ、 その読み取り方向 が可変であるとする。 この処理では先ず、 上記カメラ画像を用いた背景差分法によつ て、 環境内の物品の位置を特定する。 次に、 特定した物品に最も近い位置に設置され たリーダライタを選択すると共に、 そのリーダライタの読みとり方向をその物品に向 ける。 こうして、 その物品に取り付けられた電子タグから情報を読み取る。 このこと によって、 その物品を確実に特定することができる。 尚、 この例では、 リーダライタ と電子タグとの間の距離が長くなる場合があるため、 比較的強い無線電波が用いられ る。 このため、 例えば背景差分法によって、 環境内に人がいないことを確認した上で、 リ一ダライタが電子タグの情報を読み取ることが好ましい。
尚、 環境内センシング部 122 は、 ここで説明した以外の方法、 例えば、 光ビーコン を用いたセンシング手法を利用する構成を採用することもできる。
上記センシング手段 120 は、 環境内の状況、 特に以上のようにして環境に対する物 品の持ち込み '持ち出し、 及び環境内における物品の移動 (取扱い) を検出したとき には、 その検出結果を、 サーバ 101 に送信する。
—環境管理サーバの構成一
環境管理サーバ 101 は、 図 1に示すように、 上記センシング手段 120 によって把握 した状況のうち、 環境内に存在する物品と移動体との状況を管理する物品 Z移動体検 腿- s— pci ofcT ;:;
11
索 ·管理部 105及ぴその物品及び移動体のデータを蓄積する物品/移動体データべ一 ス 160 と、 上記物品及ぴ移動体以外の環境全体の状況を管理する環境マップ管理部 10 7及ぴその環境全体のデータを蓄積する環境マップ 108 と、 物品/移動体データべ一 ス 160 のデータや環境マップ 108 のデータの問い合わせ (信号) を外部から受信した り、 その応答信号を外部に発信したり、 また、 ロボット 102 に対する制御コマンドを 送信したりする通信部 109 と、 物品の取扱権を設定 ·変更する取扱権設定/変更部 12 5 と、 これらの各部 105, 107 , 109, 125 を制御する制御部 110 とからなる。
ここで、 取扱権とは、 移動体が特定の物品を取り扱うことを認める権利であって、 各物品について設定される。 本システムでは、 この取扱権によって、 物品についての 取扱権を有しない移動体が、 その物品を取り扱うことを規制したり、 ロボットの作業 内容を変更したりする。
この環境管理サーバ 101 は汎用コンピュータによつて構成することが可能である。 この場合は、 後述する各処理を実行する制御プログラムをコンピュータが読み込むこ とによって、 そのコンピュータを環境管理サーバ 101 として機能させることが可能に なる。
(物品 Z移動体検索 ·管理部) ·
物品 Z移動体検索 ·管理部 105 は、 センシング手段 120 によって検出された各物品 及び移動体の情報を、 物品 Z移動体データベース (D B ) 160 に蓄積する。
また、 物品 移動体検索 '管理部 105 は、 センシング手段 120 からの情報に基づい て、 物品の特定を行うと共に、 その物品を取り扱つている移動体を特定し、 それらの 特定結果を上記物品 Z移動体 D B 160 に蓄積する。
さらに、 物品/移動体検索'管理部 105 は、 物品が移動体によって取り扱われてい るときに、 その移動体 (物品取扱主体) がその物品の取扱権を有しているか否かを判 定する。
加えて、 詳しくは後述するが、 上記物品 Z移動体検索 ·管理部 105 は、 制御部 110 から物品/移動体 D B 160 に問い合わせがあった場合に、 その問い合わせの内容に応 じて必要な情報を物品/移動体 D B 160から取り出し、 その情報を制御部 110 に送る。 上記物品/移動体検索 '管理部 105 は、 図4に示すように、 センシング手段 120 らの検出結果を受けて、 物品が移動体によって取り扱われている状態 (物品取扱状 態) を検出する物品取扱検出部 3 1と、 上記物品取扱検出部 3 1の検出結果を受けて、 移動体に取り扱われている物品を特定する物品特定部 3 2と、 上記物品取极検出部 3 1の検出結果を受けて、 物品を取り扱つている移動体 (物品取扱主体) を特定する物 品取扱主体特定部 3 3と、 上記物品特定部 3 2の特定結果と、 上記物品取扱主体特定 部 3 3の特定結果とを受けて、 その物品取扱主体にその物品の取极権が設定されてい る力否かを判定する取扱権判定部 3 4と、 を含む。
上記物品取扱検出部 3 1は、 出入口センシング部 121 の検出結果に基づいて、 環境 の出入口における物品取扱状態を検出する。 具体的に、 物品取扱検出部 3 1は、 物品 と移動体とが共に出入口を通過したことを出入口センシング部 121 が検出したときに、 出入口において物品がその移動体によって取り扱われたと検出する。
また、 物品取极検出部 3 1は、 環境内センシング部 122 の検出結果に基づいて、 環 境内における物品取扱状態を検出する。 具体的に上記物品取扱検出部 3 1は、 環境内 センシング部 122 が背景差分法を利用して環境内における物品の検出を行っていると きには、 入力画像 (カメラ画像) とモデル画像とに差のある部分が生じたときに、 そ の部分で物体が取り扱われていると検出する。
また、 環境内センシング部 122 が上述した電子タグとリーダライタとを利用して環 境内における物品の検出を行つているときには、 電子タグからの情報を読み取つてい たリーダライタがその電子タグからの情報を読み取ることができなくなったとき、 逆 に電子タグからの情報を読み取っていなかったリーダライタが電子タグからの情報を 読み取ることができるようになったときに、 上記物品取扱検出部 3 1は、 その電子タ グが付された物品が取り扱われていると検出する。
上記物品特定部 3 2は、 上記物品取扱検出部 3 1が物品取扱状態を検出したときに、 物品取扱主体に取り扱われている物品を特定し、 その物品の情報を物品/移動体 D B 160 に蓄積する。
上記物品特定部 3 2は、 上述したように、 センシング手段 120 が電子タグとリーダ M04-s-o c 64 PCT P20CPC™47O 7?42
13
ライタを用いたものであるときには、 その電子タグからの情報に基づいて物品の特定 をする。 また、 センシング手段 120 がカメラ画像を用いたものであるときには、 その カメラ画像に基づいて物品の認識処理を行い、 その物品の特定を行う。
上記物品取扱主体特定部 3 3は、 上記物品取扱検出部 3 1が物品取扱状態を検出し たときに、 その物品を取り扱つている物品取扱主体を特定し、 その物品取扱主体の情 報を物品 Z移動体 D B 160 に蓄積する。
上記物品取扱主体特定部 3 3は、 ·物品取扱検出部 3 1が出入口における物品の取り 扱い (物品の移入又は移出) を検出したときには、 その物品と同時に出入口を通過し た移動体を物品取扱主体と特定する。 この物品取扱主体は、 移動体に付された電子タ グからの情報に基づいて特定すればよい。
一方、 上記物品取扱主体特定部 3 3は、 物品取扱検出部 3 1が環境内における物品 の取り扱いを検出したときには、 次のようにして物品取扱主体を特定する。 つまり、 環境内センシング部 122 がカメラを用いて物品を検出しているときには、 物品取扱主 体特定部 3 3は、 そのカメラに物品が取り扱われている場所を撮像させ、 その撮像し た画像に対して顔認証処理を行い、 その認証処理によって移動体を特定する。 こうし て特定された移動体は、 取扱いがされた物品の近傍にいたと考えられるので、 その移 動体を物品取扱主体と推定することができる。 ここで、 環境内センシング部 I22 とし て用いるカメラは、 背景差分法による物品検出に用いるため、 通常、 広域を撮影する 広角カメラである。 この広角カメラの撮像画像は解像度が比較的低く、 顔認証処理を 行なうには解像度が足りない場合がある。 そこで、 背景差分法に用いるカメラとは別 に、 狭角の高分解能カメラを顔認証処理用のカメラとして、 環境内に設置又はロボッ ト 102 に設置してもよい。 この場合、 物品取扱主体特定部 3 3は、 狭角力メラに上記 物品取扱検出部 3 1が物品取极状態を検出した領域を撮像させ、 その撮像した画像に 対して顔認証処理を行う。 こうすることにより、 物品取扱主体特定部 3 3は物品取扱 主体を精度よく特定することができる。
尚、 物品取扱主体特定部 3 3における物品取扱主体の特定方法は、 顔認証処理に限 らず、 例えば虹彩認証、 その他の認証処理によって行ってもよい。 また、 カメラ画像 MM s— PCT P20pcT/jP2oo7/o~o7 r2
14
に対する認証処理を行わなくても、 そのカメラ画像自体を物品/移動体 D B 160 に蓄 積することによって、 物品取扱主体の情報を保持してもよい。 これは、 認証処理によ つて移動体を特定することができなかったときに限って行ってもよい。
また、 物品取扱主体の特定は、 電子タグを利用して行ってもよいし、 光ビーコンを 利用して行ってもよい。
尚、 上述した出入口における物品取扱主体の特定を、 カメラ画像を用いた認証処理 によって行ってもよい。
本システムでは、 物品の取扱いは人に限らず、 後述するように人が操作端末 103 に おいて指定した作業内容に応じてロボット 102 も物品の取扱いを行う。 このように口 ボット 102 が物品の取扱いを行う場合、 その物品取扱主体はロボット 102 としてもよ いし、 そのロボット 102 に作業命令を発した対象を物品取扱主体としてもよい。 本実 施形態では、 ロボット 102 に作業命令を発した対象を物品取扱主体とする。 作業命令 を発する 「対象」 には人及びサーバ 101 が含まれる。 サーバ 101 が作業命令を発する のは、 後述するように、 人が作業命令を発することなく、 自動的にロボット 102 に作 業を実行させる場合である。
上記取扱権判定部 3 4は、 詳しくは後述するが、 物品 Z移動体データベース 160 に 記憶されている情報に基づいて、 上記物品取扱主体特定部 3 3によって特定された物 品取扱主体が、 上記物品特定部 3 2によって特定された物品の取り扱いを許可されて いる力否かを判定する。
(取扱権設定 Z変更部)
取扱権設定 Z変更部 125 は、 物品の取扱権を設定して、 その取扱権の情報を、 後述 する物品 Z移動体データベース 160 に記憶させる。
この取极権設定 Z変更部 125 は、 移動体に対し、 及ぴ複数の移動体を包含する移動 体グループに対し、 物品の取扱権を設定する。 移動体に対し物品の取扱権を設定する ことにより、 各移動体について個別に取扱権を設定することが可能になる。 一例とし て、 薬箱の取扱権を 「お母さん」 に対し設定する、 ことが挙げられる。 移動体グルー プに対して物品の取扱権を設定することにより、 取扱権を設定する移動体が複数存在
Figure imgf000017_0001
15
するときに、 それらの移動体に対してまとめて取扱権を設定することが可能になる。 一例として、 薬箱の取扱権を 「親」 に対して設定する、 ことが挙げられる。 この場合、 移動体グループの 「親」 には、 お父さんとお母さんとが含まれるため、 薬箱の取扱権 をお父さんとお母さんとに対してそれぞれ設定したことと等価になる。
この移動体グループは、 例えばユーザが、 そのグループに含まれる移動体を一つ一 つ指定することによって構成してもよい。
また、 例えば年齢や性別といつた移動体の属性に関する条件を与えることによって、 移動体グループを構成することができる。 例えば年齢が 2 0歳以上という条件を与え ると、 その条件に該当する移動体、 つまり年齢が 2 0歳以上の移動体を含む移動体グ ループを構成することが可能である。
さらに、 移動体グループは、 以上のようにして設定した移動体グループ、 及び Z又 は移動体の属性に係る条件の論理積や論理和によつて構成することも可能である。 例 えば、 「移動体グループ Aに含まれる移動体であってかつ、 年齢が 2 0歳以上の移動 体を含む移動体グループ」 として移動体グループ Bを構成したり、 「移動体グループ Aに含まれる移動体と移動体グループ Cに含まれる移動体とをそれぞれ含む移動体グ ループ」 として移動体グループ Dを構成したりすることが可能である。
また、 取极権設定 変更部 125 は、 物品毎に、 及び/又は互いに同じ属性を有する 物品を含む物品グループ毎に、 取扱権を設定する。 物品毎に取扱権を設定することに より、 各物品について個別に取扱権を設定することが可能になる。 一例として、 特定 の薬箱 (medicine- cabinet - 0001) の取扱権を設定する、 ことが挙げられる。 これに対 し物品グループ毎に取扱権を設定することにより、 同じ属性を有する物品について取 极権を設定しようとしたときにその属性を有する全ての物品にまとめて取扱権を設定 することが可能になる。 一例として、 薬箱の属性を有する物品の取扱権を設定する、 ことが挙げられる。 このことによって、 medicine- cabinet - 0001で表される薬箱にも、 medicine - cabinet - 0002で表される薬箱にも、 同じ取扱権が設定される。
この取扱権設定/変更部 125 は、 物品の属性に応じて自動的に取扱権を設定したり、 操作端末 103 においてユーザに入力された取扱権の設定入力を受けて取扱権を設定し M04— S— pCT/JP2OO4 oO73
16
たり、 後述するように環境内の状況に基づいて自動的に取扱権を設定したりする。 上記取扱権設定/変更部 125 力 物品の属性に応じて取扱権の設定を自動的に行う 例は、 法律によって年齢制限が定められているお酒やタバコについて、 取扱権を設定 することである。 これらの物品に付される電子タグには、 年齢制限の情報を埋め込ん でおけばよい。 こうすることで、 センシング手段 120 による検出結果を受けて、 取扱 権設定 変更部 125 は、 その物品の取扱権を自動的に設定することが可能になる。 尚、 物品に付された電子タグに情報が埋め込まれていない場合、 つまり、 物品の属性に応 じた取扱権を設定する必要がない物品については、 全ての移動体に取り扱いを認める ように、 取扱権設定 Z変更部 125 は、 取扱権を 「全員」 に設定してもよい。
上記取扱権設定 Z変更部 125 、 ユーザによる設定入力を受けて物品の取扱権を設 定する場合についての詳細は後述する。 また、 上記取扱権設定 Z変更部 125 力 物品 の状況に基づいて自動的に物品の取极権を設定する場合についての詳細も後述する。 こうして、 取扱権設定/変更部 125 によって設定された物品の取扱権の情報は、 後 述する物品 D B 161 '(図 5参照) に記憶される。 また、 移動体グループに関するデー タは、 後述する移動体 D B 163 (図 7参照) に記憶される。
(物品 Z移動体データベース)
環境管理サーバ 101 の物品 Z移動体 D B 160 は、 物品及ぴ移動体の情報を蓄積する D Bであり、 例えば図 5〜図 7に示すように構成される。 つまり、 この物品ノ移動体 D B 160 は、 物品を扱う物品データベース 161 , 162 (図 5, 6 ) と、 移動体を扱う 移動体データベース 163 (図 7 ) とを含む。
物品 D B 161 は、 物品データ、 物品履歴データ、 及ぴ物品属性データ、 の 3種類の データをそれぞれ蓄積するサブデータベースを含む。 さらに、 物品履歴データは、 環 境内における履歴データ (図 5参照) と、 出入口における履歴データ (図 6参照) と を含む。 各サブデータベースに蓄積されるデータ内容は以下の通りである。
1 ) 物品データ:個々の物品を区別するための I D、 物品履歴データへのポインタ、 物品属性データへのボインタ、 及ぴその物品について設定されている取扱権の情報が 蓄積される。 ここで、 種類が同じであっても物理的に別の存在である複数の物品は、 謝- s- c
17
それぞれ別の物品として扱うため異なる I Dが割り当てられる。 一方、 種類が同じ物 品は同じ物品属性を持っため、 異なる I Dが割り当てられていても、 同じ物品属性デ ータへのポインタを持つ。 これにより、 データベースの容量を節約する。
また、 この 「物品データ」 において設定される取扱権は、 個別の物品について設定 される取扱権である。
2 ) (環境内) 物品履歴データ:環境内において物品が取り扱われた履歴を格納す るサブデータベースであり、 取り扱われた時刻、 取极内容、 物品取扱主体、 取扱い後 の位置、 の 4項目力、らなる。 この内、 位置データの表現は種々の表現が考えられるが、 ここでは、 図 5に示すように、 6つのパラメータで位置を表現する。 つまり、 最初の 3つのパラメータ (xl , yl , zl) は物品の位置 (重心位置等を用いる) を表し、 後の 3つのパラメータ (ll, ml, nl) は、 物品の向きを表す。 また、 物品履歴データにおけ る (物品) 取扱主体は、 上記物品取扱主体特定部 3 3によって特定された移動体であ る。
3 ) 物品属'1~生データ:物品が有する物理的な属性情報を格納するサブデータベース である。 属性情報の例として、 図 5に示すように、 物品の重さ、 形状モデル 'サイズ、 その外観の画像データが挙げられる。 また、 「物品属性データ」 には、 その物品の属 性について、 又は同じ属性を有する物品を含む物品グループについて設定された取扱 権の情報が記憶される。
図例では、 薬箱 (medicine- cabinet) の属 1"生を有する物品 (物品グループ) の取扱 権は、 移動体グループである 「親」 に対して設定されている。 これに対し、 特定の薬 箱 (medicine-cabinet- 0001) の取扱権は、 個別の移動体である 「お母さん」 に対して 設定されている。
4 ) (出入口) 物品履歴データ 162 :出入口 (図 6ではドア) において物品が取り 扱われた履歴を格納するサブデータベースであり、 取り扱われた時刻、 取り扱われた 物品、 取扱内容、 物品取扱主体、 イベントの 5項目からなる。
この内、 取扱内容には、 物品が環境内に持ち込まれたか、 環境外に持ち出されたか が択一的に設定される。 囊- s- u し 丄 PCT P20¾>CT/ 0 3 2
18
また、 取扱い物品の項目で 「物品名 @カバン C」 と設定されているのは、 その物品 が、 カバン Cの中に入れられた状態でドアを通過したことを示す。 力パンの中の物品 は、 カバン Cにリーダライタを設置することによって検出することが可能である。 図 例では、 時刻 t9に、 お父さんが衣類 A、 タオル C, かさ Bをカバン Cに入れて環境 (部屋) 力 ら持ち出したことがデータベースに記憶されている。
さらに、 イベントの項目は、 物品の持出がイベントの実行に関連する場合に設定さ れる項目である。 この項目はユーザが入力を行うことによって登録される。 図例では、 お父さんが、 衣類 A、 タオル C, かさ Bをカバン Cに入れて環境 (部屋) から持ち出 したことと、 「出張」 とが対応付けられている。
物品履歴データ 162 をこのような構成とすることによって、 イベントの実行に必要 な物品を簡単に抽出することができる。 例えば 「出張」 と指定されたときには、 この 物品履歴データ 162 の 「イベント」 項目を参照することにより、 以前、 出張に出かけ たときに持ち出した物品を抽出することができる。 こうしてユーザは、 以前に行った イベントを繰り返して行うときに、 そのイベントの実行に必要な物品を容易に確認す ることができる。 さらに、 ユーザがロボット 102 にそれらの物品を、 所定の位置に移 動させる作業を指定する、 又はサーバ 101 がロボットに対し自動的にその作業を指定 することによって、 イベントの実行に必要な物品はロボット 102 によって集められる ため、 ユーザの利便 は大幅に向上する。
移動体 D B 163 は、 図 7に示すように、 移動体データ、 移動体履歴データ、 及び移 動体グループデータの 3種類のデータをそれぞれ蓄積するサプデータベースを含み、 各サブデータベースに蓄積されるデータ内容は以下の通りである。
1 ) 移動体データ :個々の移動体を区別するための I D、 移動体履歴データへのポ インタ、 各移動体の属性情報 (図例では、 年齢、 性別) が蓄積される。 移動体データ に格納される移動体は、 ユーザが手動で予め登録すればよい。
2 ) 移動体履歴データ:時刻と、 その時刻における移動体の位置と、 その時刻にお ける移動体の状態と、 の 3項目からなる。 ここで、 移動体は、 物品とは異なり空間内 に占める体積が大きく、 ロボット 102 が環境内を移動するときの障害物となる。 この 隨 - S pCT/Jp20o o 3 2
19
ため、 移動体の位置はできるだけ現実に則した表現が好ましい。 ここでは、 床面上で 移動体が占める領域を円で表している。 すなわち、 円の中心位置の XY座標 (x4 , y 4) と円の半径 (rl) とによって移動体の位置を表す。 これは、 ロボット 102 が障害物 を避けつつ経路作成が可能となる一方で、 移動体の位置を必要最小限の情報で表すた めである。 尚、 移動体の位置は、 さらに厳密な表現を採用してもよい。 例えば複数個 の線分べクトルを使って、 移動体が床面上で占める領域の輪郭を近似することによつ て、 移動体の位置を表現してもよい。
また、 移動体履歴データにおける移動体の状態とは、 その移動体が人であれば、 「座る」 「立つ」 「寝る」 「歩く」 等の一般的な人の動作を表し、 移動体がロボット 102 であれば、 「把持」 「解放」 等のロボット 102 が物品に対して行う動作を表す。 例えば移動体の状態となり得る状態候補を予め複数用意しておき、 センシング手段 12 0 による検出結果等に基づいて移動体の状態がどの状態候捕に当てはまるかを判断す ればよい。 尚、 ロボット 102 に関する移動体履歴データでは、 その動作だけでなく、 作業対象の物品 I Dと併せて 「物品 I D:動作内容」 として格納する。 具体的には、 「kan - small - 0001:把持」 となる。
3 ) 移動体グループデータ :個々の移動体グループを区別するための I D、 そのグ ループに所属する移動体の情報、 が蓄積される。 各移動体グループは、 移動体データ に登録されている移動体によって構成される。
(環境マップ管理部 ·環境マップ)
環境マップ管理部 107 は、 センシング手段 120 からの情報に基づいて環境マップ 10 8 を作成すると共に、 その作成した環境マップ 108 の管理を行う。 この環境マップ 10 8 は、 ロボット 102 が環境内を移動する際に利用するマップである。 ロボット 102 は、 後述するように、 この環境マップ 108 をサーバ 101 から取得し、 そのマップ 108 に基 づ 、て移動経路計画を立てる。
また、 上記環境マップ管理部 107 は、 詳しくは後述するが、 制御部 110 から環境マ ップ 108 に問い合わせがあった場合に、 その問い合わせの内容に応じて必要な情報を 制御部 110 に送る。 腿 - S- Ρ€™2004 0
20
環境マップ管理部 107 は、 例えば環境の実状況が、 図 8 Αに示される場合に、 その 実状況を立体モデルで簡略化することによって、 環境マップ 108 を作成してもよい
(図 8 B参照) 。 また、 図 8 Cに示すように、 管理部 107 は、 平面モデ こよって二 次元化した環境マップ 108 を作成してもよい。 さらに、 図 8 Aに示される環境の実状 況をそのまま立体モデルィ匕することによって、 環境マップ 108 を作成してもよい。 す なわち環境マップ管理部 107 は、 そのマップの用途や、 そのマツプ作成にかけること のできる時間 (手間) に応じた環境マップ 108 を作成すればよい。 例えば、 立体モデ ルからなる環境マップを極めて短時間で作成する必要があるときは、 環境内に存在す る立体物を、 その立体物を覆う最小の直方体でモデルィヒすればよい。 図 8 Bに示す環 境マップ 108 はその例であり、 テーブル及ぴ本棚をそれぞれ直方体でモデル化し、 ゴ ミ箱を円柱でモデル化している。 平面モデルからなる環境マップも同様であり、 図8 Cに示す環境マップ 108 では、 テーブル及ぴ本棚を平面に正射影した矩形領域 (斜線 を付した領域) でそれぞれモデル化し、 ゴミ箱を円領域 (斜線を付した領域) でモデ ル化している。 この平面モデルからなるマップ 108 では、 上記 2つの矩形領域及び円 領域をロボット 102 が移動不可能な領域に設定される。
(制御部)
環境管理サーバ 101 における制御部 110 はサーバ全体を制御する部分であり、 主な 制御内容は以下の通りである。
1 ) 通信部 109 1S サーバ内にある各種データに関する問い合わせ受信したときに、 その問い合わせ内容を判断すると共に、 その判断結果に応じて物品/移動体検索 ·管 理部 105や環境マップ管理部 107 にデータの参照要求を出す。
2 ) 上記要求に対して物品 Z移動体検索 '管理部 105又は環境マップ管理部 107 か ら送られてきた結果を、 通信部 109 を介して問い合わせ元に送る。
3 ) 操作端末 103 から通信部 109 を介して送信された口ポットの作業内容メッセ一 ジを解釈し、 そのロボット 102 に動作を実行させるためのロボット制御コマンド列を 生成して上記ロボット 102 に送信する。 尚、 ロボット制御コマンド列については、 後 述する。 4 ) 必要に応じて、 一定時間毎に、 物品 Ζ移動体 D B 160 で管理している物品の一 部又は全部の状況や、 環境マップ 108 の状況を、 通信部 109 を通じてロボット 102や ユーザ (操作端末 103 ) にブロードキャストする。
5 ) 取扱権判定部 3 4 による判定結果を受けて、 サーバ 101 に接続されている報知 部 123及び警告部 124 に、 ユーザに対する報知及ぴ警告を実行させる。
6 ) 取扱権判定部 3 4 による判定結果を受けて、 ロボット 102 にロボット制御コマ ンドを送信する。 これにより、 後述するようにロボット 102 の取极作業を中止させる。
7 ) 取扱権判定部 3 4 による判定結果を受けて、 設備 104 に設備動作コマンドを送 信する。 これにより、 後述するように設備 104 に設けられた電子錠のロック 'アン口 ックを行う。
8 ) 後述するように、 物品の状況を考慮してロボット制御コマンド列を自動的に作 成して上記ロボット 102 に送信する。 これにより、 ユーザが作業命令を発しなくても、 ロボット 102 は物品の取り扱い作業を自動で実行する。
上記の 1 ) , 2 ) , 5 ) 〜8 ) の処理の詳細については、 後述する。 一作業ロボットの構成一
2番目のサブシステムである作業ロボット 102 は、 物品の取扱い作業を行う。
図 1に示すように、 ロボット 102 はその基本構成として、 ロボット 102 の近辺の障 害物等を検知する障害物センサ 111 、 物品を把持する把持部 112 、 環境マップ 108 を 使って移動計画を立てる移動計画作成部 113 、 上記ロボット 102 を移動させる移動部 114、 環境管理サーバ 101や操作端末 103 との間で種々のデータの送受信を行う通信 部 109 、 これらのセンサ 111及ぴ各部 109 , 112〜114を制御する制御部 115 と力 らな る。
図 9は、 本システムにおける口ポット 102 の構造の一例を示した模式図である。 こ のロボット 102 は、 移動計画作成部 113 、 制御部 115 、 その他を収容する略箱型のケ 一シング 1 0を備えている。 以下、 図 9における紙面右側を前側、 左側を後側、 紙面 奥側を左側、 紙面手前側を右側と呼ぶ。 腿- S- pcT/jP 4 o™
22
把持部 112 は、 多関節アーム 12a とそのアーム 12a の先端に配設されたハンド 12b とから構成され、 上記ケーシング 1 0の上面に取り付けられている。 上記アーム 12a 及びハンド 12b は、 モータ制御によるァクチユエータを用いてもよいし、 その他のァ クチユエータ、 例えば人工筋肉によるァクチユエータを用いてもよい。
移動部 114は車輪 1 4によって構成されており、 この車輪 1 4は、 上記ケーシング 1 0の左右両側にそれぞれ 2つ取り付けられている (図例では、 左側の車輪の図示を 省略する) 。 ここでは、 移動部 114 を車輪 1 4によって構成したが、 移動部 114 の構 成は、 そのロボットが使用される環境に応じて最適な構成を選択すればよい。 例えば 環境の床面の起伏が激しい場合は、 移動部 114 をクローラ型ゃ多足歩行型に構成する ことが好ましい。
障害物センサ 111 は、 ここでは、 超音波センサ 11a 、 視覚センサとしてのカメラ 11 b 、 及び衝突センサ 11c を含む。
上記超音波センサ 11a は、 超音波を発してその反射波を受信するまでの時間を測定 することにより当該センサ 11a 力 ら障害物までの距離を計算するセンサであって、 近 距離の障害物を、 それに衝突する前に検知するためのセンサである。 この超音波セン サは、 ケーシング 1 0の各側面 (前面、 後面、 左右側面) に、 3つずつ取り付けられ ている。
上記カメラ lib は、 ロボット 102 の周囲の状況を画像として入力し、 その画像の認 識処理を行うことで、 障害物の有無の判断や把持対象物品のより正確な情報を得るた めのセンサである。 このカメラ lib は、 ケーシング 1 0の前部に取り付けられている。 上記衝突センサ 11c は、 ロボット 102 に所定の衝擊力が加わったことを検知するセ ンサである。 例えば障害物がロボット 102 に衝突したことや、 ロボット 102 が移動中 に障害物に衝突したことを、 この衝突センサ 11c によって検知する。 この衝突センサ 11c は、 ケーシング 1 0の前面と後面とのそれぞれに取り付けられている。
移動計画作成部 113 は、 ロボット 102 が作業を行うときに、 そのロボット 102 の現 在位置から目的位置までの移動経路を環境マップ 108 を使って作成する。 この際、 現 在位置から目的位置までの移動経路上に障害物があってはならないが、 環境マップ 10 8 には、 上述したように、 ロボットが移動不可領域 (例えば図 8 Cの斜線を付した領 域) が設定されている。 このため、 この移動不可領域以外の領域で移動経路を作成す ることによって、 障害物を回避した移動経路を作成することができる。 例えば図 8 C に示す環境マップ 108 を用いてロボットを A 1地点から A 2地点まで移動させるとき には、 ロボット 102 の大きさを考慮しつつ移動不可領域を回避するルート (図 8 Cの 矢線参照) が作成される。 こうした移動経路の作成に当たっては、 最も一般的な方法 であるダイクストラ法を用いてもよいし、 環境が複雑であれば、 ダイクストラ法を改 良した経路探索アルゴリズムを用いてもよい。
尚、 環境の状況が複雑であるため、 ロボット 102 の移動経路の算出が出来ない場合、 又はその算出に多大な時間を要する場合の対策として、 ユーザがロボット 102 の移動 経路を指定するモードを設けてもよい。
作業ロボット 102 の制御部 115 は、 主に環境管理サーバ 101 から送られてきたロボ ット制御コマンド列を解釈し、 そのロボット制御コマンドを順に実行する。
ここで、 ロボット制御コマンドとは、 物品の把持や、 ロボット 102 自体の移動の制 御を行うためのコマンドであって、 本実施形態では以下の 「移動」 「把持」 「解放」 の 3種類が設定されている。
1 ) (move,座標)
ロボット 102 の現在位置から座標で指定された位置まで移動するコマンドである。 座標は世界座標系で指定し、 現在位置から目的位置までの移動経路は移動計画作成部 113 が計画する。
2 ) (grab,物品 I D)
物品 I Dで指定された物品を、 ハンド 12b によって把持するコマンドである。 物品 の場所は物品 D Bを参照し、 把持計画は把持部 112 が作成する。
3 ) (release)
ハンド 12b を解放するコマンドである。
ロボット制御コマンドはこの 3種類に限らず、 必要に応じて増やしてもよい。
尚、 本実施形態では、 作業ロボット 102 を移動部 114 を有する自走ロボットとした 24
が、 作業口ポット 102 は、 この構成に限るものではない。 作業ロボット 102 は、 上述 したアーム 12a とハンド 12b とからなる把持部 112 を、 環境内の天井に取り付けられ たガイドレールに組み付けた構成としてもよい。 この構成の作業ロボット 102 は、 上 記把持部 112 がガイドレールに案内されて移動することにより、 環境内を移動するこ とができ、 それによつて、 環境内で指定された物品を指定された位置に移動させる作 業を実行することができる。
また、 作業ロボット 102 は、 複数の把持部 112 (アーム 12a とハンド 12b とからな る) を、 環境内の所定の位置にそれぞれ固定設置した構成としてもよい。 この場合、 各把持部 112 は、 環境内内に存在する全ての物品がいずれかの把持部 112 によって把 持可能となるように配置する。 この構成の作業口ポット 102 は、 指定された物品を指 定された位置に移動させるときに、 複数の把持部 112 の中から、 その物品にハンド 12 b が届く把持部 112 を選択し、 その選択した把持部 112 が物品を把持すると共に、 そ のアーム 12a とハンド 12b とによって把持した物品を指定された位置に移動させれば よい。 尚、 物品の移動先が、 物品を把持した把持部 112 のアーム 12a の届かない位置 であるときには、 複数の把持部 112 の間で物品を順に手渡しすることによって、 指定 された位置まで物品を移動させればよ 、。
—操作端末の構成一
3番目のサブシステムである操作端末 103 は、 本システムにおけるユーザインタフ エースであって、 主にロボット 102 に対する物品の取扱い作業を指示するためにユー ザが操作する端末である。
操作端末 103 はその基本構成として、 図 1に示すように、 各種の画面を表示する例 えば C R Tや液晶ディスプレイからなる表示部 117 、 この表示部 117 に表示される画 面上での入力を行うための、 例えばポィンティングデバイスやキーボードからなる入 力部 116 、 上記表示部 117 に表示される画面の作成等の表示制御を行う表示制御部 11 8 、 上記入力部 116 において入力されたロボット 102 の作業内容や問い合わせ内容を 環境管理サーバ 101 に送る通信部 109 、 これらの各部 109 , 116 〜118 を制御する制 M04- s- し PC20 o
25
御部 119 からなる。
この操作端末 103 は、 例えば汎用 P Cによって構成することが可能である。 この場 合、 制御プログラムを P Cが読み込むことによって、 その P Cを操作端末 103 として 機能させることが可能になる。
操作端末 103 の表示部 117 にはロボット 102 の作業内容を指定するための操作画面、 サーバ 101 に対する物品の問い合わせ内容 (物品の検索内容) を入力するための入力 画面、 取扱権を設定するための設定画面が表示される。
ユーザは、 この操作端末 103 を用いてロボット 102 の作業内容を指定したり、 物品 /移動体 D B 160 に登録されている物品に関する情報をサーバ 101 に問い合わせたり、 取扱権を設定したりする。
操作端末 103 は、 ユーザが作業内容の指定や、 問い合わせ内容の入力、 取扱権の設 定をする際にユーザの認証処理を行う。 認証処理は、 操作端末 103 にパスワードを入 力させることによって行ってもよいし、 指紋認証、 顔認証、 声紋認証、 虹彩認証等の バイオメトリクス認証処理を行ってもよい。
こうして認証処理によって同定した移動体 (ユーザ) の情報は、 後述するように物 品取扱主体の特定に利用される。
一設備の構成一
4番目のサブシステムである設備 104 は、 環境内に設置'固定されて通常は移動さ せることのないものである。 ここでは特に、 各種の物品を収容する収容部と、 その収 容部の開口を開閉する開閉扉を有するものとしかつ、 その設備 104 の開閉扉には、 電 子錠が設けられているものとする。
上記設備 104 は、 図 1に示すように、 サーバ 101 から送信された設備動作コマンド を受信する通信部 109 と、 その設備 104が有する電子錠のロック 'アンロック動作を 行う動作部 127 と、 これら各部 109 , 127 を制御する制御部 126 とからなる。 尚、 図 1では、 設備 104 を一つのみ記載しているが、 環境内に複数の設備 104が設定されて いるときには、 それぞれの設備 104がネットワークに接続される。 M04— s— pCT/JP
26
上記制御部 126 は、 サーバ 101 から送信された設備動作コマンドに応じて、 上記動 作部 127 を動作させ、 それによつて、 上記電子錠のロック 'アンロックを行う。 尚、 電子錠は手動でもロック 'アンロックが可能とする。
一物品管理手順一
次に、 上記構成の物品管理システムにおける物品管理手順について、 図 5〜7, 1 0を参照しながら説明する。
図 1 0は、 一般家庭における、 ある部屋 (環境) 内を示す俯瞰図であって、 缶ジュ ース 2 1と薬箱 2 2が、 この部屋に対して出入すると共に、 缶ジュース 2 1及ぴ薬箱 2 2が環境内を移動される様子を示す図である。
同図において、 缶ジュース 2 1及ぴ薬箱 2 2の移動は矢線によって示され、 これら の矢線に付されてぃる1:1 2,セ5,セ7 の文字は、 矢線に従って缶ジュース 2 1及ぴ薬箱 2 2が移動された時刻を示す。 時刻は、 t0〜t7の順で進んだものとする。
尚、 部屋の出入口 (ドア) には、 図示は省略するが、 出入口センシング部 121 であ るリ一ダライタが設置されていて、 物品及び移動体の移入と移出とを区別して検出す る。 また、 部屋内には、 環境内センシング部 122 であるリーダライタが設置されてい て、 環境内における物品及び移動体の移動を検出する。
また、 缶ジュース 2 1, 薬箱 2 2、 人、 及ぴロボット 102 にはそれぞれ電子タグが 付されているとする。 缶ジュース 2 1及ぴ薬箱 2 2の物品属性データは、 電子タグに 埋め込まれている情報をリーダライタが読み取ることによって得ることとする。 移動 体 D B 163 の移動体データには各移動体の情報が登録されているものとし、 移動体履 歴データは既に初期化されているものとする。 また、 物品 D B 161 の物品データには、 何も記録されていない空の状況であるとする。 以下、 各時刻における状況を説明しな がら、 システムの処理を説明する。
(時刻 to)
移動体 D B 163 の移動体データに登録されているお父さん (図示省略) 力 缶ジュ ース 2 1を持ってドアから部屋内に入ってくる。 腿- s- PCT fP20lpc™7/o 3;2
27
このとき、 ドアに設けられた出入口センシング部 121 は、 ある移動体と、 ある物品 とが、 部屋内に移入したことを検出する。 その検出結果は、 センシング手段 120 から 物品 Z移動体検索 '管理部 105 に送られ、 それを受けた物品 Z移動体検索 ·管理部 10 5 は、 物品が缶ジュース 2 1であること、 移動体がお父さんであることをそれぞれ特 定する。 そして、 その缶ジュース 2 1に [kan- small- 0001]という I Dを割り当て、 物 品属十生データへのポインタと対応付けて物品データに格納する (図 5参照) 。 これと 共に、 物品 移動体検索 '管理部 105 は、 その缶ジュース 2 1の物品属性データを格 納する。
ここで、 缶ジュースの属性データを参照すると、 取扱権が 「全員」 に対して設定さ れている。 これは、 缶ジュース 2 1の電子タグに年齢制限等の情報が埋め込まれてい なかったことから、 取扱権設定/変更部 125 1 缶ジュースの属性についての取扱権 を 「全員」 に設定したためである。 この移動体グループに含まれる移動体は、 図 7の 移動体グループデータに示すように、 お父さん、 お母さん、 息子、 娘、 ロボットであ る。
これと共に、 物品 Z移動体検索 '管理部 105 は、 その缶ジュースの移動履歴を格納 するための 「位置履歴リスト 1」 を作成する。 この時点では環境内の位置履歴リスト 1の中身は空のままである。
さらに、 物品 Z移動体検索 ·管理部 105 は、 ドアにおける物品の出入を管理する物 品履歴データ 162 の内容をセットする (図 6参照) 。 具体的には、
時刻: to
物品: kan- smalト 0001
取扱内容:持込
物品取扱主体:お父さん
をセットする。
一方で、 センシング手段 120 により検出したお父さんの移動体履歴を更新するため に、 物品ノ移動体検索 ·管理部 105 は、 移動体 D B 163 における I D 「お父さん」 の 位置履歴を参照して、 「位置履歴リスト 3」 の内容をセットする (図 7参照) 。 具体 的には、
時刻: to 状態:入室
をセットする。 ここで、 位置が 「一」 となっているのは、 移動体が環境外から環境内 に移動したことを示している。 尚、 位置の情報には、 部屋に入室する際に通過したド ァの位置情報をセットしてもよい。
(時刻 tl)
お父さんがテーブル近傍の位置 P4 (x4 , y4) に座り、 持っていた缶ジュース 2 1を そのテーブル上の PI (xl, yl, zl) に置く。
そのことは、 環境内センシング部 122 によって検出され、 その検出結果を受けて物 品 移動体検索 ·管理部 105 は、 物品履歴データ 161 の位置履歴リスト 1に新たな内 容をセットする (図 5参照) 。 具体的には、
時刻: tl
取扱内容:新規
物品取扱主体:お父さん
取扱後の位置: PI (xl, yl, zl, 11, ml, nl)
をセットする。 ここで、 取扱内容が 「新規」 となっているのは、 それまで環境内に存 在していなかった物品が、 新たに外部から持ち込まれたことを意味する。
また、 物品 Z移動体検索.管理部 105 は、 移動体履歴データ 163 の位置履歴リスト 3に新たな内容をセットする (図 7参照) 。 具体的には、
時刻: tl
位置: (x4 , y4, rl)
状態:座る
をセットする。
(時刻 t2)
移動体 D B 163 の移動体データに登録されている別の移動体である息子 (図示省 謝 - s- PC JP20k:T/jP20。;0
29
略) I PI (xl, yl, zl) に置かれた上記の缶ジュース 2 1を床の上である P2 (x2, y2, z2) に移動させる。
環境内センシング部 122及ぴ物品 Z移動体検索 '管理部 105 の物品取扱検出部 3 1 は、 そのことを検出し、 その検出結果を受けて物品特定部 3 2は物品の特定を行うと 共に、 物品取扱主体特定部 3 3が物品取扱主体の特定を行う。 取扱権判定部 3 4は、 これらの特定結果を受けて、 息子が缶ジュース 2 1の取扱権を有している力否かを判 定する。
具体的に取扱権判定部 3 4は、 先ず、 物品 D B 161 の物品データ (図 5参照) を参 照することにより、 その缶ジュース 2 1に取扱権が設定されている力否かを確認する。 この場合、 缶ジュース 2 1には取扱権が設定されていない。 そこで、 次は物品属 1"生デ ータを参照することにより、 缶ジュースの属性について設定されている取扱権を確認 する。 ここでは、 移動体グループの 「全員」 に取极権が設定されている。 移動体 D B 163 の移動体グループデータに設定されているように、 移動体グループの 「全員」 に は息子が含まれるため、 息子は缶ジュースの取扱権を有していると判定される。 従つ て、 この場合、 息子が缶ジュース 2 1を取り扱うことは規制されない。
物品 移動体検索 ·管理部 105 は、 物品履歴データ 161 の位置履歴リスト 1に新た な内容をセットする (図 5参照) 。 具体的には、
時刻: t2
取扱内容:移動
物品取扱主体:息子
取扱後の位置: P2 (x2, y2, z2, 12, m2, n2)
をセットする。 ここで、 取扱内容が 「移動」 となっているのは、 すでに物品履歴デー タに登録されている物品が、 環境内で移動されたためである。 尚、 時刻 t2で息子の位 置が変わるため、 物品ノ移動体検索'管理部 105 は、 環境内センシング部 122 の検出 結果を受けて、 息子の移動体履歴データ 163 (位置履歴リスト 4 ) に新たな内容をセ ットするが、 ここではその図示を省略する。
(時刻 t3) お父さんが部屋の外に出る。
そのことは、 環境内センシング部 122 によって検出され、 物品/移動体検索'管理 部 105 は、 移動体履歴データ 163 の位置履歴リスト 3に新たな内容をセットする (図 7参照) 。 具体的には、
時刻: t3
位置:一
状態:外出
をセットする。 ここで、 位置が 「一」 となっているのは、 お父さんが環境の外に出た ことによって、 環境内センシング部 122 がお父さんを検出することができなくなった からである。 尚、 位置の情報として、 外出する際に通過したドアの位置情報を設定し てもよい。
また、 お父さんは、 その部屋の外に出る前に操作端末 103 を操作して、 ロボット 10 2 に対する作業命令を入力する。 作業命令の内容は、 缶ジュース 2 1を環境外の所定 の位置に移動させる内容とする。
(時刻 t4)
サーバ 101 を介してその作業命令を受けたロボット 102 は、 缶ジュースの位置 P2 (x2, y2) まで移動して、 その缶ジュースを把持する。.
このことは環境内センシング部 122 によって検出され、 物品ノ移動体検索 '管理部 105 の取扱権判定部 3 4は、 取扱権の判定を行う。 この場合、 缶ジュース 2 1の実際 の物品取扱主体はロボット 102 であるが、 本システムでは、 そのロボット 102 に対す る作業命令を発した対象を物品取扱主体と特定する。 上述したように、 操作端末 103 においてロボット 102 の作業内容を指定する際にユーザ認証処理が行われるため、 作 業命令を発した対象 (物品取扱主体) は、 その認証結果に基づいて特定される。 従つ てこの場合の物品取扱主体はお父さんとなる。 缶ジュースの取扱権は全員に設定され ていることから、 お父さんは缶ジュースの取极権を有している。 よって、 ロボット 10 2 による缶ジュース 2 1の移動作業は規制されない。
上記物品ノ移動体検索 ·管理部 105 は、 ロボット 102 の移動体履歴データ 163 (位 謹— s— PC 20 ;:,
31
置履歴リスト 5 ) に新たな内容をセットする (図 7参照) 。 具体的には、
時刻: t4
位置: (x2, y2 , r2)
状態: [kan_small- 0001]:把持
をセットする。 尚、 ロボット 102 の動作は、 環境内センシング部 122 が検出してもよ いが、 サーバ 101 1 ロボット 102 からの動作情報を受信することによって、 ロポッ ト 102 の動作を検出してもよい。
(時刻 t5)
上記ロボット 102 が缶ジュース 2 1を把持した状態でドアから環境外に移動する。 そのことは、 環境内センシング部 122 によって検出され、 物品 Z移動体検索'管理 部 105 は、 移動体履歴データ 163 の位置履歴リスト 5に新たな内容をセットする (図 7参照) 。 具体的には、
時刻: ΐ5
位置:一
状態: [kan- small- 0001] :把持
をセットする。
また、 物品 Z移動体検索 ·管理部 105 は、 物品履歴データ 161 の位置履歴リスト 1 に新たな内容をセットする (図 5参照) 。 具体的には、
時刻: t5
取扱内容:移動
物品取极主体:お父さん (ロボット)
取扱後の位置:一
このように、 物品/移動体検索 '管理部 105 は、 ロボット 102 が物品の取り扱いを 行ったときには、 そのロボット 102 に作業命令を発した対象を物品取扱主体として物 品履歴データ 161 に記録する。
さらに、 出入口センシング部 121 は、 ロボット 102 が缶ジュース 2 1を把持した状 態でドアを通過したことを検出するため、 物品ノ移動体検索 ·管理部 105 は、 ドアに 画 s— ( し PCT fP20 ; 2
32
おける物品の出入を管理する物品履歴データ 162 に新たな内容をセットする (図 6参 照) 。 具体的には、
時刻: t5
物品: kan-smal 1-0001
取扱内容:持出
物品取扱主体:お父さん (ロボット)
をセットする。
このドアにおける物品履歴データ 162 でも、 ロボット 102 が実際の物品取扱主体で あるときには、 そのロボット 102 に作業命令を発した対象を、 物品取扱主体として記 憶する。
(時刻 t6)
移動体 D B 163 の移動体データに登録されているさらに別の移動体であるお母さん が、 薬箱 2 2を持ってドアから部屋に入ってくる。
出入口センシング部 121 は、 お母さんと薬箱 2 2とが部屋内に移入したことを検出 する。 物品 移動体検索 '管理部 105 は、 その薬箱 2 2に [medicine- cabinet- 0001 ] という I Dを割り当て、 物品属性データへのポインタと対応付けて物品データに格納 する。
ここで、 薬箱の属性データを参照すると、 取扱権が 「親」 に設定されている。 この 移動体グループに含まれる移動体は、 図 7の移動体グループデータに示すように、 お 父さんとお母さんである。 この取扱権は、 お父さん又はお母さんが、 操作端末 103 に おいて取扱権の設定入力を行ったことを受けて、 取扱権設定/変更部 125 が設定した ものとする。
また、 物品 Z移動体検索 '管理部 105 は、 その薬箱 2 2の移動履歴を格納するため の 「位置履歴リスト 2」 を作成する (図 5参照) 。 この時点では位置履歴リスト 2の 中身は空のままである。
そして、 物品 Z移動体検索 '管理部 105 は、 ドアにおける物品の出入を管理する物 品履歴データ 162 に新たな内容をセットする (図 6参照) 。 具体的には、 囊 s— PC 20 ;-4:2
33
時刻: t6
物品: medicine - cabinet - 0001
取扱内容:持込
物品取扱主体:お母さん
をセットする。
(時刻 t7)
お母さんが薬箱 2 2を冷蔵庫の上である P3 (x3, y3, z3) に置く。
そのことは環境内センシング部 122 によって検出され、 物品 Z移動体検索 '管理部 105 は、 物品履歴データ 161 の位置履歴リスト 2の内容をセットする (図 5参照) 。 具体的には、
時刻: t7
取扱内容:新規
物品取扱主体:お母さん
取极後の位置: P3 (x3, y3, z3, 13, m3, n3)
をセットする。 尚、 図 7では、 お母さんの移動体データ及ぴ移動体履歴は省略してい る。
以上のようにして、 物品 移動体検索 '管理部 105 は、 物品/移動体 D B 160 に物 品や移動体の情報を格納 '更新する。 ここでは、 データベースの更新を、 物品 Z移動 体 D B 160 に登録されている各物品や移動体の位置が変更される毎に行う例を示した。 し力 し、 データベースの更新タイミングはこれに限るものではなく、 適宜設定すれば よい。
次に、 お母さんが操作端末 103 を操作することによって、 薬箱 2 2の取扱権を自分 のみに設定したとする。 その設定入力を受けて、 サーバ 101 の取扱権設定/変更部 12 5 は、 物品 D B 161 の物品データにおいて、 薬箱 2 2 (medicine- cabinet- 0001 ) の 取扱権をお母さんに設定する (図 5参照) 。
この状態で、 息子がその薬箱 2 2を移動させようとしたときには、 そのことが環境 内センシング部 122 によって検出される。 その検出結果を受けて、 物品/移動体検索 '管理部 105 は取扱権の判定を行う。 この場合、 薬箱 2 2 (medicine- cabinet- 0001 ) の取扱権は 「お母さん」 に設定されているため、 取极権判定部 3 4は、 息子は薬箱 2 2の取扱権を有していないと判定する。 その判定結果を受けて、 制御部 110 は、 警 告部 124 による警告を実行する。 警告部 124 は、 物品が取り扱われている環境内にお いて警告を行う。 例えば音声によって 「取扱権がありません」 と警告してもよい。 尚、 警告部 124 による警告は音声に限らず、 例えば操作端末 103 の表示部 117や、 部屋に 設置されているテレビ、 コンピュータディスプレイ、 プロジェクタに警告表示を行つ てもよい。 こうすることで、 物品の取り扱いを行っている息子に対して警告がなされ ると共に、 その環境内にいる他の移動体 (例えばお母さん等) にも警告がなされ、 そ れによって、 息子による物品の取り扱いを止めさせることが期待できる。
また、 制御部 110 は、 報知部 123 による報知を実行する。 報知部 123 は、 物品が取 り扱われている環境外において報知 (この場合は、 息子が薬箱 2 2を取り扱つている 旨の報知) を行う。 報知部 123 は特に、 その薬箱 2 2の取扱権を有している移動体
(この場合は、 お母さん) に報知することが好ましい。 この報知は、 例えば、 メール や電話によって行うようにすればよく、 そのために、 移動体 D B 163 の移動体データ には、 各移動体の連絡先を登録しておくことが好ましい。 また、 報知部 123 は、 上記 環境とは異なる環境 (いずれかの移動体が存在している環境) に設置されたテレビ、 コンピュータディスプレイ、 プロジェクタにおいて、 その旨を表示してもよいし、 レヽ ずれかの移動体が存在している環境にお 、て音声による報知を行つてもよい。 このよ うな報知を行うことによって、 例えば小さな子供が、 親がその場にいないときに、 薬、 タバコ、 お酒等を取り扱おうとしているときでも、 そのことを親に知らせることがで き、 効果的である。
こうして、 本システムでは、 取扱権を有していない移動体によって物品が取り扱わ れることを規制する。
また、 上記息子が、 操作端末 103 を操作して、 ロボット 102 に対する作業命令を入 力したとする。 その命令の内容は、 薬箱 2 2を、 自分の位置まで移動させる内容とす る。 本システムは、 上述したように、 そのロボット 102 に対する作業命令を発した対 Ρ€Τ ρ€Τ/ϋΡ2004 θ07
35
象を物品取极主体と特定するように構成されているため、 息子が自ら物品の取り扱い を行う場合と同様に、 そのロボット 102 による物品の取り扱いが規制される。 具体的 には、 ロボット 102 が薬箱 2 2の取り扱いを行うことが、 環境内センシング部 1 に よって検出される。 その検出結果を受けて、 物品 Ζ移動体検索 ·管理部 105 は取扱権 の判定を行う。 取扱権判定部 3 4の判定結果 (この場合、 取扱権を有していないとい う判定結果) を受けて、 制御部 110 は、 ロボット 102 にロボット制御コマンドを送信 する。 このロボット制御コマンドは、 ロボット 102 に物品の取扱作業の中止を命令す るコマンドである。 そのロボット制御コマンドを受けたロボット 102 は作業を中止す ることになる。 これによつて、 取极権を有しない移動体が、 ロボット 102 を介して物 品の取り扱いを行うことが規制される。 また、 制御部 110 は、 操作端末 103 に制御信 号を送信して、 操作端末 103 の表示部 117 に、 息子が取扱権を有していない旨の表示 させる。 表示部 117 には、 「取扱権がありません」 という警告文が表示されるように してもよいし、 取扱権がないことを連想させる記号 (例えば 「X」 ) やイラストが表 示されるようにしてもよい。
さらに、 取扱権を有していない移動体が物品の取り扱いを行うことを、 確実に防止 するために、 サーバ 101 は、 設備 104 を操作してもよい。
具体的にサーバ 101 の制御部 110 は、 取扱権判定部 3 4による判定結果を受けて、 物品取扱主体が物品の取扱権を有していないときには、 設備 104 に設備動作コマンド を送信する。 この設備動作コマンドを受けた設備 104 の制御部 126 は、 動作部 127 を 制御して電子錠をロックさせる。 こうすることで、 移動体が取り扱おうとしている物 品が設備 104 の収容部に収容されているときには、 その開閉扉が開かなくなり、 移動 体がその物品を取り扱うことを確実に防止することが可能になる。
また、 物品取扱主体特定部 3 3が特定した物品取扱主体が、 移動体 D B 163 の移動 体データに登録されていないとき、 又は、 物品取扱主体特定部 3 3が物品取扱主体を 特定できないときには、 例えば、 不審者が環境内に侵入して物品の取り扱いを行って いる場合も想定される。 そこで、 こうした場合には、 サーバ 101 の制御部 110 は、 上 述したように、 警告部 124 による警告を行ったり、 報知部 123 による報知を行ったり 一 s— PCT P20lpCT/ p :;;
36
することに加えて、 警察や警備会社に連絡を行ってもよい。 また、 センシング手段 12 0 として環境内に設置されているカメラによってその不審者を撮像して、 そのカメラ 画像を保存してもよい。 さらに、 物品が設備 104 に収容されているときには、 上述し たように、 サーバ 101 から設備 104 に設備動作コマンドを送信し、 設備 104 の開閉扉 をロックすることによつて不審者による物品を取り扱いを不可能にしてもよい。 加え て、 サーバ 101 の制御部 110 は、 ロボット 102 にロボット制御コマンドを送信するこ とによって、 不審者が物品を取り扱うことをロボット 102 によって妨害したり、 ロボ ット 102 に、 その不審者を取り押さえさせたりしてもよい。
尚、 上述したように、 お母さんが特定の薬箱 2 2 (medicine- cabinet- 0001 ) の取 扱権を 「お母さん」 に設定しても、 物品 D B 161 の物品属性データにおいて、 薬箱 (medicine-cabinet) の属性の取扱権は 「親」 に設定されたままとなる。 このため、 例えばお父さんは、 薬箱 2 2の取扱権を有していないため、 その薬箱 2 2を取り扱う ことが規制されるが、 お父さんは 「親」 の移動体グループに含まれるため、 薬箱 2 2 以外の薬箱 (例えば medicine - cabinet-0002 ) の取り扱うことは規制されない。
このように、 物品の属性について取扱権を設定可能にすることで、 同じ属性を有す る物品について取扱権をまとめて設定することができ、 取扱権の設定の容易化が図ら れる一方で、 個別の物品毎にも取极権を設定可能にすることで、 物品の取扱権をきめ 細かく設定することが可能になる
尚、 操作端末 103 において取扱権を設定する際には、 入力部 116 において入力を行 うことに限らず、 音声によって取扱権の設定を可能に構成してもよい。 例えば 「薬箱 の取扱権をお母さんに設定する」 という音声を発したときに、 取扱権設定 Z変更部 12 5 は、 薬箱の取扱権をお母さんに設定する。
また、 取扱権を設定することに対するユーザ権限を設けてもよい。 この場合は、 ュ 一ザが操作端末 103 を操作する際に認証処理を行い、 取扱権の設定の権限を有するュ 一ザの同定を行うようにすればよい。
本システムにおいては、 物品/移動体 D B 160 に、 物品に関する種々の情報が格納 されている。 そこで、 本システムでは、 ユーザが操作端末 103 を操作することによつ
Figure imgf000039_0001
37
て、 所望の物品の検索を行うことが可能に構成されている。
具体的にユーザは、 操作端末 103 の入力部を操作することによって、 物品の検索条 件を入力する。 物品 D B 161 には、 物品の名称は勿論のこと、 図 5に示すように、 物 品属性データ及ぴ物品履歴データが記憶されているため、 物品の種類、 物品取扱主体、 取り扱われた日時、 取扱権等を検索キーとして検索することが可能である。 操作端末 103 において検索条件を入力する形態は、 こうした検索キーを入力する形態としても よい。 また、 例えば 「mm月 d d日 t t時頃にテーブルの上に置いたお金を誰がどこ に移動させたか?」 といった口語文を入力する形態としてもよい。
操作端末 103 に入力された検索条件の情報は、 ネットワークを介して環境管理サー バ 101 に送られる。 その情報を受けたサーバ 101 の物品ノ移動体検索'管理部 105 は、 物品 Z移動体 D B 160 を参照して、 指定された条件に合致する情報を検索する。 こう した情報の検索手法は、 一般的な手法を採用することができる。
物品/移動体検索'管理部 105 による検索結果は、 サーバ 101 からネットワークを 介して操作端末 103 に送られる。 検索結果を受けた操作端末 103 は、 その検索結果を ユーザに提示する。 例えば、 環境内のマップを表示部 117 に表示して、 その物品の現 在の場所をそのマップ上で指し示してもよい。 また、 例えば 「その物品は、 お母さん が棚の上に移動させた」 といったように、 音声でユーザに情報を提示してもよい。 こうしたユーザによるサーバ 101 に対する問い合わせが行われるときにも、 取极権 判定部 3 4は、 問い合わせを行った移動体が、 その問い合わせに係る物品の取扱権を 有している力否かを判定するのがよい。 そして、 その判定結果に応じて、 問い合わせ を行った移動体がその問い合わせに係る物品の取扱権を有していないときには、 「そ れは、 お母さんが棚の上に移動させたが、 あなたは取扱権を有していないため、 取り 扱うことができません」 という情報をユーザに提示してもよい。 さらに、 問い合わせ を行った移動体が取扱権を有していないときには、 「答えられません」 「ありませ ん J といった情報をユーザに提示することによって、 問い合わせ自体を規制してもよ レ、。
取扱権設定ノ変更部 125 は、 物品の取扱権を設定する際に、 物品の移動等の直接的 M04-s-oy , PCl fP20¾>c ;:;
. 38
な取り扱いについての取极権を設定すると共に、 物品の検索等の情報の取り扱いにつ いての取扱権を設定可能にしてもよい。
また、 取扱権設定 Z変更部 125 は、 環境内における物品の取り扱いは許可する一方 で、 環境内から外部に物品を持ち出すことを規制するという取扱権を設定可能しても よい。 この場合, 出入口センシング部 121 が物品取扱主体による物品を持ち出しを検 出したときに、 取扱権判定部 3 4は、 その物品取扱主体がその物品の取扱権を有して いる力否かを判定し、 その判定結果に応じて、 制御部 110 は、 警告部 124 による警告 や報知部 123 による報知を行えばよい。
さらに、 取扱権設定/変更部 125 は、 環境内への物品の持ち込みを規制するという 取扱権を設定可能にしてもよい。 一環境内の状況に応じた取扱権の設定 ·変更一
次に、 取扱権設定 Z変更部 125 による取扱権の設定'変更について説明する。
(取扱権の自動設定)
自動設定の 1つとして、 上記取扱権設定/変更部 125 は、 物品の取り扱い履歴に基 づいて、 その物品の取扱権を自動的に設定する。 また、 上記取扱権設定 Z変更部 125 は'、 新規物品が環境内に持ち込まれたときに、 その物品の取扱権を、 その物品を持ち 込んだ移動体に対して設定する。
先ず、 物品の取り扱い履歴に基づく取扱権の自動設定について、 図 1 1〜1 3を参 照しながら説明する。
図 1 1は、 日記帳 (ID: diary— 0001) に関する物品 D B 161 を示している。 この日記 帳の物品属性データはその日記帳に付された電子タグから取得されて物品属性データ に記録されている。 上記日記帳の取扱権は設定されていないとする。
また、 上述したセンシング手段 120及びサーバ 101 による物品管理によって、 日記 帳の物品履歴データ 161 には、 日記帳の取り扱い履歴が既に記録されているとする。 この物品履歴データ 161 を参照すると、 日記帳の取扱主体は娘であり、 娘以外の移 動体は日記帳を取り扱つていないことがわかる。 このように、 物品の取扱主体が特定 丽- s- pcq p20pcT
39
の移動体に限られているときには、 取扱権を設定することが可能である。 そこで、 図 1 1の例では、 取扱権設定 変更部 125 は、 日記帳 (ID : diary_0001) の取扱権を娘に 設定する。 このときに、 取扱権設定 Z変更部 125 は、 設定した取扱権をデータベース に登録する前に、 娘に対して、 取扱権を設定した旨を通知してもよい。
尚、 物品の取り扱い履歴に基づいて、 物品の取扱主体が特定の属性を有する移動体 (移動体グループ) に限られているときには、 当該物品の取扱権をその移動体グルー プに設定すればよい。 また、 物品の取り扱い履歴に基づいて、 特定の属性を有する物 品 (物品グループ) の取扱主体が、 特定の移動体 (又は移動体グループ) に限られて いるときには、 当該物品グループの取极権をその移動体 (又は移動体グループ) に設 定すればよい。
ここでは、 物品履歴データ 161 に基づいて取扱権を設定したが、 物品履歴データ 16 1 に基づいて物品の片付け位置、 片付け状態を設定することも可能である。 図 1 1に 示す物品履歴データ 161 において、 時刻 tl〜t2、 t3〜t4、 t5〜t6の各時間が、 時刻 t2 〜t3、 t4〜 の各時間に比べて十分に短いとする。 この場合、 日記帳は (x2, y2,z2) の位置に、 (12,m2,n2) の向きで長時間置かれていることがわかる。 また、 位置 (x2, y2, z2) が娘の部屋の机の引出しの中に対応し、 その引出しには錠がついているとする。 この錠の状態履歴は、 例えば図 1 2に示すように、 設備 104の状態を示すデータとし て、 設備データ及び状態履歴データがサーバ 101 に記録されているとする。 この状態 履歴データにおいて、 状態変化内容が 「Unlock」 は解錠したことを、 また 「Lock」 は 施錠したことを示している。
この状態履歴データと、 物品履歴データ 161 とを参照すると、 日記帳が引出しの中 に置かれている間は、 その引き出しが常に施錠されていることがわかる。
そこで、 日記帳の片付け位置、 片付け状態を以下のように設定することができる。 片付け位置: (x2, y2, z2, 12, m2, n2)
片付け状態: Door— key—0004, Lock
こうして自動設定した取扱権、 片付け位置、 片付け状態は、 図 1 3に示すように、 それぞれ物品データとしてデータベースに登録される。 尚、 設定した片付け位置及ぴ MO4-S- PCT趣。 o '
40
片付け状態をデータベースに登録する前に、 その物品の取扱権を有する移動体に対し て、 片付け位置及ぴ片付け状態を設定した旨を通知し、 その移動体に片付け位置及ぴ 片付け状態を確認させてもよい。 また、 物品の片付け位置及ぴ片付け状態は、 その物 品の取扱権を有する移動体が手動で設定してもよい。
このように物品履歴データに基づいて、 取扱権、 片付け位置、 片付け状態をー且設 定した後も、 物品履歴データに基づいて取扱権、 片付け位置、 片付け状態を自動的に 変更可能にしてもよい。 つまり、 学習を継続してもよい。 また、 取极権を有する移動 体が、 システムに対して学習の終了を命令可能にしてもよレ、。
また、 物品の属性に応じて、 学習による取扱権、 片付け位置、 片付け状態の設定を 行うときと、 行わないときとを切り換えてもよい。 、 例えばノートやカバンといった 使用頻度の高い物品については、 学習によって取扱権、 片付け位置、 片付け状態の設 定を行い、 使用頻度の低い物品については、 学習による設定を行わないようにしても よい。 物品に付された電子タグに、 学習を行うか否かの情報を埋め込んでおいてもよ い。
また、 取扱権を有する移動体が、 自動設定された片付け位置、 片付け状態を変更す ることを可能にしてもよい。 片付け位置、 片付け状態が変更された場合に、 その物品 の取扱権を有する移動体が複数存在するときには、 変更があった旨を取扱権を有する 全ての移動体に報知することが望ましい。 また、 片付け位置、 片付け状態の変更は、 取扱権を有する全ての移動体が許可しない限り、 不能としてもよレ、。
次に、 新規物品が環境内に持ち込まれたときの取扱権の自動設定は、 以下のように して行えばよい。
上述したように、 物品が移動体によって環境内に持ち込まれたことは、 出入口セン シング部 121 によって検出され、 物品ノ移動体検索 '管理部 105 によってその物品と 移動体とがそれぞれ特定される。 そうして、 物品と移動体とが特定されたときに、 そ の物品の取扱権をその移動体に対し設定する。 こうした処理によって、 例えば買い物 をして大量の新規物品を環境内へ持ち込む場合には、 各物品の取扱権が効率的に設定 される。 M04- S- PC碰2004 7
41
(ロボットによる物品の片付け作業)
上述したように、 物品の片付け位置及び片付け状態が設定されたときには、 そのデ ータに基づいて、 ロボットに物品の片付け作業を自動的に実行させることが可能にな る。 このことについて、 図 1 3を参照しながら説明する。
先ず、 日記帳の取扱権を有する娘が、 その日記帳を机の引き出しから取り出して、 位置 (xl,yl,zl, ll,ml,nl) に移動する。 その後、 その日記帳の片付け位置である引き 出しに移動させずに、 そのまま部屋を出て行ったとする。 位置 (xl, yl, zl, ll, ml, nl) に日記帳が放置され、 その近傍に娘がいないことは、 センシング手段 120 によって検 出される。
このように、 物品が片付け位置とは異なる位置に放置された状態が継続したときに は、 サーバ 101 は口ポット 102 に対して、 その物品を設定された片付け位置に移動さ せる作業を実行させる。 このときにその物品の取扱権が特定の移動体にのみ設定され ているときには、 ロボット 102 が自動で物品の取扱作業を実行することができない。 そこで、 サーバ 101 の取扱権設定 Z変更部 125 は、 物品に設定された取扱権を一時的 に無効にして、 ロボット 102 が物品の取扱作業を実行可能にする。
上記の例では、 日記帳の取扱権が娘に設定されているため、 取扱権設定 Z変更部 12 5 は、 その日記帳の取扱権を一時的に無効にする。 そうして、 サーバ 101 の制御部 11 0 はロボット 102に対して、 (xl, yl,zl,ll, ml, nl) に位置する日記帳を、 片付け位置 (x2, y2, z2, 12, m2, n2) に移動させるロボット制御コマンドを送信する。 ロボット制御 コマンドを受けたロボット 102 は、 位置 (xl, yl, zl, ll, ml, nl) に移動して日記帳を把 持し、 その後、 位置 (x2, y2, z2, 12, m2, n2) に移動をして日記帳を解放する。 そうして、 日記帳は、 片付け位置である机の引き出しの中に保管される。 また、 日記帳の片付け 状態が設定されているため、 サーバ 101 の制御部 110 はその引出しを施錠すべく、 机 に対して設備動作コマンドを送信する。 設備動作コマンドを受けた机は、 引き出しを 施錠する。
日記帳を片付け位置に移動させて、 片付け状態にした後には、 上記取扱権設定/変 更部 125 は、 その日記帳の取扱権を有効に切り換える。 そうして、 日記帳の取扱権を 謝 - s- υ T/732
42
再ぴ娘に設定する。
尚、 放置された物品の近傍に、 その物品の取扱権を有する移動体が存在するときに は、 上述した口ポット 102 による物品の片付け作業を実行しないようにすればよい。 また、 取极権を有する移動体に対して、 片付け作業の実行について確認を行い、 移動 体が許可したときに片付け作業を実行するようにしてもよい。 さらに、 口ポット 102 による物品の片付け作業を自動的に実行する力否かは、 その物品の取扱権を有する移 動体が予め設定しておいてもよい。
また、 上記の処理では、 取扱権を一時的に無効にしたが、 取扱権設定 Z変更部 125 は、 ロボット 102 に対する取扱権を一時的に設定することによって、 上記ロボット 10 2 が片付け作業を実行可能にしてもよい。
このロボットによる物品の片付け作業は、 特定の移動体が取り扱うことを制限する ことが望ましい物品について、 特に有効である。 上述したように、 例えば薬箱は、 子 供が取り扱うことは規制することが望ましい物品である。 そのため、 薬箱は、 例えば たんすの上などの、 子供の手が届かないところに置かれる。 し力 し、 例えば所定の片 付け位置に戻すことを忘れたり、 地震によって片付け位置から床に落ちたりして、 薬 箱が子供の手が届く位置に放置されることは起こり得る。 センシング手段 120 によつ て、 薬箱が片付け位置とは異なる位置に放置されていることが検出されたときには、 上述したように、 薬箱の取扱権を一時的に無効にして、 ロボット 102 による薬箱の片 付け作業を実行する。 そうすることによって、 危険を未然に回避することができる。 尚、 ロボット 102 によって物品を自動的に片付ける作業とは別に、 取扱権を有する 移動体がロボット 102 に対する作業命令を行ったときには、 そのロボット 102 は当然 に、 物品の片付け作業を実行する。
(物品の状況に応じた取扱権の変更処理)
一般家庭、 オフィス、 ホテル、 店舗及び病院等の生活空間においては、 物品の状況 は刻々と変化する。 この状況の変化に対し、 物品にー且設定した取扱権は変更しない のではなく、 状況の変化に応じて物品の取极権を変更することによって、 様々な利便 性が得られる。 上記の取扱権を無効にしてロボット 102 が物品の片付け作業を行うこ - - >CT/JP2 4 3
43
とも、 その一例である。 以下これ以外の、 取扱権の変更処理について、 いくつかの例 を挙げて説明する。
1 ) 物品の存在する位置に応じて、 その物品の取扱権を変更する処理
この処理の例として、 衣類の管理を挙げることができる。 図 1 4は、 シャツ (ID: s hirt-0001) に関する物品データを示している。 図 1 3に示す物品データと比較して、 図 1 4に示す物品データには 「物品状況」 が追加されている。 物品状況には、 息子の 部屋と脱衣所とが含まれ、 それぞれに対して取扱権、 片付け位置、 片付け状態が設定 されている。 つまり、 シャツ (ID: shirt- 0001) が息子の部屋に存在するときには、 そ の取扱権は息子に設定され、 片付け位置はタンスの中に設定され、 片付け状態は畳む ことが設定される。 一方、 シャツ (ID: shirt- 0001) が脱衣所に存在するときには、 そ の取扱権は全員に設定され、 片付け位置は洗濯籠に設定され、 片付け状態は設定され ない。
こうすることによって、 シャツが息子の部屋に存在するときには、 その取扱権は 「息子」 に設定されるため、 その他の移動体はシャツを取り扱うことができない。 ま た、 シャツの片付け位置及ぴ片付け状態がそれぞれ設定されているため、 例えば息子 の部屋の床に放置されているときには、 上述したように、 取扱権設定/変更部 125 に よって取扱権が一時的に無効にされて、 ロボット 102 による片付け作業が実行される。 そうして、 シャツは、 たんすの中に畳んだ状態にされる。
一方、 シャツが脱衣所に存在するときには、 その取扱権は 「全員」 に設定される。 このため、 全ての移動体が取り扱い可能となる。 これは、 脱衣所に放置された衣類は 洗濯すべきものと考えられるため、 特定の移動体のみがその取り扱いを可能とするの ではなく、 全ての移動体がその取り扱いを可能にした方が利便性が高まるためである。 また、 シャツが洗濯籠以外の位置に放置されているときには、 ロボット 102 による 片付け作業が実行される。 この場合、 取扱権が 「全員」 に設定されているため、 シャ ッの取扱権がロボット 102 にも設定されており、 取扱権設定 Z変更部 125 が取扱権を 無効にしなくても、 ロボット 102 はシャツの片付け作業を実行することができる。 尚、 ここでは、 物品について設定された取扱権を変更する処理について説明した力 物品グループについて設定された取扱権を変更することも可能である。
別の例として、 物品がゴミ箱に捨てられたときには、 その物品について設定された 取扱権を無効にしたり、 取扱権を 「全員」 に変更したりしてもよい。 そうすることに よって、 全ての移動体が、 ゴミを廃棄することが可能になる。 但し、 取扱権を全員に 変更したしたときに、 その取り扱い内容はゴミの廃棄に限定し、 それ以外の取り扱い は規制することが望ましい。 これは、 ゴミの中身が他人に見られることによって、 プ ライパシーが侵されたり、 機密が漏れたりすることを防止するためである。
ここで、 取扱権を変更したときの処理について説明すると、 取扱権を変更したとき には、 サーバ 101 は、 取扱権が変更されたことを、 報知部 123 によって移動体に報知 することが好ましい。 このときに、 報知の対象となる移動体は、 それまで取扱権を有 していた移動体や、 取扱権の変更によって新たに取极権を有することになつた移動体 とすればよい。 また、 新たに取扱権を有することになつた移動体が、 その物品の近傍 に位置する場合に限って、 その移動体に対し報知を行ってもよい。
さらに別の例として、 複数の物品が 1つの容器に入れられた場合であって、 その複 数の物品の取扱権が互いに異なる移動体に設定されている場合の処理について説明す る。 具体例として、 衣類が洗濯籠に入れられる例を挙げることができる。
この場合は、 容器に収容された各物品の取扱権が互いに異なる上に、 各物品の取扱 権と容器の取扱権とが異なることになる。 このため、 各物品を収容した状態の容器を 取り扱うことは、 誰に対して許可されることになるのか? という問題が生じる。 このような場合には、 物品を納めている容器に設定された取扱権を優先し、 その容 器に収容されている各物品の取扱権を、 一時的に無効にしたり、 容器に設定されてい る取扱権に一致すベく各物品の取扱権を変更したり、 又は各物品の取扱権に容器に設 定されている取扱権の移動体を追加したり、 する処理を実行すればよい。 こうするこ とで、 各物品と容器との取扱権を一致させ、 物品を収容した状態の容器全体に対して、 特定の取极権を設定する。
尚、 容器に物品が収容されていることは、 例えばその容器にリーダライタを設ける ことによって、 検出可能である。 また、 各物品を収容した状態の容器全体に対して特定の取扱権を設定した場合にお いて、 その容器の位置に応じて取扱権を変更する処理を行ってもよい。
このことについて、 各物品を衣類とし、 容器を洗濯籠とした例に沿って、 図 1 5を 参照しながら説明する。 ここでは、 洗濯籠が脱衣所に存在しているときには、 その洗 濯籠に入れられている衣類の取扱権は変更せず (つまり、 その衣類に予め設定されて いる取扱権のままとする) 、 洗濯籠が物干し場に存在しているときには、 その洗濯籠 に入れられている衣類の取扱権を、 洗濯籠に設定されている取扱権に一致させる、 と する。
図 1 5は、 シャツ及ぴ洗濯籠についての物品データと物品履歴データとを示したも のである。 ここで、 物品 I D laundry basket— 0001は洗濯籠を、 位置(x4, y4, z4)は洗 濯機の位置を、 位置 (x7, y7, z7)は脱衣所を、 また位置 (x8, y8, z8)は洗濯機の近傍位置 を、 位置 (x9, y9, z9)は物干し場の位置をそれぞれ示している。
物品履歴データを参照すると、 時刻 tlに、 お母さんが洗濯籠を脱衣所に持ち込み、 時刻 t2に、 息子がシャツ (ID: shirt - 0001) をこの洗濯籠に入れた、 ことがわかる。 上述したように、 洗濯籠が脱衣所に存在しているときには、 その洗濯籠に入れられ ている衣類の取扱権は変更されないため、 シャツの取扱権は、 息子に設定されたまま となる。 従って、 息子は、 その洗濯籠に入れたシャツを取り出すことも可能である。 時刻 t3に、 お母さんは、 このシャツが入れられた洗濯籠を洗濯機の位置まで運び、 時刻 t4に、 そのシャツは洗濯機によって洗濯される。 そして、 時刻 1:5に、 お母さんは 洗濯籠に洗濯後のシャツを入れて、 その洗濯籠を物干し場に移動する。 このときに、 上述したように、 洗濯籠に入れられた衣類の取扱権はその洗濯籠の取扱権と一致する ように変更されるため、 シャツ (ID: shirt- 0001) の取扱権はお母さんのみに設定され る。 従って、 仮に息子がそのシャツを洗濯籠から取り出そうとしても、 そのことが規 制される。
以上の処理は、 例えば、 容器をカバンとした場合においても有効である。
また、 上記の処理では、 容器に入れられる物品の取扱権を変更しているが、 これと は異なり以下のような処理も考えられる。 つまり、 各物品について予め優先順位を設 腿 -S- PCT/JP2004 OO73 .
46
定しておき、 複数の物品が容器に収容されたときには、 複数の物品の内で優先順位の 最も高い物品に設定されている取扱権に、 他の物品 (容器を含む) の取扱権を一致さ せる、 とすることも可能である。 こうした処理は、 例えば貴金属等の貴重品を管理す る場合に有効である。
2 ) 物品の温度に応じて、 その物品の取扱権を変更する処理
この処理の例として、 配膳作業を挙げることができる。 ここでは、 具体例として、 ロボット 102 が作業命令に従って、 コーヒーを配膳する場合を例に説明する。
このときに、 コーヒーの取极権は予め 「全員」 に設定されているとする。 このため 通常は、 どの移動体がロボット 102 に対してコーヒーの配膳作業を命令しても、 ロボ ット 102 は配膳作業を実行することになる。
しかしながら、 配膳の相手が小さな子供であったときに、 熱いコーヒーを配膳する ことは、 安全上好ましくない。 そこで、 取扱権設定/変更部 1 は、 そのコーヒーの 温度に応じて取极権の変更を行う。 例えば、 コーヒーの温度が所定の温度以上である ときには、 取扱権を所定の年齢以上の移動体にのみ設定する一方で、 コーヒーの温度 が所定の温度よりも低い (温度が低下した場合を含む) ときには、 取扱権を全ての移 動体に設定する。 その結果、 ロボット 102 が熱いコーヒーを小さな子供に配膳するこ とは規制される。 尚、 コーヒーの温度は、 例えば赤外線カメラによって検出可能であ る。
物品の温度に応じて、 その物品の取扱権を変更する処理は、 例えばコンロ等、 温度 を制御する機器を使うことの多いキッチン、 その他において特に有効である。
3 ) 物品の形状変化に応じて、 その物品の取扱権を変更する処理
この処理の例として、 陶器が破損した例を挙げることができる。 この処理では、 陶 器が破損したときに、 ロボットがその破損した陶器を片付ける作業を自動的に実行可 能にするために取扱権を変更する。
ここで、 環境内センシング部 122 が画像センサと電子タグとの双方を用いる構成で あるときには、 以下のようにして、 物品が元の形状を有していないことを検出するこ とができる。 つまり、 背景差分法によって複数の物品の存在が検出されているのに対し、 電子タ グから読み取られる情報はその検出した物品の数よりも少ない場合、 又は電子タグか ら、 物品の大きさや形状に付いての情報を読み取っているのに対し、 背景差分法では、 それに対応する物品が検出できない場合、 には、 物品が破損して元の形状を有してい ないと判定することができる。
尚、 物品の破損を検出する方法はこれに限らず、 例えばマイクロフォンによって環 境内の音を検出し、 音源解析によって物品の破損を検出してもよい。
上記環境内センシング部 122 の検出結果に基づいて、 陶器の破損が検出されたとき には、 上記取扱権設定 Z変更部 125 は、 その陶器の取扱権を全員に変更する。 そうし た上で、 サ一バ 101 の制御部 110 は、 口ポット 102 に対して破損した物品の片付け作 業を実行させる。 こうして、 人がその片付け作業をしなくても、 破損した物品が片付 けられる。 尚、 破損した物品の取扱権は無効にしてもよい。
4 ) 物品の重量に応じて、 その物品の取扱権を変更する処理
この処理の一例として、 人による物品の運搬作業をロボットが補助する例を挙げる ことができる。
例えばお父さんが、 複数の物品を抱えた状態で環境内に入ってきた場合を例に、 こ の処理について説明する。
上述したように、 取扱権設定 Z変更部 125 は、 新規物品が環境内に持ち込まれたと きに、 その物品の取扱権を、 その物品を持ち込んだ移動体に対して設定する。 従って、 お父さんが環境内に持ち込んだ全ての物品の取扱権は、 お父さんに設定される。
—方、 センシング手段 120 が各物品に付された電子タグの情報を読み取ることによ つて各物品の重量データが得られるため、 お父さんが抱えている物品の総重量を検出 することができる。
そうして、 その複数の物品の総重量と所定の重量 G_thとを比較して、 総重量が G— th よりも重いときには、 本システムはロボット 102 に、 お父さんが行っている物品の運 搬作業を補助させる。 このときに、 上記複数の物品の取扱権はお父さんに設定されて いるため、 取扱権設定 Z変更部 125 は、 その各物品の取扱権を一時的に全員に変更し、 それによつて、 ロボット 102 が運搬作業を実行することを可能にする。
尚、 しきい値である G— thは、 移動体毎に予め設定して、 データベースに登録してお けばよい。
別の例として、 物品の廃棄作業をロボット 102 が自動的に実行する例を挙げること ができる。' これは、 例えばバターその他の、 消費される物が容器に入れられた物品に おいて、 その内容物がなくなったときにその容器を廃棄する場合に有効である。 尚、 このような物品は、 容器に電子タグが取り付けられる。
具体的な処理としては、 先ず、 内容物を含まない容器のみの重量データを、 物品属 性データとして予めデータベースに記録しておく。 こうしたデータは、 電子タグに埋 め込まれたデータから取得することができる。 また、 その物品 (容器及ぴ内容物を含 む) の取扱権がいずれかの移動体に設定されているとする。
そうして、 センシング手段 120 によってその物品の重量を定期的に検出する。 例え ばロボット 102 のアーム 1 2 aに重量センサを取り付けて、 それによつて物品の重量 を検出してもよい。 検出の結果、 物品の重量が容器の重さになっていたときには、 取 扱権設定 Z変更部 125 は、 ロボット 102 に対しその物品の取极権を設定する。 そうし て、 サーバ 101 の制御部 110 は、 ロボット 102 に対してその物品の廃棄作業を実行さ せる。
この例は、 容器を廃棄する前に、 その容器に対して廃棄ための処理が必要な物品に ついて、 特に有効である。 例えばスプレー缶は、 廃棄前に穴を開けてその内部のガス を排出する処理を必要とする物品である。 物品の廃棄作業をロボット 102 が自動的に 実行する構成では、 容器に対する処理もロボット 102 に自動的に実行させることがで きる。 また、 物品の材質に応じて分別廃棄する場合にも、 その分別作業をロボット 10 2 に自動的に実行させることができる。
また、 内容物がなくなった物品の取扱権は、 ロボット 102 に変更するのではなく、 他の移動体に変更する構成としてもよい。 例えばスプレー缶は、 その内容物があると きには、 子供が取り扱うことを規制したい物品である。 そのためには、 子供にスプレ 一缶の取扱権を設定しなければよい。 し力 し、 その内容物が無くなって缶容器のみに 謝 - s-。 PCT fP20fpc™ 4/oo;3 2
49
なれば遊び道具となり得るため、 子供が取り扱うことを規制する必要がなくなる。 そ こで、 上述したように、 センシング手段 120 の検出の結果、 物品の重量が容器の重さ になったときには、 取扱権設定/変更部 125 は、 そのスプレー缶の取扱権を子供に対 して設定してもよい。
5 ) 物品の近傍に存在する移動体に応じて、 その物品の取扱権を変更する処理 この処理は、 移動体の気分を害することなく、 ロボット 102 が物品の取り扱い作業 を実行するために効果的な処理である。
この処理について、 図 1 6に示す物品データ を参照しながら説明する。 この例は、 脱衣所に移動体が存在しているとき (例えば着替えをしているとき) に、 その脱衣所 においてロボット 102 が作業を実行することを規制する例である。
図 1 6に示す物品データには、 図 1 3に示す物品データと比較して、 「物品の場 所」 と 「物品の近傍状況」 とがそれぞれ追加されている。 物品の場所には、 息子の部 屋と脱衣所とが含まれ、 それぞれに対して取扱権、 片付け位置、 片付け状態が設定さ れている。 また、 物品の近傍状況には、 「人なし」 と 「人あり」 とが含まれている。 つまり、 シャツ (ID: shirt- 0001) が息子の部屋に存在するときには、 その取扱権は息 子に設定される。 一方、 そのシャツが脱衣所に存在するときであって、 そのシャツの 近傍に人が存在しないときには、 その取扱権は全員に設定されるのに対し、 シャツが 脱衣所に存在するときであって、 そのシャツの近傍に人が存在するときには、 その取 扱権はその近傍にいる人に設定される。
例えば脱衣所において息子が着替えているときに、 居間にいるお母さんが、 ロボッ ト 102 に対して、 脱衣所のシャツを洗濯するように作業命令を発したと仮定する。 こ のときには、 脱衣所のシャツの取扱権は、 その近傍に存在する移動体、 つまり息子が 有しているため、 お母さんは取扱権を有していない。 従って、 ロボット 102 に対して 発した命令は実行されないことになる。
尚、 お母さんが作業命令を発した旨を取扱権を有する息子に報知して、 息子に対し て、 ロボット 102 が作業を実行することの許可を求める構成とすることが可能である。 また、 お母さんが発した命令をスタックしておくことによって、 脱衣所から息子が 出て取扱権を全員に変更した後に、 その命令に係る作業をロボット 102 が実行しても よい。
また、 図 1 6の例は、 物品毎に取扱権の変更を設定する例であるが、 例えば場所に 対応付けて、 取扱権の変更を設定してもよい。 また、 物品の属性に対し設定された取 扱権の変更を行つてもよい。
また、 移動体の近傍でロボット 102 が作業すること禁止すべく、 物品の近傍に移動 体が存在しているときには、 ロボット 102 に設定されている取扱権を無効にしてもよ い。 また、 上記の例では、 脱衣所内に人が存在するときには、 ロボット 102 が脱衣所 に入ることを禁止してもよい。 またこの場合において、 脱衣所内にいる人のみが、 口 ボット 102 が脱衣所に入ることを許可可能にしてもよい。
6 ) 物品の履歴情報に応じて、 その物品の取扱権を変更する処理
この処理は、 物品に対し不適切な取り扱いが行われることを未然に防止すると共に、 ロボット 102 が適切な取り扱い作業を自動的に実行可能にするための処理である。 こ の処理の例として、 衣類に関する例が拳げられ、 以下、 その例に従って処理の詳細を 説明する。
図 1 7 , 1 8は、 息子に取扱権が設定されたシャツ (ID: shirt- 0001) の物品履歴デ ータをそれぞれ示している。 ここで、 位置(x3, y3,z3)はたんすを、 位置(x5,y5, z5)は 息子の部屋を、 位置 (x6, y6,z6)は玄関の位置を示している。 また、 そのシャツの片付 け位置は(x3, y3, z3, 13, m3, n3)に設定されているとする。
図 1 7に示す物品履歴データを参照することによって、 シャツの取り扱い履歴がわ かる。 つまり、 この衣類は、
時刻 tlに、 お母さんによって洗濯された。
時刻 t2に、 お母さんによってたんすに移動された。
時刻 t3に、 息子によって玄関から屋外へ持ち出された。
時刻 t4に、 息子によって玄関から屋内へ持ち込まれた。
時刻 t5に、 息子によつて位置 (x5, y5, z5)へ移動された。
この取り扱い履歴に基づくと、 上記シャツは、 一度屋外に持ち出されていることか 4
51
ら、 このシャツは汚れており、 洗濯をする必要があると推測される。
そこで、 取扱権設定 Ζ変更部 125 は、 上記シャツの取扱権を全員に変更し、 サーバ 101 の制御部 110 は、 そのシャツを洗濯籠に移動させるベく、 ロボット 102 に対する 作業命令を発する。 その結果、 シャツは自動的に洗濯籠に入れられることになる。 これに対し、 図 1 8に示す物品履歴データを参照することによって、 シャツは、 時刻 tilに、 お母さんによって洗濯された。
時刻 tl2に、 お母さんによつてたんすに移動された。
時刻 113に、 息子によつて位置 5, y5, z5)へ移動された。
この取り扱い履歴に基づくと、 シャツは、 洗濯された後、 一度も屋外に持ち出され ていないことから、 このシャツは洗濯をする必要はないと推測される。 この場合、 取 扱権設定 Z変更部 125 は、 シャツの取扱権の変更は行わない。
尚、 上述したように、 シャツが息子の部屋に放置されているときには、 その取扱権 を一時的に無効にして、 ロボット 102 による片付け作業を実行してもよい。
7 ) 物品の使用期限情報に応じて、 その物品の取扱権を変更する処理
この処理も、 物品に対し不適切な取り扱レ、が行われることを未然に防止すると共に、 ロボット 102 が適切な取り扱い作業を自動的に実行可能にするための処理である。 この処理の例としては、 賞味期限に応じて食品の取扱権を変更する例を挙げること ができる。 つまり、 賞味期限が切れた食品は廃棄処理することが望ましく、 人が口に することを防止したい。 そこで、 物品 D B 161 で管理されている物品のデータに基づ いて賞味期限の切れた食品を抽出し、 取极権設定 Z変更部 125 は、 その食品の取扱権 を、 ロボット 102 のみに変更する。 こうすることによって、 ロボット 102以外の移動 体がその食品を取り扱おうとしたときには、 上述したように、 警告部による警告がな される。 この警告は、 例えば賞味期限が切れている旨を警告することが好ましい。 尚、 賞味期限情報は、 食品に付された電子タグに埋め込んでおけばよい。 また、 物品を管 理するサーバ 101 は、 賞味期限の数日前に、 賞味期限が切れる旨を取极権を有する移 動体に対して報知してもよい。
以上の処理は、 賞味期限が切れた後に、 その食品の取扱権を変更する処理である力 取扱権設定 Z変更部 125 は、 例えば賞味期限が切れる前にその食品の取扱権を変更す る処理を行ってもよい。 つまり、 食品の取扱権を 「全員」 に変更することによって、 それまで取扱権を有していなかった移動体にも、 取扱権を設定する。 これにより、 そ の食品が賞味期限前に消費される確率が高まる。 賞味期限が切れる前にその食品の取 扱権を変更したときは、 そのことを取扱権を有する全ての移動体に報知することが好 ましい。
8 ) 特殊な状況において物品の取扱権を変更する処理
引越しや、 例えば火災の発生等の非常事態時においては、 全ての物品の取扱権を一 斉に変更することが望ましい。 これは、 例えば火災の発生時について考えると、 環境 内に存在する各物品の取り扱いがその取扱権によって規制されてしまう状況では、 消 火活動や救助活動を妨げる虞があるためである。
そこで、 こうした状況においては、 取扱権設定 Z変更部 125 は、 データベースにお いて管理している全ての物品について、 その取扱権を 「全員」 に設定する。 こうする ことによって、 環境内に存在する物品を誰もが取り扱い可能になる。
また、 ここで取扱権を設定する移動体には、 消防隊員や警察官等、 非常事態時の環 境において活動をする移動体を含めることが望ましい。 例えば I Dデータとパイオメ トリクス認証を組み合わせた一般的な方法を利用することによって消防隊員や警察官 の認証が可能である。
尚、 赤外カメラを用いて環境内の温度を検出することによって、 火災の発生は検出 可能である。
また、 上記の処理は物品の取扱権を変更するだけの処理であつたが、 例えば地震の 発生時には、 物品の取扱権を変更した上で、 設定されている片付け位置にかつ片付け 状態に物品を戻す作業をロボット 102 が自動的に実行するようにしてもよい。 つまり、 地震の発生によってガス栓が開いたり、 ガラスが割れたりした場合においても、 取扱 権によって物品の取り扱いが規制されるのでは、 防災上好ましくない。
そこで、 地震が発生した状況では、 取扱権設定 変更部 125 は、 全ての物品の取扱 権を一斉に変更し、 サーバ 101 の制御部 110 は、 ロボット 102 に対して全ての物品の 腿- s- Τ/ 73 2
53
片付け作業を実行させる。 この作業には、 予め優先順位を設けておき、 例えば 2次災 害の原因となるガス栓や、 割れたガラスに対する作業は先に実行し、 その他の物品
(例えば衣類や書籍等) に対する作業は後で実行する、 ようにしてもよい。 また、 破 損によって、 設定されている片付け位置や、 片付け状態に戻すことのできない物品に ついては、 その物品の取扱権を有する移動体に対して、 サーバ 101から通知するように してもよい。 また、 サーバ 101 が自動的に、 その物品の修理業者、 その他の連絡先に 連絡してもよい。
尚、 地震の発生は、 環境内を撮像するカメラ画像に基づいて検出することができる。 例えば撮影した画像のフレーム間差分を求めることによって、 画面全体が周期的に動 いていることを検出可能である。 その検出結果に基づいて、 地震の発生を検出可能で ある。 地震の発生は地震計によって検出してもよい。
尚、 上記の説明では、 環境内の状況に基づいて物品に予め設定されている取扱権を 変更する処理について主に説明したが、 取极権が設定されていない物品に対して、 物 品の位置、 温度、 状変化、 その他に応じて取扱権を新規に設定することも、 同様に 行うことができる。
(変形例 1 )
上記の実施形態は、 作業ロボット 102 を備えたシステムについて説明したが、 物品 管理システムは、 作業ロボット 102 を有しないシステムに構成することも可能である。
(変形例 2 )
上記の実施形態に係るシステムは、 環境内における物品の取り扱レ、をセンシング手 段 120 によって検出しており、 ロボット 102 が物品の取り扱い作業を実行するときも、 そのことをセンシング手段 120 によって検出している。 そうして、 センシング手段 12
0 の検出結果に基づいて、 物品とその物品取扱主体とを特定し、 取扱権が有している 力否かを判定している。 しかし、 ロボット 102 は、 作業命令に応じて物品の取り扱い作業を実行するため、 ロボット 102 が物品の取り扱い作業を実行することは、 センシング手段 120 を利用し なくても、 認識可能である。 そこで、 取扱権の有無の判定は、 ロボット 102 に対する 作業命令が発せられた時点で行つてもよい。
つまり、 ロボット 102 に対する作業命令には、 作業対象の物品が含まれるため、 そ の作業命令によって物品が特定される。 また、 口ポット 102 に対する作業命令を入力 するときに行われる認証によって、 物品取扱主体が特定される。
そうして、 作業命令が入力されたときに、 物品 Z移動体検索 '管理部 105 は取扱権 の判定を行う。 その判定の結果、 作業命令を発した移動体が取扱権を有していないと きには、 制御部 110 はロボット 102 に対するロボット制御コマンドを送信しない。 つ まり、 ロボット 102 の作業内容を無しにする。 一方、 取扱権を有しているときにのみ、 制御部 110 はロボット 102 に対するロボット制御コマンドを送信する。 このように、 制御部 110 が取扱権の判定結果に応じて、 ロボット 102 の作業内容を決定する処理を 行うことによって、 取扱権を有していない移動体が、 ロボット 102 を介して物品の取 り扱いを行うことが規制される。 以上説明したように、 上記の物品管理システムは、 所定の空間 (環境) における物 品の管理を行うシステムであって、 上記空間内において上記物品が移動体によって取 り扱われたことを検出するセンシング手段 122 と、 上記センシング手段 I22 による検 出結果を受けて、 上記移動体によって取り扱われた物品を特定する物品特定部 3 2と、 上記センシング手段 122 による検出結果を受けて、 上記物品を取り扱った物品取扱主 体を特定する物品取扱主体特定部 3 3と、 を備える。
環境内で物品が移動体によって取り扱われると、 そのことをセンシング手段 122 検出し、 その検出結果を受けて、 物品特定部 3 2が物品を特定すると共に、 物品取扱 主体特定部 3 3が物品取扱主体を特定する。 その結果、 環境内において、 移動体によ る物品の取り扱いが管理される。
物品に設定された取扱権の情報を記憶するデータベース 161 と、 物品特定部 3 2に よる物品の特定結果と、 物品取极主体特定部 3 3による物品取扱主体の特定結果とを 受けて、 上記物品取扱主体が上記物品の取扱権を有しているか否かを、 上記データべ ース 161 に記憶されている情報に基づいて判定する取扱権判定部 3 4と、 をさらに備 謂蘭
55
えることによって、 移動体による物品の取り扱いを、 取扱権を利用して管理すること が実現する。
取扱権を設定してデータベースに記憶させる取扱権設定 Ζ変更部 125 をさらに備え、 その取扱権設定 Ζ変更部 125 、移動体に対して物品の取扱権を設定する (上記の例 では 「お母さん」 に取扱権を設定する) ことにより、 取扱権をきめ細かく設定するこ とが可能になる。 また、 取扱権設定 Ζ変更部 125 力 複数の移動体を含む移動体ダル ープに対して物品の取扱権を設定する (上記の例では 「親」 に取扱権を設定する) こ とにより、 取扱権の設定の容易化が図られる。
また、 取扱権設定 Ζ変更部 125 1S 物品毎に取扱権を設定する (上記の例では、 特 定の薬箱 2 2の取扱権を設定する) ことにより、 取扱権の設定をきめ細かく行うこと ができる。 また、 取扱権設定 Ζ変更部 125が互いに同じ属性を有する物品を含む物品 グループ毎に、 取扱権を設定する (上記の例では、 薬箱の属性を有する全ての物品に 取扱権を設定する) ことにより、 取扱権の設定を容易化することができる。
取扱権判定部 3 4による判定結果を受けて、 物品取扱主体が物品の取扱権を有して いないときに、 その物品が取り扱われている空間内において警告を行う警告部 124 を さらに備えることで、 取扱権を有していない物品取扱主体が物品を取り极うことを規 制することが可能になる。 また、 物品取扱主体の近傍にいる移動体に対しても警告が 行われるため、 例えば物品取扱主体が子供であるときには、 効果的にその取り扱い行 為を止めさせることができる。
また、 取扱権判定部 3 4による判定結果を受けて、 物品取扱主体が物品の取扱権を 有していないときに、 上記物品が取り扱われている空間外においてその旨の報知を行 う報知部 123 をさらに備えることにより、 空間外にいる移動体がそのことを認識する ことができる。 これにより、 例えば物品取扱主体が子供であるときに、 空間外にいる 親にそのことを知らせることができ、 その結果、 子供による物品の取り扱いを効果的 に規制することができる。
センシング部 121 は、 物品が空間と外部とをつなぐ出入口を物品取扱主体によって 通過されたことを検出し、 物品特定部 3 2は、 上記センシング部 121 による検出結果 PC漏 004 0 2
56
を受けて、 上記出入口を通過した物品を特定し、 物品取扱主体特定部 3 3は、 上記セ ンシング部 121 による検出結果を受けて、 上記物品を通過させた物品取扱主体を特定 することにより、 環境に対する物品の出入が管理される。 また、 それによつて、 物品 の持ち出しを規制したり、 物品の持ち込みを規制したりすることが実現する。
作業命令を受けて物品の取扱作業を実行するロボット 102 をさらに備えるときにお いて、 上記物品取扱主体特定部 3 3は、 物品が上記ロボット 102 によって取り扱われ たときには、 当該ロボット 102への作業命令を発した対象を、 上記物品を取り扱った 物品取扱主体と特定することにより、 ロボット 102 を介して物品の取り扱いを行う場 合の、 実質的な物品取扱主体を特定することが可能になる。
このときに、 そのロボット 102への作業命令を発した対象が、 物品の取扱権を有し ていないときに、 ロボット 102 の取扱作業を中止させるロボット制御部 110 をさらに 備えることにより、 取扱権を有していない移動体が、 ロボット 102 を介して物品を取 り扱うことを確実に規制することができる。
そして、 上記取扱権設定/変更部 125 は、 上記センシング手段 120 の検出結果に基 づいて上記取扱権を設定及び/又は変更することによって、 取扱権が環境内の状況に 最適化される。 その結果、 例えばロボット 102 が所定の作業を自動的に実施すること が可能になり、 人の活動上、 大きな利便性が得られる。
—他の実施形態一
尚、 本実施形態では、 物品管理システムを、 環境管理サーバ 101 、 ロボット 102 、 操作端末 103 、 設備 104 の 4つのサブシステムからなり、 それらサブシステム 101 〜 104が無線又は有線等のネットワークを介して互いに情報をやりとりするような構成 とした。 し力 し、 物品管理システムはこの構成に限らず、 例えば操作端末 103 が環境 管理サーバ 101 に一体となった構成でもよい。
またロボット 102 は 1台ではなく複数台が協調しながら作業を並行して行う構成で あよい。 O l
57
産業上の利用可能个生
以上説明したように、 本発明は、 所定の空間における移動体による物品の取り扱い を管理することができ、 例えば一般家庭、 オフィス、 ホテル、 店舗及び病院等の、 人 が活動を行う空間における物品の管理に有用である。

Claims

04-WO 2004/103864, PC CT/JP2004/007342 58 請求の範囲
1 . 所定の空間における物品の管理を行う物品管理システムであって、
上記物品の取扱作業を実行するロボットと、
作業命令に従って上記ロボットに取扱作業を実行させるロポット制御手段と、 上記空間の状況を検出するセンシング手段と、
上記センシング手段の検出結果を受けて、 上記物品が移動体によって取り扱われた ときに、 その取り扱われた物品を特定する物品特定手段と、
上記センシング手段の検出結果を受けて、 上記物品が移動体によって取り扱われた ときに、 その物品を取り扱った物品取扱主体を特定する物品取扱主体特定手段と、 を 備え、
上記物品取扱主体特定手段は、 上記物品を取り扱った移動体が上記ロボットである ときには、 上記作業命令を発した対象を、 上記物品を取り扱った物品取扱主体と特定 するシステム。
2 . 請求項 1に記載のシステムにおいて、
物品に設定された取扱権の情報を記憶するデータベースと、
上記物品特定手段による物品の特定結果と、 上記物品取扱主体特定手段による物品 取扱主体の特定結果とを受けて、 上記物品取扱主体が上記物品の取扱権を有している か否かを、 上記データベースに記憶されている情報に基づいて判定する取扱権判定手 段と、 をさらに備えるシステム。
3 . 請求項 2に記載のシステムにおいて、
上記ロボット制御手段は、 上記取扱権判定手段による判定結果に基づいて、 上記作 業命令を発した対象が物品の取扱権を有していないときには、 上記ロボットの取扱作 業を中止させるシステム。
4 . 請求項 2に記載のシステムにおいて、
上記取扱権を設定及び Ζ又は変更して上記データベースに記憶させる取扱権設定 Ζ 変更手段をさらに備えるシステム。
Figure imgf000061_0001
59
5 . 請求項 4に記載のシステムにおいて、
上記取扱権設定 Z変更手段は、 上記センシング手段の検出結果に基づいて上記取扱 権を設定及び/又は変更するシステム。
6 . 請求項 5に記載のシステムにおいて、
上記データベースには、 上記センシング手段の検出結果に基づく物品の取り扱い履 歴情報が記憶されており、
上記取扱権設定 Z変更手段は、 上記データベースに記憶されている物品の取り扱い 履歴に基づいて、 当該物品の取扱権を設定及ぴノ又は変更するシステム。
7 . 請求項 5に記載のシステムにおいて、
上記センシング手段は、 上記空間内における物品の位置を検出し、
上記取扱権設定/変更手段は、 上記センシング手段が検出した物品の位置に応じて 当該物品の取扱権を設定及び/又は変更するシステム。
8 . 請求項 7に記載のシステムにおいて、
上記取扱権設定/変更手段は、 上記物品が容器に入れられたときには、 当該物品の 取扱権と容器の取极権とを互いに一致させるシステム。
9 . 請求項 5に記載のシステムにおいて、
上記センシング手段は、 上記物品の温度を検出し、
上記取扱権設定/変更手段は、 上記センシング手段が検出した物品の温度に応じて 当該物品の取扱権を設定及び Z又は変更するシステム。
1 0 . 請求項 5に記載のシステムにおいて、
上記センシング手段は、 上記物品の形状変化を検出し、
上記取扱権設定 変更手段は、 上記センシング手段が検出した物品の形状変化に応 じて当該物品の取扱権を設定及び z又は変更するシステム。
1 1 . 請求項 5に記載のシステムにおいて、
上記センシング手段は、 上記物品の重量を検出し、
上記取扱権設定 Z変更手段は、 上記センシング手段が検出した物品の重量に応じて 当該物品の取扱権を設定及び/又は変更するシステム。 04-WO 2004/10386 PCT¾P2PCT/JP2004/007342:2
60
1 2 . 請求項 5に記載のシステムにおいて、
上記センシング手段は、 上記移動体の位置を検出し、
上記取极権設定/変更手段は、 上記センシング手段による上記物品の近傍に移動体 が存在するか否かの検出結果に応じて当該物品の取扱権を設定及ぴ 又は変更するシ ステム。
1 3 . 請求項 5に記載のシステムにおいて、
上記取扱権設定/変更手段は、 上記空間内が所定の状況になったときに、 物品の取 扱権を設定及び Z又は変更するシステム。
1 4 . 請求項 4に記載のシステムにおいて、
上記ロボット制御手段は、 上記空間の状況と、 上記取扱権設定/変更手段によって 設定及ぴ Z又は変更された取扱権とに基づいて上記作業命令を発することによって、 上記ロボットに取扱作業を自動的に実行させるシステム。
1 5 . 請求項 4に記載のシステムにおいて、
上記取扱権設定/変更手段は、 上記移動体に対し、 及び/又は複数の移動体を含む 移動体グループに対し、 物品の取扱権を設定するシステム。
1 6 . 請求項 4に記載のシステムにおいて、
上記取扱権設定/変更手段は、 上記物品毎に、 及び Z又は互いに同じ属性を有する 物品を含む物品グループ毎に、 取扱権を設定するシステム。
1 7 . 所定の空間における物品の管理を行う物品管理システムであって、
上記物品の取扱作業を実行するロボットと、
作業命令に従って上記ロボットに取扱作業を実行させるロボット制御手段と、 上記物品に設定された取扱権の情報を記憶するデータベースと、
上記作業命令を発した対象がその作業に係る物品の取扱権を有しているか否かを、 上記データベースに記憶されている情報に基づ 、て判定する取扱権判定手段と、 を備 え、
上記ロボット制御手段は、 上記取扱権判定手段の判定結果を受けて、 上記ロボット の作業内容を決定するシステム。 61
1 8 . 所定の空間における物品の管理を行う物品管理サーバであって、
作業命令に従ってロボットに取扱作業を実行させるロボット制御手段と、 上記空間の状況を検出した結果を受けて、 上記物品が移動体によって取り扱われた ときに、 その取り扱われた物品を特定する物品特定手段と、
上記検出結果を受けて、 上記物品が移動体によって取り扱われたときに、 その物品 を取り扱った物品取扱主体を特定する物品取扱主体特定手段と、 を備え、
上記物品取极主体特定手段は、 上記物品を取り扱った移動体が上記ロボットである ときには、 上記作業命令を発した対象を、 上記物品を取り扱った物品取扱主体と特定 するサーバ。
1 9 . 請求項 1 8に記載のサーバにおいて、
物品に設定された取扱権の情報がデータベースに記憶されており、
上記物品特定手段による物品の特定結果と、 上記物品取扱主体特定手段による物品 取扱主体の特定結果とを受けて、 上記物品取扱主体が上記物品の取扱権を有している か否かを、 上記データベースに記憶されている情報に基づ 、て判定する取极権判定手 段をさらに備えるサーバ。
2 0 . 請求項 1 9に記載のサーバにおいて、
上記取扱権を設定及び/又は変更して上記データベースに記憶させる取极権設定/ 変更手段をさらに備えるサーバ。
2 1 . 請求項 2 0に記載のサーバにおいて、
上記取扱権設定/変更手段は、 上記空間の状況に応じて上記取扱権を設定及び/又 は変更するサーバ。
2 2 . 所定の空間における物品の管理を行う物品管理方法であって、
上記空間の状況を検出する検出ステップと、
上記検出ステップの検出結果を受けて、 上記物品が移動体によって取り极われたと きに、 その取り扱われた物品を特定する物品特定ステップと、
上記検出ステップの検出結果を受けて、 上記物品が移動体によって取り扱われたと きに、 その物品を取り扱った物品取扱主体を特定する物品取扱主体特定ステップと、 を含み、
上記物品取扱主体特定ステップは、 上記物品を取り扱った移動体がロボットである ときには、 当該ロボットへの作業命令を発した対象を、 上記物品を取り扱った物品取 扱主体と特定する方法。
2 3 . 請求項 2 2に記載の方法において、
上記物品特定ステップによる物品の特定結果と、 上記物品取扱主体特定ステップに よる物品取扱主体の特定結果とを受けて、 上記物品取扱主体が上記物品の取扱権を有 している力否かを判定する取扱権判定ステツプをさらに含む方法。
2 4 . 請求項 2 3に記載の方法において、
上記空間の状況に応じて上記取扱権を設定する取扱権設定ステツプをさらに含む方 法。
2 5 . 請求項 2 3に記載の方法において、
上記空間の状況に応じて上記取扱権を変更する取扱権変更ステツプをさらに含む方 法。
PCT/JP2004/007342 2003-05-21 2004-05-21 物品管理システム、物品管理サーバ、物品管理方法 WO2004103864A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/532,157 US7515990B2 (en) 2003-05-21 2004-05-21 Article control system, article control server, article control method
JP2005504501A JP3745364B2 (ja) 2003-05-21 2004-05-21 物品管理システム、物品管理サーバ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-143838 2003-05-21
JP2003143838 2003-05-21

Publications (1)

Publication Number Publication Date
WO2004103864A1 true WO2004103864A1 (ja) 2004-12-02

Family

ID=33475140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007342 WO2004103864A1 (ja) 2003-05-21 2004-05-21 物品管理システム、物品管理サーバ、物品管理方法

Country Status (4)

Country Link
US (1) US7515990B2 (ja)
JP (1) JP3745364B2 (ja)
CN (1) CN100567098C (ja)
WO (1) WO2004103864A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275758B2 (en) 2005-05-12 2012-09-25 Ntt Docomo, Inc. Search system of communications device
US10611036B2 (en) 2016-09-06 2020-04-07 Advanced Intelligent Systems Inc. Mobile work station for transporting a plurality of articles
US10633190B2 (en) 2018-02-15 2020-04-28 Advanced Intelligent Systems Inc. Apparatus for supporting an article during transport
US10645882B1 (en) 2018-10-29 2020-05-12 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10676279B1 (en) 2018-11-20 2020-06-09 Advanced Intelligent Systems Inc. Systems, methods, and storage units for article transport and storage
US10745219B2 (en) 2018-09-28 2020-08-18 Advanced Intelligent Systems Inc. Manipulator apparatus, methods, and systems with at least one cable
US10751888B2 (en) 2018-10-04 2020-08-25 Advanced Intelligent Systems Inc. Manipulator apparatus for operating on articles
US10966374B2 (en) 2018-10-29 2021-04-06 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
JP4317518B2 (ja) * 2004-12-14 2009-08-19 本田技研工業株式会社 物品運搬システム
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
US7860614B1 (en) * 2005-09-13 2010-12-28 The United States Of America As Represented By The Secretary Of The Army Trainer for robotic vehicle
US9198728B2 (en) * 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
JP4456561B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
US20070150094A1 (en) * 2005-12-23 2007-06-28 Qingfeng Huang System and method for planning and indirectly guiding robotic actions based on external factor tracking and analysis
US8080549B2 (en) * 2007-01-12 2011-12-20 Concert Pharmaceuticals, Inc. Endothelin receptor antagonists
JP5037248B2 (ja) * 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
JP5321913B2 (ja) * 2009-12-07 2013-10-23 株式会社ダイフク 物品保管設備
TWI427562B (zh) * 2010-05-10 2014-02-21 Univ Nat Yunlin Sci & Tech 機器視覺火災偵測及自動滅火系統
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US9069356B2 (en) * 2011-06-12 2015-06-30 Microsoft Technology Licensing, Llc Nomadic security device with patrol alerts
ES2716927T3 (es) * 2011-06-24 2019-06-18 Seegrid Corp Vehículo automático guiado para la selección de pedidos
JP2013146310A (ja) * 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
KR20240027152A (ko) * 2014-02-20 2024-02-29 엠비엘 리미티드 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템
CN103984346A (zh) * 2014-05-21 2014-08-13 上海第二工业大学 一种智能仓储盘点系统及其盘点方法
CN106447143A (zh) * 2015-08-06 2017-02-22 宁波福玛特金属制品实业有限公司 智能物证管理系统
DE102015119320A1 (de) * 2015-11-10 2017-05-11 Krones Aktiengesellschaft System zum Gruppieren und/oder Verteilen von Stückgütern sowie Verfahren zum Verrichten von Manipulationsaufgaben im Bereich einer Arbeitsstrecke mit wenigstens einer Handhabungseinrichtung
US10471595B2 (en) * 2016-05-31 2019-11-12 Ge Global Sourcing Llc Systems and methods for control of robotic manipulation
JP2017206352A (ja) * 2016-05-18 2017-11-24 日本パレットレンタル株式会社 物流容器及び物品の少なくとも何れかを管理する管理システム及び管理方法
US10295364B2 (en) * 2017-05-26 2019-05-21 Alpine Electronics, Inc. Obstacle data providing system, data processing apparatus and method of providing obstacle data
US10836034B2 (en) * 2017-07-10 2020-11-17 Kindred Systems Inc. Systems, devices, articles, and methods for prehension of items
US11357376B2 (en) * 2018-07-27 2022-06-14 Panasonic Intellectual Property Corporation Of America Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
CN109086846A (zh) * 2018-08-15 2018-12-25 北京云迹科技有限公司 用于购物的方法及装置
JP7156916B2 (ja) * 2018-11-14 2022-10-19 東芝テック株式会社 商品取出装置
CN109521770B (zh) * 2018-11-19 2021-08-03 佛山市第一人民医院(中山大学附属佛山医院) 一种病人被服智能处理系统及方法
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
CN110451187A (zh) * 2019-08-22 2019-11-15 华翔翔能电气股份有限公司 一种车间运载小车
US20220043455A1 (en) * 2020-08-07 2022-02-10 X Development Llc Preparing robotic operating environments for execution of robotic control plans

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61151710A (ja) * 1984-12-26 1986-07-10 Hitachi Ltd 産業用ロボツトの安全装置
JP2001225915A (ja) * 2000-02-09 2001-08-21 Hitachi Ltd 商品管理システムおよび商品情報記憶媒体
JP2003132444A (ja) * 2001-10-24 2003-05-09 Tamura Electric Works Ltd 物品保管システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230563A (ja) 1994-02-17 1995-08-29 Fujitsu Ltd Idタグ装置を備えた管理システム
JPH09278130A (ja) 1996-04-18 1997-10-28 Hitachi Ltd 物品管理装置
US6141863A (en) * 1996-10-24 2000-11-07 Fanuc Ltd. Force-controlled robot system with visual sensor for performing fitting operation
JPH11300670A (ja) * 1998-04-21 1999-11-02 Fanuc Ltd 物品ピックアップ装置
JP2000357251A (ja) 1999-06-14 2000-12-26 Sharp Corp 物品管理システム
US6886231B2 (en) * 1999-06-25 2005-05-03 Burke E. Porter Machinery Company Robotic apparatus and method for mounting a valve stem on a wheel rim
JP3527693B2 (ja) 2000-07-12 2004-05-17 株式会社ビジネスポートシステムズ 物品保管庫及び物品管理システム
JP2002255313A (ja) 2001-02-28 2002-09-11 Tokai Riken Kk 薬品保管庫
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
JP2003248900A (ja) 2002-02-25 2003-09-05 Tamura Electric Works Ltd 物品管理システム
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61151710A (ja) * 1984-12-26 1986-07-10 Hitachi Ltd 産業用ロボツトの安全装置
JP2001225915A (ja) * 2000-02-09 2001-08-21 Hitachi Ltd 商品管理システムおよび商品情報記憶媒体
JP2003132444A (ja) * 2001-10-24 2003-05-09 Tamura Electric Works Ltd 物品保管システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275758B2 (en) 2005-05-12 2012-09-25 Ntt Docomo, Inc. Search system of communications device
US10611036B2 (en) 2016-09-06 2020-04-07 Advanced Intelligent Systems Inc. Mobile work station for transporting a plurality of articles
US10633190B2 (en) 2018-02-15 2020-04-28 Advanced Intelligent Systems Inc. Apparatus for supporting an article during transport
US10745219B2 (en) 2018-09-28 2020-08-18 Advanced Intelligent Systems Inc. Manipulator apparatus, methods, and systems with at least one cable
US10751888B2 (en) 2018-10-04 2020-08-25 Advanced Intelligent Systems Inc. Manipulator apparatus for operating on articles
US10645882B1 (en) 2018-10-29 2020-05-12 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10966374B2 (en) 2018-10-29 2021-04-06 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10676279B1 (en) 2018-11-20 2020-06-09 Advanced Intelligent Systems Inc. Systems, methods, and storage units for article transport and storage

Also Published As

Publication number Publication date
US20060047361A1 (en) 2006-03-02
JP3745364B2 (ja) 2006-02-15
JPWO2004103864A1 (ja) 2006-07-20
US7515990B2 (en) 2009-04-07
CN100567098C (zh) 2009-12-09
CN1723161A (zh) 2006-01-18

Similar Documents

Publication Publication Date Title
WO2004103864A1 (ja) 物品管理システム、物品管理サーバ、物品管理方法
US9785751B2 (en) Portable medication dispensing containers
WO2004106009A1 (ja) 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP2016538446A (ja) スマートメールボックス、スマートメールボックスシステム及び関連方法
WO2015200546A1 (en) Wearable rfid devices with manually activated rfid tags
JP2013501267A (ja) 緊急アクセス薬剤頒布ステーション
JP6751503B2 (ja) 収容ボックスシステム、収容ボックスの管理装置及び方法
CN107622596A (zh) 智能货柜及智能货柜共享控制方法
CN110091324A (zh) 机器人控制装置、进出室控制装置以及机器人管理系统
JP2005056213A (ja) 情報提供システム、情報提供サーバ、情報提供方法
US8115633B2 (en) Tracking system
JP2004268148A (ja) 生活空間用の物品移動システム、及びロボット操作装置
JP2007070899A (ja) 保管庫システムおよび保管方法
JP3713021B2 (ja) 生活空間用の物品取扱いシステム及びロボット操作装置
KR101836808B1 (ko) 거주자 생활패턴 연동형 무인 택배함 및 무인 택배 시스템과 그 동작 방법
JP7089360B2 (ja) 設備機器作動システム
CN114995366A (zh) 控制系统、控制方法以及计算机可读存储介质
CN111586578A (zh) 一种痴呆老人的智能家庭交互系统、方法及设备
JP7240210B2 (ja) 宅配ボックスシステム
JP2004345784A (ja) 物品管理システム、物品管理サーバ、物品管理方法
JP6843418B1 (ja) プログラム、情報処理方法、情報処理装置およびロボット
CA3193169A1 (en) Access control system
JP2004323135A (ja) 物品管理システム
JP2005001815A (ja) 生活空間用の物品管理システム、物品管理サーバ、物品管理方法
JP2005018108A (ja) 生活空間用の物品管理システム、物品管理サーバ、物品管理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2005504501

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006047361

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10532157

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048017219

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 10532157

Country of ref document: US

122 Ep: pct application non-entry in european phase