WO2016013702A1 - Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor - Google Patents

Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor Download PDF

Info

Publication number
WO2016013702A1
WO2016013702A1 PCT/KR2014/006809 KR2014006809W WO2016013702A1 WO 2016013702 A1 WO2016013702 A1 WO 2016013702A1 KR 2014006809 W KR2014006809 W KR 2014006809W WO 2016013702 A1 WO2016013702 A1 WO 2016013702A1
Authority
WO
WIPO (PCT)
Prior art keywords
food
image
package
data
opened
Prior art date
Application number
PCT/KR2014/006809
Other languages
French (fr)
Korean (ko)
Inventor
박시화
김지환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2014/006809 priority Critical patent/WO2016013702A1/en
Publication of WO2016013702A1 publication Critical patent/WO2016013702A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus

Definitions

  • the present specification relates to a wearable device and a control method for providing information related to whether a packaged food is opened and opened.
  • Augmented reality technology which is a mixture of real and virtual objects, allows the user to view the reality image along with the virtual image, providing additional information along with the reality.
  • Augmented reality images such as locations and phone numbers of nearby stores are displayed as stereoscopic images.
  • Augmented reality technology can also be applied to wearable devices.
  • a head-type display such as a head mounted display provides augmented reality to a user by overlapping a virtual image or a character in real time as seen by the user in real time.
  • the wearable device may provide various conveniences to the user in combination with the aforementioned augmented reality technology, N screen technology, and the like beyond the simple display function.
  • the wearable device may be used in connection with various external devices.
  • the wearable device may communicate with an external digital device to receive a user input for the corresponding external device or to perform a task of interworking with the corresponding external device.
  • FIG. 1A to 1D show examples of a wearable device worn on a head or a face.
  • the wearable device has a variety of forms, any shape that can be worn on the head or face is possible.
  • glasses form as shown in Fig. 1 (a)
  • sunglasses form as shown in Fig. 1 (b)
  • hair band form as shown in Figs. 1 (c)
  • (d) is also possible.
  • the wearable device of FIGS. 1A through 1D provides an image and / or voice to a user through a display and / or speaker.
  • a wearable device is generally provided with a small display device such as a liquid crystal at a position proximate to at least one of both eyes to project an image.
  • processed foods that can be eaten with shorter time are also developing.
  • the advantage of these processed foods is the advantage of simplicity.
  • processed foods that have exceeded the shelf life may also cause various diseases such as food poisoning.
  • the food should be consumed within a preservable period after the time of opening.
  • Various food control programs are being studied to remedy this problem.
  • a food control program when a user opens a package of food, there may be a method in which the food management program calculates the shelf life of the remaining food by inputting the opening time to the DB.
  • the present specification relates to a wearable device and a control method capable of determining whether a packaged food is opened.
  • the present disclosure also relates to a wearable device and a control method capable of storing the time the package of food is opened and providing information related thereto.
  • the present specification aims to substantially solve the limitations and drawbacks of the prior art by providing a user with information related to whether or not to open a packaged food and opening time.
  • the memory unit for storing data; A camera for sensing an image; And distinguishing the user's hand motion and the packaged food from the first image received through the camera, and the first image received through the camera by the user's hand motion distinguished from the first image received through the camera.
  • the memory unit stores data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time'). And storing the food data and the opening time and outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data.
  • the control unit may include.
  • the memory unit may further store an opening image data table including image data (hereinafter 'opening image data') in a state in which a package is opened according to various packaging characteristics of the food, and the controller Determines the packaging characteristics of the food distinguished from the first image received through the camera, and according to the packaging characteristics of the food from the food image distinguished from the first image received through the camera and the packaging image data table. By comparing the mapped opening image data, it may be determined whether a food package is opened.
  • an opening image data table including image data (hereinafter 'opening image data') in a state in which a package is opened according to various packaging characteristics of the food
  • the controller Determines the packaging characteristics of the food distinguished from the first image received through the camera, and according to the packaging characteristics of the food from the food image distinguished from the first image received through the camera and the packaging image data table.
  • the opening image data may be an image of a state in which a crack is formed in a portion of a package of food, an image of a state in which a lid included in the package of the food is removed, or an image of a state in which some of the joints formed in the package of the food are separated. have.
  • the wearable device may further include a microphone for sensing a sound.
  • the memory unit further stores an opening sound data table including sound data (hereinafter 'opening sound data') generated when the package is opened according to the packaging characteristics of various foods, and the control unit received through the camera. Determine whether the packaging of the food is opened by determining the packaging characteristics of the food distinguished from the first image, and comparing the opening sound data mapped according to the packaging characteristics of the food in the opening sound data table with the sound received through the microphone. Can be determined.
  • the opening sound data may be generated when a crack is formed in a part of a package of food, a sound generated when the lid included in the package of the food is removed, or a part of the joint formed on the package of the food falls. It can be sound.
  • the controller may output time information that has elapsed from the opening time to the present as an information signal.
  • the memory unit further stores an elapsed period data table including an elapsed period according to various food characteristics, and the controller controls the characteristics of the food distinguished from the first image received through the camera.
  • the information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time may be output as an information signal.
  • the memory unit further stores an elapsed time input by the user for the food in which the package is opened, and the controller controls the remaining time of the elapsed period input by the user from the opening time or Information related to the transition time can be output as an information signal.
  • the wearable device may further include a warning unit configured to output a visual signal or an audio signal.
  • the controller may output the information signal to the warning unit.
  • the warning unit may be a display unit for outputting an image.
  • the controller may output the information signal to display the time information associated with the opening time stored in the memory unit on the display unit.
  • the wearable device may further include an image processing unit for arranging one or more virtual objects on one or more layers and superimposing the images on the image of the real world captured by the camera.
  • the controller may control the time information related to the opening time to be displayed as the virtual object, and control the virtual object to be positioned in a portion adjacent to the food image of the photographed real world image.
  • control unit may determine whether the food is opened or unpacked when receiving a user input.
  • control unit may determine whether the food is unpacked when reading the information displayed on the packaging of the food distinguished from the first image received through the camera.
  • the information displayed on the packaging of the food may be a brand name or barcode or QR code of the food.
  • a control method of a wearable device for achieving the object of the present specification includes the steps of: (a) distinguishing a user's hand motion and packaged food from a first image received through a camera; (b) determining whether the package of the food distinguished in the image received through the camera is opened by a user's hand gesture distinguished in the first image received through the camera; (c) when the package of the food is opened, storing data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time') step; And (d) outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data.
  • whether the packaged food is opened may be determined through image comparison or sound comparison. Therefore, the user can manage the opened food without the user inputting separate information about the food.
  • FIG. 1 is an illustration of a wearable device.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a wearable device according to an exemplary embodiment of the present specification.
  • FIG. 3 is a reference diagram for understanding the appearance of the wearable device according to the present specification.
  • FIG. 4 is an exemplary view for determining whether a package of food is opened by a user's hand operation.
  • 5 is an exemplary diagram of a data table that may be used to determine whether or not to open.
  • FIG. 6 is an exemplary view of the food data and the opening time stored in the memory unit.
  • FIG. 7 is a flowchart illustrating a control method of a wearable device according to an exemplary embodiment of the present specification.
  • FIG. 2 is a block diagram schematically illustrating a configuration of the wearable device 100 according to an exemplary embodiment of the present specification.
  • the wearable device 100 includes a control unit 101, a memory unit 102, and a camera 103.
  • the wearable device 100 may further include a microphone 104, a warning unit 105, an image processing unit 106, or a communication unit 107.
  • the controller 101 may execute an application (or program) and process data in the wearable device 100.
  • the control unit 101 may control the memory unit 102, the camera 103, the microphone 104, the warning unit 105, the image processing unit 106, and the communication unit 107. Control data transmission and reception between them.
  • the controller 101 is a processor, an application-specific integrated circuit (ASIC), other chipsets, logic circuits, registers, communication modems, data processing apparatuses known in the art to execute control logic, which will be described in detail below. And the like.
  • the control logic when the control logic is implemented in software, the control unit 101 may be implemented as a set of program modules. In this case, the program module may be stored in the memory unit 102 and executed by a processor.
  • the memory unit 102 may store various data.
  • an application (or a program) for the operation of the controller 101 may be stored, or an image obtained through the camera 103 or a sound obtained through the microphone 104 may be stored.
  • the memory unit 102 may be a random access memory (RAM), a static random access memory (SRAM), a read only memory (ROM), an electrically erasable programmable read only memory (EPEROM), a programmable read only memory (PROM), or the like. have.
  • the wearable device 100 may operate in association with a web storage that performs a storage function of the memory unit 102 on the Internet.
  • the memory unit 102 may further include an external storage medium detachable from the wearable device 100.
  • the external storage medium may be in the form of a slot such as Secure Digital (SD) or Compact Flash (CF) memory, a memory stick, or a universal serial bus (USB). That is, the external storage medium may be detachable from the wearable device 200, and any storage medium capable of providing data such as audio, a photo, a video, an application, and the like to the wearable device 100 may be used.
  • SD Secure Digital
  • CF Compact Flash
  • USB universal serial bus
  • the camera 103 senses an environment image of the wearable device 100 and converts the image into an electrical signal.
  • the camera 103 may include an image sensor, and the image sensor may convert an optical signal into an electrical signal.
  • the image sensed by the camera 103 and converted into an electrical signal may be stored in the memory unit 102 and then output to the controller 101 or directly to the controller 101 without being stored.
  • the image sensed by the camera 103 may be a still image or a video.
  • the microphone 104 detects the ambient sound of the wearable device 100 and converts it into an electrical signal.
  • the microphone 104 may be always in an ON state to sense sound.
  • the microphone 104 may be turned on by a command of the controller 101.
  • the warning unit 105 serves to output a visual signal or an audio signal to the user by the signal output from the control unit 101.
  • the warning unit 105 may be a display unit.
  • the display unit includes a liquid crystal display, a thin film transistor liquid crystal display, a light emitting diode, an organic light emitting diode, a flexible display, It may be a 3D display or the like.
  • the display unit may be a hollow or transparent glass for displaying a virtual screen. That is, anything that can visually deliver a video signal to a human can be a display unit.
  • the warning unit 105 may include an LED, an LCD, an alarm alarm, or a combination thereof.
  • the warning unit 105 may output a visual signal or an audio signal to the user by blinking the LED, outputting a warning message on the LCD, or generating an alarm or buzzer sound.
  • the LED, LCD and alarm alarm is only one example of the warning unit, it will be apparent to those skilled in the art that various modified forms of visual or audio alarm device can be employed as the warning unit 105.
  • the image processor 106 arranges one or more virtual objects on one or more layers and superimposes them on the image of the real world sensed by the camera 103.
  • An augmented reality image in which virtual objects of the one or more layers are overlapped may be displayed through the display unit. That is, the camera 103 senses an image of the real world, stores it in the memory 102, and outputs the image to the image processor 106, or directly to the image processor 106 without storing the image.
  • the image processor 106 creates an augmented reality image by overlaying one or more virtual objects in a layered structure on an image of the real world sensed by the camera 103.
  • the wearable device 100 may be connected to one or more external devices 200 that provide data through wired or wireless. In this case, the wearable device 100 may transmit / receive data with the external device 200 through the communication unit 107.
  • the external device 200 may be any device capable of transmitting or receiving data to the wearable device 100.
  • the external device 200 may be a mobile terminal or a fixed terminal.
  • the mobile terminal may be a mobile phone, a smart phone, a tablet PC (Personal Computer), a smart pad, a notebook, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a digital camera, a navigation device, or the like.
  • the fixed terminal may be a desktop, a DVD (Digital Video Disc or Digital Versatile Disc) player, a TV, or the like.
  • the communication unit 107 and the external device 200 may transmit / receive data via wired or wirelessly using various protocols.
  • an interface such as HDMI (High Definition Multimedia Interface) or DVI (Digital Visual Interface) may be supported.
  • 2G, 3G, 4G mobile communication methods such as Global System for Mobile Communications (GSM), Code Division Multiple Access (CDMA), Wibro, other High Speed Packet Access (HSPA), High Speed Downlink (HSDPA) Mobile communication such as Packet Access (LTE), Long Term Evolution (LTE), or Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Wireless LAN
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • Wireless LAN A short range communication interface such as Wi-Fi may be supported.
  • wired / wireless interface schemes are embodiments for better understanding of the present specification, and the interface scheme for transmitting / receiving information may be easily changed by those skilled in the art. Will not.
  • FIG. 3 is a reference diagram for understanding the appearance of the wearable device according to the present specification.
  • a user wearing a head mounted display may be checked. And the user can confirm that the hand holding the packaged food.
  • An example of a packaged food is shown a snack packaged in a poly bag.
  • an image sensed through the camera 103 included in the wearable device 100 may be checked.
  • the operation of the controller 101 is performed based on the image received through the camera 103. Therefore, the image received through the camera 103 to be described in detail herein below and the operation of the controller 101 are easy to understand in consideration of the situation shown in the reference diagram of FIG. 3.
  • a wearable device 100 in the present specification, as a wearable device 100, but shown as a device in the form of wearing on the head like glasses, the example is not intended to limit the scope of the present disclosure.
  • the wearable device 100 refers to any device that can be attached to the user's body to perform a computing action.
  • various types of wearable devices such as glasses, hair bands, watches, arm bands, shoes, neckbands, rings, and contact lens types have been disclosed, but the wearable device 100 according to the present disclosure It is not restricted depending on the form.
  • the control unit 101 may distinguish the user's hand motion and the packaged food from the first image received through the camera 103.
  • Techniques for distinguishing the user's hand motion from the image received by the controller 101 through the camera 103 are well known to those skilled in the art at the time of filing the present specification, and thus detailed descriptions thereof will be omitted.
  • the controller 101 may distinguish the packaged food through a method of recognizing a brand name printed on a wrapping paper or a barcode printed on the wrapping paper from an image received through the camera 103. How the controller 101 distinguishes the user's hand motion and the packaged food from the image received through the camera 103 may be applied to all techniques that can be easily used by those skilled in the art not only at the time of the present application but also after the application. have.
  • the first image refers to an image received through the camera 103 in time with a second image to be described later.
  • the controller 101 determines whether the package of the food distinguished from the first image received through the camera 103 is opened by a user's hand gesture distinguished from the first image received through the camera 103. To judge.
  • FIG. 4 is an exemplary view for determining whether a package of food is opened by a user's hand operation.
  • a user's hand operation of opening a polybag package may be confirmed.
  • both hands holding the package may be opened through an operation of spreading from side to side.
  • it can be opened through the operation of holding the end of the package with one hand to tear down.
  • Figure 4 (b) it is possible to check the hand operation of the user opening the bottle. In the case of a bottle, you can open it by turning the lid by hand.
  • the controller 101 determines whether the user's hand gesture distinguished from the first image received through the camera 103 is an operation of opening the package according to the packaging characteristics of the food such as tearing, cutting and turning. do. Then, it is determined whether the food package is opened by the user's hand operation.
  • the controller 101 may determine whether the package of the food is opened by comparing the images.
  • the memory unit 102 may further store an opening image data table including image data of a state in which a package is opened (hereinafter, referred to as “opening image data”) according to packaging characteristics of various foods.
  • 5 is an exemplary diagram of a data table that may be used to determine whether or not to open.
  • the opening image data may be an image of a state in which a crack is formed in a part of a package of food, such as an image in which a poly bag is torn.
  • the opening image data may be an image of a state in which a lid included in a package of food is removed, such as a lid of a soda bottle is opened.
  • the opening image data may be an image of a state in which some of the joints formed on the package of the food are separated, such as the opening of the milk carton is opened.
  • the controller 101 may determine packaging characteristics of the food distinguished from the first image received through the camera 103. In addition, the control unit 101 may compare the package image of the food distinguished from the first image received through the camera 103 with the image data mapped to the package image of the food in the opening image data table. It may be determined whether the package has been opened. For example, when it is determined that the packaging property of the food distinguished from the first image is a poly bag, the controller 101 may display the unsealed image data corresponding to the poly bag in the unsealed image data table stored in the memory 102. Read it. In addition, when it is determined that the package image of the food distinguished from the first image and the unsealing image data are matched or similar, the controller 101 determines that the package of the food is opened.
  • control unit 101 may determine whether the package of the food is opened by comparing the sound.
  • the memory unit 102 may further store an opening sound data table including sound data generated when the package is opened according to various packaging properties of the food (hereinafter, 'opening sound data').
  • the opening sound data may be a sound generated when a crack is formed in a part of a package of food.
  • the opening sound data may be a unique sound generated when the polybag is torn.
  • the opening sound data may be a sound generated when the lid included in the package of food is removed.
  • the opening sound data may be a unique sound of carbonic acid leaking out when the lid is opened.
  • the opening sound data may be a sound generated when some of the joints formed on the package of food drops.
  • the opening sound data may be a unique sound generated when the opening of the carton is opened.
  • 5 of the present specification shows a 'speaker image' to indicate that it is sound data, and describes 'onomatopia' with a similar voice.
  • the 'speaker image' and the 'ontology' are only one expression method for representing the opening sound data according to the present specification, and should be interpreted as not limiting the scope of the present specification.
  • the controller 101 determines the packaging characteristics of the food distinguished from the first image received through the camera 103, and the packaging characteristics of the food in the sound and the opening sound data table received through the microphone 104. It is possible to determine whether the package of the food is opened by comparing the opening sound data mapped according to. For example, when it is determined that the packaging characteristics of the food distinguished from the first image are polybags, the controller 101 may read the opening sound data corresponding to the polybags from the opening sound data table stored in the memory unit 102. Read it. In addition, when it is determined that the sound received through the microphone 104 and the opening sound data are matched or similar, the package of the food is determined to be opened.
  • the control unit 101 includes data about the opened food (hereinafter 'food data') and the time when the package is opened. Data (hereinafter, referred to as 'opening time') may be stored in the memory unit 102.
  • FIG. 6 is an exemplary view of the food data and the opening time stored in the memory unit.
  • food data and opening time may be stored in the memory unit 102.
  • the food data is data for distinguishing the food in which the package is opened. Accordingly, the controller 101 may allocate identification information (for example, a number) to each food and store the same in the memory 102 to distinguish a plurality of foods.
  • the opening time is time data when the package is opened for each food. Therefore, the time information is stored in the memory unit 102 in association with the food data.
  • the controller 101 stores information regarding the opening time when the food distinguished from the second image received through the camera 103 matches the food data after storing the food data and the opening time. It can output the provided information signal.
  • the second image is an image received through the camera 103 after the control unit 101 stores the food data and the opening time in the memory unit 102, that is, later in time than the first image. Means an image received through the camera 103. For example, when the package of the snack is opened, the image received through the camera 103 is the first image, and when the user views the snack again a few days after the user has left the snack, the camera 103 The image received through may be referred to as a second image.
  • the information signal is a signal including information related to the opening time.
  • the information signal may include the opening time itself, and may include a time elapsed from the opening time, a period in which the food can be ingested from the day of opening the food, or a remaining time of ingesting the food.
  • the controller 101 may check the memory unit 102 for '2014.07.01', which is time information corresponding to 'snack 001'.
  • the time information '2014.07.01' may be output as an information signal to the user.
  • the controller 101 may output time information that has elapsed from the opening time to the present as an information signal. Assuming the current time is 30 July 2014, 'Snack 001' has been 30 days since the package was opened. Therefore, the controller 101 can output '30 days' as an information signal.
  • the controller 101 may output a content of comparing the elapsed time and the opening time previously stored as the information signal.
  • the memory unit 102 may further store an elapsed period data table including an elapsed period according to various food characteristics.
  • the elapsed period refers to a period in which food can be consumed after the food package is opened apart from the distribution period of the food.
  • the controller 101 may determine the characteristics of the food distinguished from the first image received through the camera 103.
  • the controller 101 may output information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time as an information signal.
  • '45 days' is stored in the memory unit 102 as the elapsed period data. If the opening date of the snack is July 1, 2014 and the current time is July 30, 2014, the controller 101 outputs the remaining 15 days as the information signal. As another example, it is assumed that '10 days' is stored as elapsed period data in the memory unit 102. If the opening date of the soda is July 15, 2014 and the current time is July 30, 2014, the control unit 101 outputs '5 days of the transition time' as the information signal.
  • the controller 101 may output information related to the remaining time or the elapsed time of the elapsed period input by the user from the opening time as an information signal.
  • the memory unit 102 may further store the elapsed time input by the user for the packaged food.
  • the controller 101 may output the information signal to the warning unit 105.
  • the warning unit 105 may be a display unit for outputting an image.
  • the controller 101 may output the information signal to display time information related to the opening time stored in the memory unit 102 on the display unit.
  • the controller 101 may control to display the time information related to the opening time as a virtual object, and to control the virtual object to be located in a portion adjacent to the food image of the image of the real world sensed by the camera.
  • the wearable device 100 may further include the image processor 106 described above.
  • control unit 101 may determine whether to open the package of food when receiving a user input.
  • the controller 101 may perform the process of determining whether the above-mentioned food package is opened and storing the opening time and outputting an information signal based on this, only when the user desires.
  • control unit 101 may determine whether to open the package of food when reading the information displayed on the package of food distinguished from the first image received through the camera 103. Even if there is no separate input by the user, the controller 101 can automatically perform a process of determining whether the package of the food is opened and opening time and outputting an information signal based on the opening time. At this time, the information displayed on the packaging of the food may be a brand name of the food, may be a barcode or QR code.
  • FIG. 7 is a flowchart illustrating a control method of a wearable device according to an exemplary embodiment of the present specification.
  • step S300 the controller 101 distinguishes a user's hand motion from a first image received through the camera 103. Then, the controller 101 finishes step S300 and proceeds to step S310.
  • step S310 the controller 101 distinguishes the packaged food from the first image received through the camera 103.
  • the controller 101 completes step S310 and proceeds to step S320.
  • control unit 101 opens the package of food distinguished from the image received through the camera 103 by a user's hand gesture distinguished from the first image received through the camera 103. Determine whether or not.
  • the controller 101 determines whether the package of food is opened through image comparison.
  • control unit 101 determines whether or not the package of food is opened through sound comparison.
  • step S330 If the package of the food is opened (YES in step S330), the controller 101 proceeds to step S330. On the other hand, if the package of food is not opened (NO in step S330), the controller 101 proceeds to step S300, and repeatedly performs steps S300 to S320.
  • step S330 the controller 101 stores the data about the packaged food (hereinafter 'food data') and the data about the time when the package is opened (hereinafter 'opening time') of the memory unit 102. Store in The controller 101 finishes this step and proceeds to step S340. Since the food data and the opening time have been described with reference to FIG. 6, repeated description thereof will be omitted.
  • the controller 101 determines whether the food distinguished from the second image received through the camera 103 matches the food data. If the food data matches (YES in step S350), the control unit 101 proceeds to step S360. On the other hand, if the food data does not match (NO in step S350), the control unit 101 proceeds to step S340 to repeatedly perform steps S340 and S350. On the other hand, since the description of the second image is repeated, it will be omitted.
  • step S360 the controller 101 outputs an information signal for providing a user with information related to the opening time corresponding to the food data.
  • the information signal may be time information that has elapsed from the opening time to the present.
  • the memory unit 102 may further store an elapsed period data table including an elapsed period according to various food characteristics.
  • the controller 101 may output information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time as the information signal.
  • the memory unit 102 may further store an elapsed time input by the user for the food in which the package is opened.
  • the controller 101 may output information related to the remaining time or the elapsed time of the elapsed period input by the user from the opening time as the information signal.
  • ⁇ part means a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
  • This disclosure may apply to electronic devices in whole or in part.

Abstract

Disclosed are a wearable device for determining whether packaged food is opened and providing information related to the time at which the packed food has been opened, and a control method therefor. The wearable device, according to the present specification, can comprise: a memory unit for storing data; a camera for sensing an image; and a control unit for distinguishing hand motions of a user and the packaged food in a first image received through the camera, storing, in the memory unit, data on the food of which the package is opened (hereinafter, referred to as "food data") and data on the time at which the package is opened (hereinafter, referred to as "opening time") when it is determined that the package of the food distinguished in the first image received through the camera is opened by means of the hand motions of the user distinguished in the first image received through the camera, and outputting an information signal providing, to the user, the information related to the opening time when the food distinguished from a second image received through the camera matches the food data after the food data and the opening time are stored.

Description

포장된 식품의 개봉여부 판단 및 개봉시간과 관련된 정보를 제공하는 착용형 디바이스 및 제어 방법Wearable device and control method for providing information related to the determination of whether the packaged food is opened
본 명세서는 포장된 식품의 개봉여부 판단 및 개봉시간과 관련된 정보를 제공하는 착용형 디바이스 및 제어 방법에 관한 것이다.The present specification relates to a wearable device and a control method for providing information related to whether a packaged food is opened and opened.
리얼 오브젝트와 가상 오브젝트가 혼합된 증강 현실 기술은 사용자가 가상 이미지와 함께 현실 이미지를 볼 수 있게 하여 현실감과 함께 부가 정보를 제공한다. 예를 들어 스마트 폰의 카메라로 주변을 비추면 현실 이미지와 함께 인근에 있는 상점의 위치, 전화번호 등의 증강현실 이미지가 입체 영상으로 표기된다. 증강 현실 기술은 착용형 디바이스(wearable device)에도 적용될 수 있다. 특히 헤드 마운티드 디스플레이(Head mounted Display)와 같이 머리에 쓰는 형태의 디스플레이는 사용자가 보는 실제 환경에 가상 이미지 또는 문자 등을 오버랩하여 실시간으로 보여줌으로써 사용자에게 증강현실을 제공한다. Augmented reality technology, which is a mixture of real and virtual objects, allows the user to view the reality image along with the virtual image, providing additional information along with the reality. For example, when the camera is illuminated with a smartphone, augmented reality images such as locations and phone numbers of nearby stores are displayed as stereoscopic images. Augmented reality technology can also be applied to wearable devices. In particular, a head-type display such as a head mounted display provides augmented reality to a user by overlapping a virtual image or a character in real time as seen by the user in real time.
상기 착용형 디바이스는 단순한 디스플레이 기능을 넘어 전술한 증강 현실 기술, N 스크린 기술 등과 조합되어 사용자에게 다양한 편의를 제공할 수 있다.The wearable device may provide various conveniences to the user in combination with the aforementioned augmented reality technology, N screen technology, and the like beyond the simple display function.
또한 상기 착용형 디바이스는 다양한 외부 디바이스와 연계하여 사용 가능하다. 상기 착용형 디바이스는 외부 디지털 디바이스와 통신을 수행하여 해당 외부 디바이스를 위한 사용자 입력을 수신하거나 해당 외부 디바이스와 연동한 작업의 수행도 가능하다.In addition, the wearable device may be used in connection with various external devices. The wearable device may communicate with an external digital device to receive a user input for the corresponding external device or to perform a task of interworking with the corresponding external device.
도 1의 (a) 내지 (d)는 머리나 얼굴에 착용하는 착용형 디바이스의 예들을 보이고 있다. 도 1의 (a) 내지 (d)에서 보는 바와 같이, 착용형 디바이스는 다양한 형태를 가지고 있으며, 머리나 얼굴에 착용할 수 있는 형태는 어느 것이나 가능하다. 예를 들면, 도 1의 (a)와 같은 안경 형태, 도 1의 (b)와 같은 선글라스 형태, 도 1의 (c), (d)와 같은 헤어 밴드 형태도 가능하다.1A to 1D show examples of a wearable device worn on a head or a face. As shown in (a) to (d) of Figure 1, the wearable device has a variety of forms, any shape that can be worn on the head or face is possible. For example, glasses form as shown in Fig. 1 (a), sunglasses form as shown in Fig. 1 (b), hair band form as shown in Figs. 1 (c), (d) is also possible.
도 1의 (a) 내지 (d)의 착용형 디바이스는 이미지 및/또는 음성을 디스플레이 및/또는 스피커를 통해 사용자에게 제공한다. 특히 착용형 디바이스는 양안 중 적어도 하나에 근접한 위치에 액정 등의 소형 디스플레이 장치가 설치되어 이미지를 투영하는 방식이 일반적이다.The wearable device of FIGS. 1A through 1D provides an image and / or voice to a user through a display and / or speaker. In particular, a wearable device is generally provided with a small display device such as a liquid crystal at a position proximate to at least one of both eyes to project an image.
한편, 현대사회가 발달함에 따라 시간을 단축하여 먹을 수 있는 가공식품도 함께 발달하고 있다. 예컨대, 전자레인지에 데우기만 하면 먹을 수 있는 레토르트 음식과 냉동식품, 각종 인스턴트, 캔 또는 병에 담긴 음료수 등이 있다. 이런 가공식품의 장점은 간편하다는 장점이 있다. 반면, 보존기간을 넘긴 가공식품은 식중독 등 각종 질병을 일으킬 수 있는 단점도 있다. 특히, 포장이 개봉된 가공식품의 경우, 개봉된 시점 이후에 보존 가능한 기간 내에 식품을 섭취해야 한다. On the other hand, as the modern society develops, processed foods that can be eaten with shorter time are also developing. For example, there are retort foods and frozen foods that can be eaten simply by heating in a microwave oven, and various instant, cans or bottled beverages. The advantage of these processed foods is the advantage of simplicity. On the other hand, processed foods that have exceeded the shelf life may also cause various diseases such as food poisoning. In particular, in the case of a packaged food, the food should be consumed within a preservable period after the time of opening.
이러한 문제점을 개선하기 위해 다양한 식품 관리 프로그램들이 연구되고 있다. 식품 관리 프로그램의 일예로서 사용자가 식품의 포장을 개봉할 경우, 개봉 시점을 상기 DB에 입력하여 식품 관리 프로그램이 남은 식품의 보존가능기간을 계산하는 방법이 있을 수 있다.Various food control programs are being studied to remedy this problem. As an example of a food control program, when a user opens a package of food, there may be a method in which the food management program calculates the shelf life of the remaining food by inputting the opening time to the DB.
하지만, 식품의 포장을 개봉할 때 사용자가 개별적으로 식품 관리 프로그램의 DB에 직접 입력해야 하는 불편함이 있다. 사용자가 입력하지 못한 식품에 대한 관리가 제대로 이루어지지 않을 수 있다. 따라서, 식품의 포장이 개봉되는 것과 같이 식품의 포장상태에 변화가 발생할 때 이를 스스로 인식하여 관리할 수 있는 방법이 필요하다.However, when opening a package of food, there is an inconvenience that a user must input directly to a DB of a food management program. The food may not be properly managed by the user. Therefore, there is a need for a method capable of recognizing and managing a change in the packaging state of a food, such as when the package is opened.
본 명세서는 포장된 식품의 개봉 여부를 판단할 수 있는 착용형 디바이스 및 제어 방법에 관한 것이다.The present specification relates to a wearable device and a control method capable of determining whether a packaged food is opened.
또한, 본 명세서는 식품의 포장이 개봉된 시간을 저장하고 이와 관련된 정보를 제공할 수 있는 착용형 디바이스 및 제어 방법에 관한 것이다.The present disclosure also relates to a wearable device and a control method capable of storing the time the package of food is opened and providing information related thereto.
따라서 본 명세서는 포장된 식품의 개봉여부 판단 및 개봉시간과 관련된 정보를 사용자에게 제공하여 종래기술이 지닌 한계와 결점을 실질적으로 해결하는 것을 목적으로 한다.Therefore, the present specification aims to substantially solve the limitations and drawbacks of the prior art by providing a user with information related to whether or not to open a packaged food and opening time.
본 명세서의 목적을 달성하기 위한 착용형 디바이스는, 데이터를 저장하는 메모리부; 이미지를 센싱하는 카메라; 및 상기 카메라를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하고, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라를 통해 제1 수신된 이미지에서 구별된 식품의 포장이 개봉된 것으로 판단된 경우 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 상기 메모리부에 저장하고, 상기 식품데이터 및 개봉시간을 저장한 이후 상기 카메라를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는 경우 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력하는 제어부;을 포함할 수 있다.Wearable device for achieving the object of the present specification, the memory unit for storing data; A camera for sensing an image; And distinguishing the user's hand motion and the packaged food from the first image received through the camera, and the first image received through the camera by the user's hand motion distinguished from the first image received through the camera. When it is determined that the package of food distinguished from is opened, the memory unit stores data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time'). And storing the food data and the opening time and outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data. The control unit may include.
본 명세서의 일 실시예에 따르면, 상기 메모리부는 다양한 식품의 포장 특성에 따라 포장이 개봉된 상태의 이미지 데이터(이하 '개봉이미지 데이터')를 포함하는 개봉이미지 데이터 테이블을 더 저장할 수 있고, 상기 제어부는 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단하고, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 이미지와 상기 개봉이미지 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉이미지 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다.According to one embodiment of the present specification, the memory unit may further store an opening image data table including image data (hereinafter 'opening image data') in a state in which a package is opened according to various packaging characteristics of the food, and the controller Determines the packaging characteristics of the food distinguished from the first image received through the camera, and according to the packaging characteristics of the food from the food image distinguished from the first image received through the camera and the packaging image data table. By comparing the mapped opening image data, it may be determined whether a food package is opened.
상기 개봉이미지 데이터는, 식품의 포장 중 일부에 크랙이 형성된 상태의 이미지, 식품의 포장에 포함된 뚜껑이 제거된 상태의 이미지 또는 식품의 포장에 형성된 접합부분 중 일부가 떨어진 상태의 이미지가 될 수 있다.The opening image data may be an image of a state in which a crack is formed in a portion of a package of food, an image of a state in which a lid included in the package of the food is removed, or an image of a state in which some of the joints formed in the package of the food are separated. have.
본 명세서에 따른 착용형 디바이스는, 소리를 센싱하는 마이크로폰;을 더 포함할 수 있다. 이때, 상기 메모리부는 다양한 식품의 포장 특성에 따라 포장이 개봉될 때 발생하는 소리 데이터(이하 '개봉소리 데이터')를 포함하는 개봉소리 데이터 테이블을 더 저장하고, 상기 제어부는 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단하고, 상기 마이크로폰을 통해 수신된 소리와 상기 개봉소리 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉소리 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다.The wearable device according to the present specification may further include a microphone for sensing a sound. In this case, the memory unit further stores an opening sound data table including sound data (hereinafter 'opening sound data') generated when the package is opened according to the packaging characteristics of various foods, and the control unit received through the camera. Determine whether the packaging of the food is opened by determining the packaging characteristics of the food distinguished from the first image, and comparing the opening sound data mapped according to the packaging characteristics of the food in the opening sound data table with the sound received through the microphone. Can be determined.
상기 개봉소리 데이터는, 식품의 포장 중 일부에 크랙이 형성될 때 발생하는 소리, 식품의 포장에 포함된 뚜껑이 제거될 때 발생하는 소리 또는 식품의 포장에 형성된 접합부분 중 일부가 떨어질 때 발생하는 소리가 될 수 있다.The opening sound data may be generated when a crack is formed in a part of a package of food, a sound generated when the lid included in the package of the food is removed, or a part of the joint formed on the package of the food falls. It can be sound.
본 명세서의 일 실시예에 따르면, 상기 제어부는 상기 개봉시간으로부터 현재까지 경과한 시간 정보를 정보신호로 출력할 수 있다.According to an embodiment of the present disclosure, the controller may output time information that has elapsed from the opening time to the present as an information signal.
본 명세서의 다른 실시예에 따르면, 상기 메모리부는 다양한 식품의 특성에 따른 경과기간을 포함하는 경과기간 데이터 테이블을 더 저장하고, 상기 제어부는 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 특성을 판단하고, 상기 개봉시간으로부터 상기 경과기간 데이터 테이블에서 상기 판단된 식품의 특성을 맵핑하여 산출된 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력할 수 있다.According to another exemplary embodiment of the present specification, the memory unit further stores an elapsed period data table including an elapsed period according to various food characteristics, and the controller controls the characteristics of the food distinguished from the first image received through the camera. The information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time may be output as an information signal.
본 명세서의 또 다른 실시예에 따르면, 상기 메모리부는 상기 포장이 개봉된 식품에 대해 사용자가 입력한 경과시간을 더 저장하고, 상기 제어부는 상기 개봉시간으로부터 상기 사용자가 입력한 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력할 수 있다.According to another embodiment of the present specification, the memory unit further stores an elapsed time input by the user for the food in which the package is opened, and the controller controls the remaining time of the elapsed period input by the user from the opening time or Information related to the transition time can be output as an information signal.
본 명세서에 따른 착용형 디바이스는, 시각적 신호 또는 청각적 신호를 출력하는 경고부;를 더 포함할 수 있다. 이때, 상기 제어부는 상기 정보신호를 상기 경고부에 출력할 수 있다.The wearable device according to the present disclosure may further include a warning unit configured to output a visual signal or an audio signal. In this case, the controller may output the information signal to the warning unit.
본 명세서의 일 실시예에 따르면, 상기 경고부는 영상을 출력하는 디스플레이 유닛이 될 수 있다. 이 경우, 상기 제어부는 상기 메모리부에 저장된 개봉시간과 관련된 시간 정보를 상기 디스플레이 유닛에 표시되도록 상기 정보신호를 출력할 수 있다.According to an embodiment of the present disclosure, the warning unit may be a display unit for outputting an image. In this case, the controller may output the information signal to display the time information associated with the opening time stored in the memory unit on the display unit.
나아가, 본 명세서에 따른 착용형 디바이스는 하나 이상의 가상 오브젝트를 하나 이상의 레이어에 배치한 후 상기 카메라에서 촬영된 현실 세계의 이미지 위에 중첩시키는 이미지 처리부;를 더 포함할 수 있다. 이 경우, 상기 제어부는 상기 개봉시간과 관련된 시간 정보를 상기 가상 오브젝트로 표시되도록 제어하고, 상기 촬영된 현실 세계의 이미지 중 식품 이미지와 인접한 부분에 상기 가상 오브젝트가 위치하도록 제어할 수 있다.Furthermore, the wearable device according to the present disclosure may further include an image processing unit for arranging one or more virtual objects on one or more layers and superimposing the images on the image of the real world captured by the camera. In this case, the controller may control the time information related to the opening time to be displayed as the virtual object, and control the virtual object to be positioned in a portion adjacent to the food image of the photographed real world image.
본 명세서의 일 실시예에 따르면, 상기 제어부는, 사용자의 입력을 수신할 때 상기 식품의 포장 개봉 여부를 판단할 수 있다.According to one embodiment of the present specification, the control unit may determine whether the food is opened or unpacked when receiving a user input.
본 명세서의 다른 실시예에 따르면, 상기 제어부는 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장에 표시된 정보를 판독할 때 상기 식품의 포장 개봉 여부를 판단할 수 있다. 이때, 상기 식품의 포장에 표시된 정보는, 식품의 상표명 또는 바코드 또는 QR코드가 될 수 있다.According to another embodiment of the present disclosure, the control unit may determine whether the food is unpacked when reading the information displayed on the packaging of the food distinguished from the first image received through the camera. At this time, the information displayed on the packaging of the food, may be a brand name or barcode or QR code of the food.
본 명세서의 목적을 달성하기 위한 착용형 디바이스이의 제어 방법은, (a) 카메라를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하고 단계; (b) 상기 카메라를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라를 통해 수신된 이미지에서 구별된 식품의 포장이 개봉되는지 여부를 판단하는 단계; (c) 상기 식품의 포장이 개봉된 경우 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 메모리부에 저장하는 단계; 및 (d) 상기 카메라를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는 경우 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력하는 단계;를 포함할 수 있다.A control method of a wearable device for achieving the object of the present specification includes the steps of: (a) distinguishing a user's hand motion and packaged food from a first image received through a camera; (b) determining whether the package of the food distinguished in the image received through the camera is opened by a user's hand gesture distinguished in the first image received through the camera; (c) when the package of the food is opened, storing data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time') step; And (d) outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data.
본 명세서의 일 측면에 따르면, 포장된 식품이 개봉되었는지 여부를 이미지 비교 또는 소리 비교 등을 통해 판단할 수 있다. 따라서, 사용자가 식품에 대한 별도의 정보를 입력하지 않아도 개봉된 식품을 관리할 수 있다.According to an aspect of the present disclosure, whether the packaged food is opened may be determined through image comparison or sound comparison. Therefore, the user can manage the opened food without the user inputting separate information about the food.
본 명세서의 다른 측면에 따르면, 식품의 포장이 개봉된 시간과 관련된 정보를 제공하여 사용자로 하여금, 식품의 섭취, 관리, 보존, 폐기 여부 등을 결정할 수 있도록 정보를 제공할 수 있다.According to another aspect of the present disclosure, it is possible to provide information related to the time when the package of the food is opened, so that the user can determine whether to eat, manage, preserve, discard or the like of the food.
본 명세서를 더욱 이해할 수 있도록 제공되며 본 출원에 포함되고 본 출원의 일부를 구성하는 첨부된 도면은 본 명세서의 원리를 설명하는 상세한 설명과 함께 본 명세서의 실시예를 나타낸다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are provided to provide a further understanding of the specification and which are incorporated in and constitute a part of the present application, illustrate embodiments of the present specification in conjunction with the detailed description describing the principles of the present specification.
도 1은 착용형 디바이스의 예시도이다.1 is an illustration of a wearable device.
도 2는 본 명세서의 일 실시예에 따른 착용형 디바이스의 구성을 대략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a configuration of a wearable device according to an exemplary embodiment of the present specification.
도 3은 본 명세서에 따른 착용형 디바이스의 사용 모습을 이해하기 위한 참고도이다.3 is a reference diagram for understanding the appearance of the wearable device according to the present specification.
도 4는 사용자의 손 동작에 의해 식품의 포장이 개봉되었는지 여부를 판단하는 예시도이다.4 is an exemplary view for determining whether a package of food is opened by a user's hand operation.
도 5는 개봉여부 판단에 사용될 수 있는 데이터 테이블의 예시도이다.5 is an exemplary diagram of a data table that may be used to determine whether or not to open.
도 6은 메모리부에 저장된 식품데이터 및 개봉시간에 대한 예시도이다.6 is an exemplary view of the food data and the opening time stored in the memory unit.
도 7은 본 명세서의 일 실시예에 따른 착용형 디바이스의 제어 방법을 도시한 순서도이다.7 is a flowchart illustrating a control method of a wearable device according to an exemplary embodiment of the present specification.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하기로 한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 명세서에 개시된 실시예의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 명세서의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings. At this time, the configuration and operation of the embodiments shown in the drawings and described by this description will be described as at least one embodiment, by which the technical spirit of the present specification and its core configuration and operation is not limited. .
도 2는 본 명세서의 일 실시예에 따른 착용형 디바이스(100)의 구성을 대략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a configuration of the wearable device 100 according to an exemplary embodiment of the present specification.
도 2를 참조하면, 본 명세서에 따른 착용형 디바이스(100)는 제어부(101), 메모리부(102) 및 카메라(103)를 포함한다. 또한, 실시예에 따라 상기 착용형 디바이스(100)는 마이크로폰(104), 경고부(105), 이미지 처리부(106) 또는 커뮤니케이션부(107)가 더 포함할 수 있다.Referring to FIG. 2, the wearable device 100 according to the present specification includes a control unit 101, a memory unit 102, and a camera 103. In addition, the wearable device 100 may further include a microphone 104, a warning unit 105, an image processing unit 106, or a communication unit 107.
상기 제어부(101)는 어플리케이션(또는 프로그램)을 실행하고, 착용형 디바이스(100) 내부의 데이터를 처리할 수 있다. 또한 상기 제어부(101)는 상기 메모리부(102), 카메라(103), 마이크로폰(104), 경고부(105), 이미지 처리부(106) 및 커뮤니케이션부(107)을 제어할 수 있으며, 각 구성들 간의 데이터 송수신을 제어할 수 있다.The controller 101 may execute an application (or program) and process data in the wearable device 100. In addition, the control unit 101 may control the memory unit 102, the camera 103, the microphone 104, the warning unit 105, the image processing unit 106, and the communication unit 107. Control data transmission and reception between them.
상기 제어부(101)는 이하에서 상세히 설명될 제어 로직을 실행하기 위해 본 명세서가 속한 기술분야에 알려진 프로세서, ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로, 레지스터, 통신 모뎀, 데이터 처리 장치 등을 포함할 수 있다. 또한, 상기 제어 로직이 소프트웨어로 구현될 때, 상기 제어부(101)는 프로그램 모듈의 집합으로 구현될 수 있다. 이 때, 프로그램 모듈은 상기 메모리부(102)에 저장되고, 프로세서에 의해 실행될 수 있다.The controller 101 is a processor, an application-specific integrated circuit (ASIC), other chipsets, logic circuits, registers, communication modems, data processing apparatuses known in the art to execute control logic, which will be described in detail below. And the like. In addition, when the control logic is implemented in software, the control unit 101 may be implemented as a set of program modules. In this case, the program module may be stored in the memory unit 102 and executed by a processor.
상기 메모리부(102)는 다양한 데이터를 저장할 수 있다. 또한, 상기 제어부(101)의 동작을 위한 어플리케이션(또는 프로그램)을 저장할 수도 있고, 상기 카메라(103)를 통해 획득한 이미지 또는 상기 마이크로폰(104)을 통해 획득한 소리를 저장할 수도 있다.The memory unit 102 may store various data. In addition, an application (or a program) for the operation of the controller 101 may be stored, or an image obtained through the camera 103 or a sound obtained through the microphone 104 may be stored.
상기 메모리부(102)는 RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory) 등이 될 수 있다. 또한 착용형 디바이스(100)는 인터넷(Internet) 상에서 상기 메모리부(102)의 저장 기능을 수행하는 웹 스토리지(Web Storage)와 관련되어 동작할 수도 있다. The memory unit 102 may be a random access memory (RAM), a static random access memory (SRAM), a read only memory (ROM), an electrically erasable programmable read only memory (EPEROM), a programmable read only memory (PROM), or the like. have. In addition, the wearable device 100 may operate in association with a web storage that performs a storage function of the memory unit 102 on the Internet.
또한 상기 메모리부(102)는 상기 착용형 디바이스(100)에 착탈 가능한 외부 저장 매체를 더 포함할 수 있다. 상기 외부 저장 매체는 SD (Secure Digital)나 CF (Compact Flash) 메모리와 같은 슬롯 형태, 메모리 스틱 형태, USB (Universal Serial Bus) 형태 등이 가능하다. 즉, 상기 외부 저장 매체는 상기 착용형 디바이스(200)에 착탈 가능하고, 오디오, 사진, 동영상, 어플리케이션 등과 같은 데이터를 상기 착용형 디바이스(100)에 제공할 수 있는 저장 매체는 어느 것이나 가능하다.In addition, the memory unit 102 may further include an external storage medium detachable from the wearable device 100. The external storage medium may be in the form of a slot such as Secure Digital (SD) or Compact Flash (CF) memory, a memory stick, or a universal serial bus (USB). That is, the external storage medium may be detachable from the wearable device 200, and any storage medium capable of providing data such as audio, a photo, a video, an application, and the like to the wearable device 100 may be used.
상기 카메라(103)는 상기 착용형 디바이스(100)의 주변 환경 이미지를 센싱하여 전기적 신호로 변환한다. 이를 위해 상기 카메라(103)는 이미지 센서를 포함할 수 있으며, 이미지 센서는 광학 신호를 전기적 신호로 변환할 수 있다. 상기 카메라(103)에서 센싱되어 전기적 신호로 변환된 이미지는 상기 메모리부(102)에 저장된 후 상기 제어부(101)로 출력되거나, 저장되지 않고 바로 상기 제어부(101)로 출력될 수도 있다. 상기 카메라(103)에 의해 센싱된 이미지는 정지 영상이 될 수도 있고, 동영상이 될 수도 있다.The camera 103 senses an environment image of the wearable device 100 and converts the image into an electrical signal. To this end, the camera 103 may include an image sensor, and the image sensor may convert an optical signal into an electrical signal. The image sensed by the camera 103 and converted into an electrical signal may be stored in the memory unit 102 and then output to the controller 101 or directly to the controller 101 without being stored. The image sensed by the camera 103 may be a still image or a video.
상기 마이크로폰(104)은 상기 착용형 디바이스(100)의 주변 환경 소리를 감지하여 전기적 신호로 변환한다. 본 명세서에서, 상기 마이크로폰(104)은 소리를 감지하기 위해 항상 온(ON) 상태에 있을 수 있다. 또한, 상기 마이크로폰(104)이 오프(OFF) 상태에 있더라도, 상기 제어부(101)의 명령으로 온(ON) 상태가 될 수 있다.The microphone 104 detects the ambient sound of the wearable device 100 and converts it into an electrical signal. In the present specification, the microphone 104 may be always in an ON state to sense sound. In addition, even when the microphone 104 is in an OFF state, the microphone 104 may be turned on by a command of the controller 101.
상기 경고부(105)는 상기 제어부(101)로부터 출력된 신호에 의해 사용자에게 시각적 신호 또는 청각적 신호를 출력하는 역할을 한다.The warning unit 105 serves to output a visual signal or an audio signal to the user by the signal output from the control unit 101.
본 명세서의 일 실시예에 따르면, 상기 경고부(105)는 디스플레이 유닛이 될 수 있다. 상기 디스플레이 유닛은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor liquid crystal display), 발광 다이오드(light emitting diode), 유기 발광 다이오드(organic light emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 될 수 있다. 또한 상기 디스플레이 유닛은 가상 화면을 디스플레이하는 허공이나 투명 유리 등이 될 수 있다. 즉, 비디오 신호를 시각적으로 인간에게 전달하여줄 수 있는 것은 어느 것이나 디스플레이 유닛이 될 수 있다.According to one embodiment of the present specification, the warning unit 105 may be a display unit. The display unit includes a liquid crystal display, a thin film transistor liquid crystal display, a light emitting diode, an organic light emitting diode, a flexible display, It may be a 3D display or the like. In addition, the display unit may be a hollow or transparent glass for displaying a virtual screen. That is, anything that can visually deliver a video signal to a human can be a display unit.
본 명세서의 다른 실시예에 따르면, 상기 경고부(105)는 LED, LCD, 알람 경보기 또는 이들의 조합을 포함할 수 있다. 이 경우, 상기 경고부(105)는 LED를 점멸하거나 LCD에 경고 메시지를 출력하거나 알람, 부저음을 발생시켜 사용자에게 시각적 신호 또는 청각적 신호를 출력할 수 있다. 하지만 본 명세서가 이에 한하는 것은 아니다. 또한, 상기 LED, LCD 및 알람 경보기는 상기 경고부의 일 예시에 불과하며, 여러 가지 변형된 형태의 시각적 또는 청각적 알람 장치가 상기 경고부(105)로 채용될 수 있다는 것은 당업자에게 자명하다.According to another embodiment of the present specification, the warning unit 105 may include an LED, an LCD, an alarm alarm, or a combination thereof. In this case, the warning unit 105 may output a visual signal or an audio signal to the user by blinking the LED, outputting a warning message on the LCD, or generating an alarm or buzzer sound. However, the present specification is not limited thereto. In addition, the LED, LCD and alarm alarm is only one example of the warning unit, it will be apparent to those skilled in the art that various modified forms of visual or audio alarm device can be employed as the warning unit 105.
상기 이미지 처리부(106)는 하나 이상의 가상 오브젝트를 하나 이상의 레이어에 배치한 후 상기 카메라(103)에서 센싱된 현실 세계의 이미지 위에 중첩시킨다. 상기 하나 이상의 레이어의 가상 오브젝트가 중첩된 증강 현실 이미지는 상기 디스플레이 유닛을 통해 디스플레이될 수 있다. 즉, 상기 카메라(103)는 현실 세계의 이미지를 센싱하여 메모리부(102)에 저장한 후 이미지 처리부(106)로 출력하거나, 저장하지 않고 바로 이미지 처리부(106)로 출력한다. 상기 이미지 처리부(106)는 상기 카메라(103)로 센싱된 현실 세계의 이미지에 하나 이상의 가상 오브젝트를 레이어 구조로 중첩하여 증강 현실 이미지를 만든다. The image processor 106 arranges one or more virtual objects on one or more layers and superimposes them on the image of the real world sensed by the camera 103. An augmented reality image in which virtual objects of the one or more layers are overlapped may be displayed through the display unit. That is, the camera 103 senses an image of the real world, stores it in the memory 102, and outputs the image to the image processor 106, or directly to the image processor 106 without storing the image. The image processor 106 creates an augmented reality image by overlaying one or more virtual objects in a layered structure on an image of the real world sensed by the camera 103.
상기 착용형 디바이스(100)는 데이터를 제공하는 하나 이상의 외부 디바이스(200)와 유/무선을 통해 연결될 수 있다. 이 경우, 상기 착용형 디바이스(100)는 상기 커뮤니케이션부(107)를 통해 상기 외부 디바이스(200)와 데이터를 송수신을 할 수 있다.The wearable device 100 may be connected to one or more external devices 200 that provide data through wired or wireless. In this case, the wearable device 100 may transmit / receive data with the external device 200 through the communication unit 107.
상기 외부 디바이스(200)는 상기 착용형 디바이스(100)에 데이터를 전송하거나 수신할 수 있는 장치는 어느 것이나 가능하다. 예를 들어, 상기 외부 디바이스(200)는 이동 단말기가 될 수도 있고, 고정 단말기가 될 수도 있다. 이동 단말기는 휴대폰, 스마트 폰, 태블릿 PC (Personal Computer), 스마트 패드, 노트북, 디지털 방송용 단말기, 개인 정보 단말기(PDA, Personal Digital Assistants), PMP (Portable Multimedia Player), 디지털 카메라, 네비게이션 등이 될 수 있고, 고정 단말기는 데스크 탑, DVD (Digital Video Disc or Digital Versatile Disc) 플레이어, TV 등이 될 수 있다. The external device 200 may be any device capable of transmitting or receiving data to the wearable device 100. For example, the external device 200 may be a mobile terminal or a fixed terminal. The mobile terminal may be a mobile phone, a smart phone, a tablet PC (Personal Computer), a smart pad, a notebook, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a digital camera, a navigation device, or the like. The fixed terminal may be a desktop, a DVD (Digital Video Disc or Digital Versatile Disc) player, a TV, or the like.
상기 커뮤니케이션부(107)와 외부 디바이스(200)는 다양한 프로토콜을 사용하여 유선 또는 무선을 통해 데이터를 송/수신할 수 있다. 예를 들어, 유선인 경우 HDMI (High Definition Multimedia Interface) 또는 DVI (Digital Visual Interface)등의 인터페이스가 지원될 수 있다. 다른 예로, 무선인 경우 2G, 3G, 4G 이동 통신 방식, 예컨대 GSM (Global System for Mobile Communications) 이나 CDMA (Code Division Multiple Access), Wibro, 그 외에 HSPA (High Speed Packet Access), HSDPA(High Speed Downlink Packet Access), LTE (Long Term Evolution) 등의 이동 통신 방식 또는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi) 등의 근거리 통신 방식의 인터페이스가 지원될 수 있다. The communication unit 107 and the external device 200 may transmit / receive data via wired or wirelessly using various protocols. For example, when wired, an interface such as HDMI (High Definition Multimedia Interface) or DVI (Digital Visual Interface) may be supported. As another example, in the case of wireless, 2G, 3G, 4G mobile communication methods such as Global System for Mobile Communications (GSM), Code Division Multiple Access (CDMA), Wibro, other High Speed Packet Access (HSPA), High Speed Downlink (HSDPA) Mobile communication such as Packet Access (LTE), Long Term Evolution (LTE), or Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Wireless LAN A short range communication interface such as Wi-Fi may be supported.
여기서 유/무선 인터페이스 방식은 본 명세서의 이해를 돕기 위한 실시예들이며, 정보를 송/수신하기 위한 인터페이스 방식은 당업자에 의해 용이하게 변경될 수 있으므로 본 명세서에서 인터페이스 방식은 기재된 실시예들로 한정되지 않을 것이다.Herein, the wired / wireless interface schemes are embodiments for better understanding of the present specification, and the interface scheme for transmitting / receiving information may be easily changed by those skilled in the art. Will not.
도 3은 본 명세서에 따른 착용형 디바이스의 사용 모습을 이해하기 위한 참고도이다.3 is a reference diagram for understanding the appearance of the wearable device according to the present specification.
도 3의 (a)를 참조하면, 착용형 디바이스(100)의 일 예로 HMD(Head Mounted Display)를 착용한 사용자를 확인할 수 있다. 그리고 상기 사용자는 포장된 식품을 손으로 쥐고 있는 것을 확인할 수 있다. 상기 포장된 식품의 일 예로서 폴리백(Poly bag)으로 포장된 스낵이 도시되어 있다.Referring to FIG. 3A, as an example of the wearable device 100, a user wearing a head mounted display (HMD) may be checked. And the user can confirm that the hand holding the packaged food. An example of a packaged food is shown a snack packaged in a poly bag.
도 3의 (b)를 참조하면, 상기 착용형 디바이스(100)에 포함된 카메라(103)를 통해 센싱된 이미지를 확인할 수 있다. 상기 제어부(101)의 동작은 상기 카메라(103)를 통해 수신된 이미지를 바탕으로 이루어진다. 따라서, 이하 본 명세서에서 상세히 설명될 상기 카메라(103)를 통해 수신된 이미지 및 상기 제어부(101)의 동작은 도 3의 참고도에 도시된 상황을 고려하면 이해하기 용이하다.Referring to FIG. 3B, an image sensed through the camera 103 included in the wearable device 100 may be checked. The operation of the controller 101 is performed based on the image received through the camera 103. Therefore, the image received through the camera 103 to be described in detail herein below and the operation of the controller 101 are easy to understand in consideration of the situation shown in the reference diagram of FIG. 3.
한편, 본 명세서에서는 착용형 디바이스(100)로서 안경처럼 머리에 착용하는 형태의 디바이스를 예시로 제시하였으나, 상기 예시가 본 명세서의 범위를 제한하는 것은 아니다. 상기 착용형 디바이스(100)는 사용자의 몸에 부착하여 컴퓨팅 행위를 할 수 있는 모든 기기를 의미하는 것이다. 본 명세서 출원 당시 안경, 헤어 밴드, 손목시계, 암 밴드(arm band), 신발, 목거리, 반지, 콘택트렌즈 형태 등 다양한 형태의 착용형 디바이스가 공개되었지만, 본 명세서에 따른 착용형 디바이스(100)는 형태에 따라 제한되지 않는다.On the other hand, in the present specification, as a wearable device 100, but shown as a device in the form of wearing on the head like glasses, the example is not intended to limit the scope of the present disclosure. The wearable device 100 refers to any device that can be attached to the user's body to perform a computing action. At the time of filing the present specification, various types of wearable devices such as glasses, hair bands, watches, arm bands, shoes, neckbands, rings, and contact lens types have been disclosed, but the wearable device 100 according to the present disclosure It is not restricted depending on the form.
본 명세서에 따른 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별할 수 있다. 상기 제어부(101)가 카메라(103)를 통해 수시된 이미지에서 사용자의 손 동작을 구별하는 기술은 본 명세서의 출원 당시 당업자에게 공지의 기술인바 상세한 설명은 생략하도록 한다. 또한, 상기 제어부(101)는 카메라(103)를 통해 수신된 이미지에서 포장지에 인쇄된 상품명을 인식하거나, 포장지에 인쇄된 바코드 등을 인식하는 방법을 통해서 포장된 식품을 구별할 수 있다. 상기 제어부(101)가 카메라(103)를 통해 수신된 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하는 방법은 본 명세서의 출원 당시뿐만 아니라 출원 이후 당업자가 용이하게 사용할 수 있는 모든 기술이 적용될 수 있다. 한편, 상기 제1 이미지란, 이후 설명될 제2 이미지와 시간적으로 먼저 상기 카메라(103)를 통해 수신된 이미지를 의미한다.The control unit 101 according to the present specification may distinguish the user's hand motion and the packaged food from the first image received through the camera 103. Techniques for distinguishing the user's hand motion from the image received by the controller 101 through the camera 103 are well known to those skilled in the art at the time of filing the present specification, and thus detailed descriptions thereof will be omitted. In addition, the controller 101 may distinguish the packaged food through a method of recognizing a brand name printed on a wrapping paper or a barcode printed on the wrapping paper from an image received through the camera 103. How the controller 101 distinguishes the user's hand motion and the packaged food from the image received through the camera 103 may be applied to all techniques that can be easily used by those skilled in the art not only at the time of the present application but also after the application. have. The first image refers to an image received through the camera 103 in time with a second image to be described later.
상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 포장이 개봉되었는지 여부를 판단한다.The controller 101 determines whether the package of the food distinguished from the first image received through the camera 103 is opened by a user's hand gesture distinguished from the first image received through the camera 103. To judge.
도 4는 사용자의 손 동작에 의해 식품의 포장이 개봉되었는지 여부를 판단하는 예시도이다.4 is an exemplary view for determining whether a package of food is opened by a user's hand operation.
도 4의 (a)를 참조하면, 폴리백 포장을 개봉하는 사용자의 손 동작을 확인할 수 있다. 상기 폴리백의 경우, 포장을 잡은 양손이 좌우로 벌어지는 동작을 통해 개봉될 수 있다. 또한 상기 폴리백의 경우, 한 손으로 포장의 끝부분을 잡고 아래로 찢는 동작을 통해 개봉될 수 있다. 또한 도 4의 (b)를 참조하면, 병을 개봉하는 사용자의 손 동작을 확인할 수 있다. 병의 경우, 손으로 뚜껑을 돌려서 개봉을 할 수 있다.Referring to FIG. 4A, a user's hand operation of opening a polybag package may be confirmed. In the case of the polybag, both hands holding the package may be opened through an operation of spreading from side to side. In addition, in the case of the poly bag, it can be opened through the operation of holding the end of the package with one hand to tear down. In addition, referring to Figure 4 (b), it is possible to check the hand operation of the user opening the bottle. In the case of a bottle, you can open it by turning the lid by hand.
따라서, 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작이 찢기, 벌이기, 돌리기 같은 식품의 포장 특성에 따라 포장을 개봉하는 동작인지 여부를 판단한다. 그리고, 상기 사용자의 손 동작에 의해 식품의 포장이 개봉되었는지 여부를 판단한다.Accordingly, the controller 101 determines whether the user's hand gesture distinguished from the first image received through the camera 103 is an operation of opening the package according to the packaging characteristics of the food such as tearing, cutting and turning. do. Then, it is determined whether the food package is opened by the user's hand operation.
본 발명의 일 실시예에 따르면, 상기 제어부(101)는 이미지 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다.According to an embodiment of the present invention, the controller 101 may determine whether the package of the food is opened by comparing the images.
이미지 비교를 위해서, 상기 메모리부(102)는 다양한 식품의 포장 특성에 따라 포장이 개봉된 상태의 이미지 데이터(이하 '개봉이미지 데이터')를 포함하는 개봉이미지 데이터 테이블을 더 저장할 수 있다.In order to compare the images, the memory unit 102 may further store an opening image data table including image data of a state in which a package is opened (hereinafter, referred to as “opening image data”) according to packaging characteristics of various foods.
도 5는 개봉여부 판단에 사용될 수 있는 데이터 테이블의 예시도이다.5 is an exemplary diagram of a data table that may be used to determine whether or not to open.
도 5를 참조하면, 개봉이미지 데이터를 포함하는 테이블을 확인할 수 있다. 일 예로, 상기 개봉이미지 데이터는, 폴리백이 찢어진 이미지와 같이, 식품의 포장 중 일부에 크랙이 형성된 상태의 이미지가 될 수 있다. 다른 예로, 상기 개봉이미지 데이터는, 소다병의 뚜껑이 열린 것과 같이, 식품의 포장에 포함된 뚜껑이 제거된 상태의 이미지가 될 수 있다. 또 다른 예로, 상기 개봉이미지 데이터는, 우유팩의 입구가 열린 것과 같이, 식품의 포장에 형성된 접합부분 중 일부가 떨어진 상태의 이미지가 될 수 있다.Referring to FIG. 5, a table including unsealed image data may be confirmed. For example, the opening image data may be an image of a state in which a crack is formed in a part of a package of food, such as an image in which a poly bag is torn. As another example, the opening image data may be an image of a state in which a lid included in a package of food is removed, such as a lid of a soda bottle is opened. As another example, the opening image data may be an image of a state in which some of the joints formed on the package of the food are separated, such as the opening of the milk carton is opened.
이 경우 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단할 수 있다. 그리고 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 포장 이미지와 상기 개봉이미지 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉이미지 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다. 예를 들어, 상기 제어부(101)는 제1 이미지에서 구별된 식품의 포장 특성이 폴리백으로 판단된 경우, 상기 메모리부(102)에 저장된 개봉이미지 데이터 테이블에서 폴리백에 해당하는 개봉이미지 데이터를 읽어 낸다. 그리고, 제1 이미지에서 구별된 식품의 포장 이미지와 상기 개봉이미지 데이터를 비교하여 일치 또는 유사로 판단된 경우, 상기 제어부(101)는 상기 식품의 포장이 개봉된 것으로 판단한다.In this case, the controller 101 may determine packaging characteristics of the food distinguished from the first image received through the camera 103. In addition, the control unit 101 may compare the package image of the food distinguished from the first image received through the camera 103 with the image data mapped to the package image of the food in the opening image data table. It may be determined whether the package has been opened. For example, when it is determined that the packaging property of the food distinguished from the first image is a poly bag, the controller 101 may display the unsealed image data corresponding to the poly bag in the unsealed image data table stored in the memory 102. Read it. In addition, when it is determined that the package image of the food distinguished from the first image and the unsealing image data are matched or similar, the controller 101 determines that the package of the food is opened.
본 발명의 다른 실시예에 따르면, 상기 제어부(101)는 소리 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다.According to another embodiment of the present invention, the control unit 101 may determine whether the package of the food is opened by comparing the sound.
소리 비교를 위해, 상기 메모리부(102)는 다양한 식품의 포장 특성에 따라 포장이 개봉될 때 발생하는 소리 데이터(이하 '개봉소리 데이터')를 포함하는 개봉소리 데이터 테이블을 더 저장할 수 있다.For sound comparison, the memory unit 102 may further store an opening sound data table including sound data generated when the package is opened according to various packaging properties of the food (hereinafter, 'opening sound data').
도 5를 참조하면, 개봉소리 데이터를 포함하는 테이블을 확인할 수 있다. 일 예로, 상기 개봉소리 데이터는 식품의 포장 중 일부에 크랙이 형성될 때 발생하는 소리가 될 수 있다. 폴리백의 경우, 상기 개봉소리 데이터는 폴리백이 찢어질 때 발생하는 특유의 소리가 될 수 있다. 다른 예로, 상기 개봉소리 데이터는 식품의 포장에 포함된 뚜껑이 제거될 때 발생하는 소리가 될 수 있다. 탄산음료가 담긴 병의 경우, 상기 개봉소리 데이터는 뚜껑이 열린 때 탄산이 새어나가는 특유의 소리가 될 수 있다. 또 다른 예로, 상기 개봉소리 데이터는 식품의 포장에 형성된 접합부분 중 일부가 떨어질 때 발생하는 소리가 될 수 있다. 우유팩의 경우, 상기 개봉소리 데이터는 종이팩의 입구를 뜯을 때 발생하는 특유의 소리가 될 수 있다. 본 명세서의 도 5에는 소리데이터라는 것을 나타내기 위해 '스피커 이미지'를 도시하고, 유사한 음성을 가진 '의성어'를 기재하였다. 소리를 문자로 표현하는 것에는 많은 제약이 따른다. 따라서 상기 '스피커 이미지' 및 '의성어'는 어디까지나 본 명세서에 따른 개봉소리 데이터를 나타내기 위한 하나의 표현 방법에 지나지 않으며, 본 명세서의 범위를 제한하지 않는 것으로 해석해야 한다.Referring to FIG. 5, a table including opening sound data may be confirmed. For example, the opening sound data may be a sound generated when a crack is formed in a part of a package of food. In the case of the polybag, the opening sound data may be a unique sound generated when the polybag is torn. As another example, the opening sound data may be a sound generated when the lid included in the package of food is removed. In the case of a bottle containing a carbonated beverage, the opening sound data may be a unique sound of carbonic acid leaking out when the lid is opened. As another example, the opening sound data may be a sound generated when some of the joints formed on the package of food drops. In the case of a milk carton, the opening sound data may be a unique sound generated when the opening of the carton is opened. 5 of the present specification shows a 'speaker image' to indicate that it is sound data, and describes 'onomatopia' with a similar voice. There are many limitations to expressing sounds in text. Therefore, the 'speaker image' and the 'ontology' are only one expression method for representing the opening sound data according to the present specification, and should be interpreted as not limiting the scope of the present specification.
상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단하고, 상기 마이크로폰(104)을 통해 수신된 소리와 상기 개봉소리 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉소리 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단할 수 있다. 예를 들어, 상기 제어부(101)는 제1 이미지에서 구별된 식품의 포장 특성이 폴리백으로 판단된 경우, 상기 메모리부(102)에 저장된 개봉소리 데이터 테이블에서 폴리백에 해당하는 개봉소리 데이터를 읽어 낸다. 그리고, 상기 마이크로폰(104)을 통해 수신된 소리와 상기 개봉소리 데이터를 비교하여 일치 또는 유사로 판단된 경우, 상기 식품의 포장이 개봉된 것으로 판단한다.The controller 101 determines the packaging characteristics of the food distinguished from the first image received through the camera 103, and the packaging characteristics of the food in the sound and the opening sound data table received through the microphone 104. It is possible to determine whether the package of the food is opened by comparing the opening sound data mapped according to. For example, when it is determined that the packaging characteristics of the food distinguished from the first image are polybags, the controller 101 may read the opening sound data corresponding to the polybags from the opening sound data table stored in the memory unit 102. Read it. In addition, when it is determined that the sound received through the microphone 104 and the opening sound data are matched or similar, the package of the food is determined to be opened.
한편, 상기 제어부(101)는 제1 수신된 이미지에서 구별된 식품의 포장이 개봉된 것으로 판단된 경우, 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 상기 메모리부(102)에 저장할 수 있다.On the other hand, if it is determined that the package of the food distinguished from the first received image is opened, the control unit 101 includes data about the opened food (hereinafter 'food data') and the time when the package is opened. Data (hereinafter, referred to as 'opening time') may be stored in the memory unit 102.
도 6은 메모리부에 저장된 식품데이터 및 개봉시간에 대한 예시도이다.6 is an exemplary view of the food data and the opening time stored in the memory unit.
도 6에 도시된 예시와 같이, 상기 메모리부(102)에는 식품데이터와 개봉시간이 저장될 수 있다. 상기 식품데이터는 포장이 개봉된 식품을 구별하는 데이터이다. 따라서, 상기 제어부(101)는 다수의 식품을 구별하기 위해 각각의 식품에 식별정보(예:번호)를 할당하여 상기 메모리부(102)에 저장시킬 수 있다. 또한, 상기 개봉시간은 각각의 식품에 대해 포장이 개봉된 시간 데이터이다. 따라서, 상기 시간정보는 상기 식품데이터와 연계되어 상기 메모리부(102)에 저장된다.As illustrated in FIG. 6, food data and opening time may be stored in the memory unit 102. The food data is data for distinguishing the food in which the package is opened. Accordingly, the controller 101 may allocate identification information (for example, a number) to each food and store the same in the memory 102 to distinguish a plurality of foods. In addition, the opening time is time data when the package is opened for each food. Therefore, the time information is stored in the memory unit 102 in association with the food data.
그리고 상기 제어부(101)는 상기 식품데이터 및 개봉시간을 저장한 이후 상기 카메라(103)를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는 경우 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력할 수 있다. 상기 제2 이미지란, 상기 제어부(101)가 상기 식품데이터 및 개봉시간을 상기 메모리부(102)에 저장한 이후 상기 카메라(103)를 통해 수신된 이미지로서, 즉 제1 이미지보다 시간적으로 늦게 상기 카메라(103)를 통해 수신된 이미지를 의미한다. 예를 들어, 스낵의 포장을 개봉할 때 상기 카메라(103)를 통해 수신된 이미지가 제1 이미지이고, 사용자가 스낵을 먹다가 남기고 몇 일 후 다시 상기 사용자가 상기 스낵을 보았을 때 상기 카메라(103)를 통해 수신된 이미지가 제2 이미지라고 할 수 있다.The controller 101 stores information regarding the opening time when the food distinguished from the second image received through the camera 103 matches the food data after storing the food data and the opening time. It can output the provided information signal. The second image is an image received through the camera 103 after the control unit 101 stores the food data and the opening time in the memory unit 102, that is, later in time than the first image. Means an image received through the camera 103. For example, when the package of the snack is opened, the image received through the camera 103 is the first image, and when the user views the snack again a few days after the user has left the snack, the camera 103 The image received through may be referred to as a second image.
상기 정보신호란, 상기 개봉시간과 관련된 정보를 포함하는 신호이다. 상기 정보신호에는 상기 개봉시간 자체가 포함될 수 있으며, 상기 개봉시간으로부터 경과된 시간, 상기 식품이 개봉된 날로부터 섭취 가능한 기간 또는 상기 식품의 섭취 가능한 잔여시간 등이 포함될 수 있다. 일 예로, 상기 카메라(103)를 통해 수신된 제2 이미지에서 구별된 식품이 도 5의 '스낵001'에 해당한다고 가정해보겠다. 이 경우 상기 제어부(101)는 '스낵001'에 해당하는 시간정보인 '2014.07.01'을 상기 메모리부(102)에서 확인할 수 있다. 그리고, 상기 시간정보 '2014.07.01'을 사용자에게 정보신호로 출력할 수 있다.The information signal is a signal including information related to the opening time. The information signal may include the opening time itself, and may include a time elapsed from the opening time, a period in which the food can be ingested from the day of opening the food, or a remaining time of ingesting the food. For example, suppose that the food distinguished from the second image received through the camera 103 corresponds to 'snack 001' of FIG. 5. In this case, the controller 101 may check the memory unit 102 for '2014.07.01', which is time information corresponding to 'snack 001'. The time information '2014.07.01' may be output as an information signal to the user.
본 명세서의 일 실시예에 따르면, 상기 제어부(101)는 상기 개봉시간으로부터 현재까지 경과한 시간정보를 정보신호로 출력할 수 있다. 현재 시간을 2014.07.30으로 가정한다면, '스낵001'은 포장이 개봉된 지 30일이 경과하였다. 따라서, 상기 제어부(101)는 정보신호로서 '30일'을 출력할 수 있다.According to one embodiment of the present specification, the controller 101 may output time information that has elapsed from the opening time to the present as an information signal. Assuming the current time is 30 July 2014, 'Snack 001' has been 30 days since the package was opened. Therefore, the controller 101 can output '30 days' as an information signal.
본 명세서의 다른 실시예에 따르면, 상기 제어부(101)는 미리 저장된 경과기간과 개봉시간을 비교한 내용을 상기 정보신호로 출력할 수 있다. 이를 위해, 상기 메모리부(102)는 다양한 식품의 특성에 따른 경과기간을 포함하는 경과기간 데이터 테이블을 더 저장할 수 있다. 상기 경과기간이란, 식품의 유통기간과 별도로, 식품의 포장이 개봉된 이후 식품의 섭취가 가능한 기간을 의미한다. 이 경우, 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 특성을 판단할 수 있다. 그리고 상기 제어부(101)는 상기 개봉시간으로부터 상기 경과기간 데이터 테이블에서 상기 판단된 식품의 특성을 맵핑하여 산출된 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력할 수 있다.According to another exemplary embodiment of the present specification, the controller 101 may output a content of comparing the elapsed time and the opening time previously stored as the information signal. To this end, the memory unit 102 may further store an elapsed period data table including an elapsed period according to various food characteristics. The elapsed period refers to a period in which food can be consumed after the food package is opened apart from the distribution period of the food. In this case, the controller 101 may determine the characteristics of the food distinguished from the first image received through the camera 103. The controller 101 may output information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time as an information signal.
예를 들어, 스낵의 경우, 상기 메모리부(102)에 '45일'이 경과기간 데이터로 저장되어 있다고 가정해보겠다. 스낵의 개봉일은 2014.07.01이고 현재 시간이 2014.07.30이라면, 상기 제어부(101)는 '잔여시간 15일'을 상기 정보신호로 출력한다. 다른 예로, 소다의 경우, 상기 메모리부(102)에 '10일'이 경과기간 데이터로 저장되어 있다고 가정해보겠다. 소다의 개봉일은 2014.07.15이고 현재 시간이 2014.07.30이라면, 상기 제어부(101)는 '도과시간 5일'을 상기 정보신호로 출력한다.For example, in the case of a snack, it is assumed that '45 days' is stored in the memory unit 102 as the elapsed period data. If the opening date of the snack is July 1, 2014 and the current time is July 30, 2014, the controller 101 outputs the remaining 15 days as the information signal. As another example, it is assumed that '10 days' is stored as elapsed period data in the memory unit 102. If the opening date of the soda is July 15, 2014 and the current time is July 30, 2014, the control unit 101 outputs '5 days of the transition time' as the information signal.
본 명세서의 또 다른 실시예에 따르면, 상기 제어부(101)는 상기 개봉시간으로부터 사용자가 입력한 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력할 수 있다. 이를 위해, 상기 메모리부(102)는 상기 포장이 개봉된 식품에 대해 사용자가 입력한 경과시간을 더 저장할 수 있다.According to another embodiment of the present specification, the controller 101 may output information related to the remaining time or the elapsed time of the elapsed period input by the user from the opening time as an information signal. To this end, the memory unit 102 may further store the elapsed time input by the user for the packaged food.
본 명세서에 따르면, 상기 제어부(101)는 상기 정보신호를 상기 경고부(105)에 출력할 수 있다.According to the present specification, the controller 101 may output the information signal to the warning unit 105.
상술하였듯이, 본 명세서의 일 실시예에 따르면 상기 경고부(105)는 영상을 출력하는 디스플레이 유닛이 될 수 있다. 상기 제어부(101)는 상기 메모리부(102)에 저장된 개봉시간과 관련된 시간 정보를 상기 디스플레이 유닛에 표시되도록 상기 정보신호를 출력할 수 있다.As described above, according to the exemplary embodiment of the present specification, the warning unit 105 may be a display unit for outputting an image. The controller 101 may output the information signal to display time information related to the opening time stored in the memory unit 102 on the display unit.
바람직하게, 상기 제어부(101)는 상기 개봉시간과 관련된 시간 정보를 가상 오브젝트로 표시되도록 제어하고, 상기 카메라에서 센싱된 현실 세계의 이미지 중 식품 이미지와 인접한 부분에 상기 가상 오브젝트가 위치하도록 제어할 수 있다. 이 경우, 본 명세서에 따른 착용형 디바이스(100)는 상술한 이미지 처리부(106)를 더 포함할 수 있다.Preferably, the controller 101 may control to display the time information related to the opening time as a virtual object, and to control the virtual object to be located in a portion adjacent to the food image of the image of the real world sensed by the camera. have. In this case, the wearable device 100 according to the present specification may further include the image processor 106 described above.
한편, 상기 제어부(101)는 사용자의 입력을 수신할 때 상기 식품의 포장 개봉 여부를 판단할 수 있다. 다시 말해서, 상기 제어부(101)는 상술한 식품의 포장이 개봉되었는지 판단하는 과정 및 개봉시간을 저장하고 이를 바탕으로 정보신호를 출력하는 과정을 사용자가 원할 때에만 수행할 수 있다.On the other hand, the control unit 101 may determine whether to open the package of food when receiving a user input. In other words, the controller 101 may perform the process of determining whether the above-mentioned food package is opened and storing the opening time and outputting an information signal based on this, only when the user desires.
반면, 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 식품의 포장에 표시된 정보를 판독할 때 상기 식품의 포장 개봉 여부를 판단할 수 있다. 사용자의 별도 입력이 없더라도 상기 제어부(101)는 상술한 식품의 포장이 개봉되었는지 판단하는 과정 및 개봉시간을 저장하고 이를 바탕으로 정보신호를 출력하는 과정을 자동적으로 수행할 수 있다. 이때, 상기 식품의 포장에 표시된 정보는 식품의 상표명이 될 수 있고, 바코드 또는 QR코드가 될 수도 있다.On the other hand, the control unit 101 may determine whether to open the package of food when reading the information displayed on the package of food distinguished from the first image received through the camera 103. Even if there is no separate input by the user, the controller 101 can automatically perform a process of determining whether the package of the food is opened and opening time and outputting an information signal based on the opening time. At this time, the information displayed on the packaging of the food may be a brand name of the food, may be a barcode or QR code.
이하에서는 상술한 착용형 디바이스(100)의 제어 방법에 대해 설명하도록 한다. 다만, 상기 착용형 디바이스(100)의 각 구성 및 역할은 이미 상세히 설명하였으므로, 반복적인 설명은 생략하도록 한다.Hereinafter, the control method of the wearable device 100 described above will be described. However, since each configuration and role of the wearable device 100 have already been described in detail, repeated description thereof will be omitted.
도 7은 본 명세서의 일 실시예에 따른 착용형 디바이스의 제어 방법을 도시한 순서도이다.7 is a flowchart illustrating a control method of a wearable device according to an exemplary embodiment of the present specification.
도 7을 참조하면, 먼저 단계 S300에서 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 사용자의 손 동작 구별한다. 그리고 상기 제어부(101)는 단계 S300을 마치고 단계 S310으로 이행한다.Referring to FIG. 7, first, in step S300, the controller 101 distinguishes a user's hand motion from a first image received through the camera 103. Then, the controller 101 finishes step S300 and proceeds to step S310.
단계 S310에서 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 포장된 식품을 구별한다. 그리고 상기 제어부(101)는 단계 S310을 마치고 단계 S320으로 이행한다.In step S310, the controller 101 distinguishes the packaged food from the first image received through the camera 103. The controller 101 completes step S310 and proceeds to step S320.
상기 카메라(103)를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하는 방법에 대해서는 도 3 및 도 4를 통해 이미 설명하였다. 또한, 상기 제1 이미지에 대해서는 이미 설명하였으므로 반복적인 설명은 생략한다. 한편, 상기 단계 S300 및 단계 S310은 상호간에 순서가 바뀌어도 무방하다. A method of distinguishing the user's hand motion and the packaged food from the first image received through the camera 103 has been described with reference to FIGS. 3 and 4. In addition, since the first image has already been described, repeated description thereof will be omitted. In the meantime, the order of steps S300 and S310 may be changed.
다음 단계 S320에서, 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라(103)를 통해 수신된 이미지에서 구별된 식품의 포장이 개봉되는지 여부를 판단한다.In a next step S320, the control unit 101 opens the package of food distinguished from the image received through the camera 103 by a user's hand gesture distinguished from the first image received through the camera 103. Determine whether or not.
본 명세서의 일 실시예에 따르면, 상기 제어부(101)는 이미지 비교를 통해서 식품의 포장이 개봉되었는지 여부를 판단한다.According to one embodiment of the present specification, the controller 101 determines whether the package of food is opened through image comparison.
본 명세서의 다른 실시예에 따르면, 상기 제어부(101)는 소리 비교를 통해서 식품의 포장이 개봉되었는지 여부를 판단한다.According to another embodiment of the present specification, the control unit 101 determines whether or not the package of food is opened through sound comparison.
상기 실시예에 대해서는 도 5를 참조하여 설명하였으므로, 반복적인 설명은 생략하도록 한다.Since the above embodiment has been described with reference to FIG. 5, repeated description thereof will be omitted.
상기 식품의 포장이 개봉되었다면(단계 S330의 YES), 상기 제어부(101)는 단계 S330으로 이행한다. 반면, 식품의 포장이 개봉되지 않았다면(단계 S330의 NO), 상기 제어부(101)는 단계 S300으로 이행하여, 단계 S300 내지 단계 S320을 반복적으로 수행한다. If the package of the food is opened (YES in step S330), the controller 101 proceeds to step S330. On the other hand, if the package of food is not opened (NO in step S330), the controller 101 proceeds to step S300, and repeatedly performs steps S300 to S320.
단계 S330에서, 상기 제어부(101)는 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 상기 메모리부(102)에 저장한다. 상기 제어부(101)는 본 단계를 마치고 단계 S340으로 이행한다. 상기 식품데이터 및 개봉시간에 대해서는 도 6을 참조하여 설명하였으므로, 반복적인 설명은 생략하도록 한다.In step S330, the controller 101 stores the data about the packaged food (hereinafter 'food data') and the data about the time when the package is opened (hereinafter 'opening time') of the memory unit 102. Store in The controller 101 finishes this step and proceeds to step S340. Since the food data and the opening time have been described with reference to FIG. 6, repeated description thereof will be omitted.
단계 340에서, 상기 제어부(101)는 상기 카메라(103)를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는지 여부를 판단한다. 상기 식품데이터가 일치한다면(단계 S350의 YES), 상기 제어부(101)는 단계 S360으로 이행한다. 반면, 식품데이터가 일치하지 않는다면(단계 S350의 NO), 상기 제어부(101)는 단계 S340으로 이행하여, 단계 S340 및 단계 S350을 반복적으로 수행한다. 한편, 상기 제2 이미지에 대한 설명은 반복되므로 생략하기로 한다.In operation 340, the controller 101 determines whether the food distinguished from the second image received through the camera 103 matches the food data. If the food data matches (YES in step S350), the control unit 101 proceeds to step S360. On the other hand, if the food data does not match (NO in step S350), the control unit 101 proceeds to step S340 to repeatedly perform steps S340 and S350. On the other hand, since the description of the second image is repeated, it will be omitted.
단계 S360에서, 상기 제어부(101)는 상기 식품데이터에 해당하는 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력한다.In step S360, the controller 101 outputs an information signal for providing a user with information related to the opening time corresponding to the food data.
본 명세서의 일 실시예에 따르면, 상기 정보신호는 상기 개봉시간으로부터 현재까지 경과한 시간 정보가 될 수 있다. According to one embodiment of the present specification, the information signal may be time information that has elapsed from the opening time to the present.
본 명세서의 다른 실시예에 따르면, 상기 메모리부(102)는 다양한 식품의 특성에 따른 경과기간을 포함하는 경과기간 데이터 테이블을 더 저장할 수 있다. 그리고 상기 제어부(101)는 상기 개봉시간으로부터 상기 경과기간 데이터 테이블에서 상기 판단된 식품의 특성을 맵핑하여 산출된 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 상기 정보신호로 출력할 수 있다.According to another exemplary embodiment of the present specification, the memory unit 102 may further store an elapsed period data table including an elapsed period according to various food characteristics. The controller 101 may output information related to the remaining time or the elapsed time of the elapsed time calculated by mapping the characteristics of the determined food in the elapsed time data table from the opening time as the information signal.
본 명세서의 또 다른 실시예에 따르면, 상기 메모리부(102)는 상기 포장이 개봉된 식품에 대해 사용자가 입력한 경과시간을 더 저장할 수 있다. 그리고 상기 제어부(101)는 상기 개봉시간으로부터 상기 사용자가 입력한 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 상기 정보신호로 출력할 수 있다.According to another embodiment of the present specification, the memory unit 102 may further store an elapsed time input by the user for the food in which the package is opened. The controller 101 may output information related to the remaining time or the elapsed time of the elapsed period input by the user from the opening time as the information signal.
본 명세서에서 사용되는 용어는 본 명세서에 개시된 실시예의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.The terminology used herein is a general term that has been widely used as far as possible while considering the functions of the embodiments disclosed herein, but may vary according to the intention or custom of a person skilled in the art or the emergence of a new technology. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the specification. Therefore, it is to be understood that the terminology used herein is to be defined based on the meaning of the term and the contents throughout the specification, rather than on the name of the term.
또한 본 명세서에 개시되어 있는 실시예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 실시예를 설명하기 위한 목적으로 예시된 것으로, 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 의해 권리의 범위가 한정되는 것으로 해석되어서는 아니된다.In addition, specific structural to functional descriptions of the embodiments disclosed herein are illustrated for the purpose of describing the embodiments only, and the embodiments may be embodied in various forms. It should not be construed as limiting the scope of rights.
본 명세서의 개념에 따른 실시예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 명세서의 개념에 따른 실시예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Embodiments according to the concepts of the present disclosure may be variously modified and may have various forms, and specific embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments in accordance with the concepts herein to the specific form disclosed, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present specification.
또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 "~부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding the other components unless otherwise stated. In addition, the term "~ part" described in the specification means a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
이상에서는 본 명세서를 구체적인 실시예를 통하여 설명하였으나, 당업자라면 본 명세서의 취지 및 범위를 벗어나지 않고 수정, 변경을 할 수 있다. 따라서 본 명세서의 상세한 설명 및 실시예로부터 본 명세서에 개시된 기술이 속하는 분야에 속한 사람이 용이하게 유추할 수 있는 것은 본 명세서의 권리범위에 속하는 것으로 해석된다.In the above description, the present specification has been described through specific embodiments, but those skilled in the art may make modifications and changes without departing from the spirit and scope of the present specification. Therefore, what can be easily inferred by the person belonging to the field to which the technology disclosed by this specification belongs from the detailed description and the Example of this specification is interpreted as belonging to the scope of the present specification.
또한, 본 명세서의 실시예를 설명함에 있어서 이해의 편의를 위해 종속적인 구성은 하나씩만 추가되는 예시를 중심으로 설명하였으나, 2이상의 종속적인 구성이 조합을 이루어 추가되는 실시예도 가능하다. 따라서, 본 명세서에 개시된 실시예에 본 명세서의 범위가 제한되지 않는다.In addition, in the description of the embodiments of the present disclosure, for convenience of understanding, the dependent configuration has been described based on the example of adding only one, but an embodiment in which two or more dependent configurations are added in combination is also possible. Accordingly, the scope of the present specification is not limited to the embodiments disclosed herein.
다양한 실시예가 본 명세서를 실시하기 위한 최적의 형태로 설명되었다.Various embodiments have been described in the best mode for carrying out the present specification.
본 명세서의 사상 및 범위에서 벗어나지 않는 한, 본 명세서에서 다양한 변형 및 변경이 가능함은 당업자에게 분명하다. 따라서 본 명세서는 첨부된 청구의 범위 및 그 동등 범위 내에서 제공된 본 명세서의 변형 및 변경을 포함하도록 되어 있다.It will be apparent to those skilled in the art that various modifications and variations can be made herein without departing from the spirit and scope of this specification. Accordingly, this specification is intended to cover the modifications and variations of this specification provided within the scope of the appended claims and their equivalents.
본 명세서는 전체적으로 또는 부분적으로 전자기기에 적용할 수 있다.This disclosure may apply to electronic devices in whole or in part.

Claims (20)

  1. 데이터를 저장하는 메모리부;A memory unit for storing data;
    이미지를 센싱하는 카메라; 및 A camera for sensing an image; And
    상기 카메라를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하고, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라를 통해 제1 수신된 이미지에서 구별된 식품의 포장이 개봉된 것으로 판단된 경우 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 상기 메모리부에 저장하고, 상기 식품데이터 및 개봉시간을 저장한 이후 상기 카메라를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는 경우 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력하는 제어부;을 포함하는 것을 특징으로 하는 착용형 디바이스.Distinguish the user's hand motion from the first image received through the camera and the packaged food, and in the first image received through the camera by the user's hand motion distinguished from the first image received through the camera. When it is determined that the package of the distinguished food is opened, data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time') are stored in the memory unit. Storing the food data and the opening time, and outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data. Wearable device comprising a control unit.
  2. 제1항에 있어서,The method of claim 1,
    상기 메모리부는, 다양한 식품의 포장 특성에 따라 포장이 개봉된 상태의 이미지 데이터(이하 '개봉이미지 데이터')를 포함하는 개봉이미지 데이터 테이블을 더 저장하고,The memory unit further stores an opening image data table including image data (hereinafter, referred to as 'opening image data') in a state in which a package is opened according to various packaging characteristics of food.
    상기 제어부는, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단하고, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 이미지와 상기 개봉이미지 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉이미지 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단하는 것을 특징으로 하는 착용형 디바이스.The control unit may determine packaging characteristics of the food distinguished from the first image received through the camera, and package the food from the package image of the food distinguished from the first image received through the camera and the unsealed image data table. Wearable device, characterized in that to determine whether the package of the food is opened by comparing the image image data mapped according to the characteristics.
  3. 제2항에 있어서,The method of claim 2,
    상기 개봉이미지 데이터는, 식품의 포장 중 일부에 크랙이 형성된 상태의 이미지인 것을 특징으로 하는 착용형 디바이스.The opening image data is a wearable device, characterized in that the image of a state in which a crack is formed on a portion of the package of food.
  4. 제2항에 있어서,The method of claim 2,
    상기 개봉이미지 데이터는, 식품의 포장에 포함된 뚜껑이 제거된 상태의 이미지인 것을 특징으로 하는 착용형 디바이스.The opening image data, wearable device, characterized in that the image of the lid is removed in the package of food.
  5. 제2항에 있어서,The method of claim 2,
    상기 개봉이미지 데이터는, 식품의 포장에 형성된 접합부분 중 일부가 떨어진 상태의 이미지인 것을 특징으로 하는 착용형 디바이스.The opening image data is a wearable device, characterized in that the image of a part of the bonding portion formed on the packaging of food apart.
  6. 제1항에 있어서,The method of claim 1,
    소리를 센싱하는 마이크로폰;을 더 포함하고,Further comprising a microphone for sensing the sound,
    상기 메모리부는, 다양한 식품의 포장 특성에 따라 포장이 개봉될 때 발생하는 소리 데이터(이하 '개봉소리 데이터')를 포함하는 개봉소리 데이터 테이블을 더 저장하고,The memory unit further stores an opening sound data table including sound data generated when the package is opened according to various packaging properties of the food (hereinafter, 'opening sound data'),
    상기 제어부는, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장 특성을 판단하고, 상기 마이크로폰을 통해 수신된 소리와 상기 개봉소리 데이터 테이블에서 식품의 포장 특성에 따라 맵핑된 개봉소리 데이터의 비교를 통해 식품의 포장이 개봉되었는지 여부를 판단하는 것을 특징으로 하는 착용형 디바이스.The control unit may determine packaging characteristics of the food distinguished from the first image received through the camera, and the sound of the opening sound data mapped according to the packaging characteristics of the food in the sound and the opening sound data table received through the microphone. A wearable device, characterized in that determining whether the package of food is opened by comparison.
  7. 제6항에 있어서,The method of claim 6,
    상기 개봉소리 데이터는, 식품의 포장 중 일부에 크랙이 형성될 때 발생하는 소리인 것을 특징으로 하는 착용형 디바이스.The opening sound data is a wearable device, characterized in that a sound generated when a crack is formed in a part of the package of food.
  8. 제6항에 있어서,The method of claim 6,
    상기 개봉소리 데이터는, 식품의 포장에 포함된 뚜껑이 제거될 때 발생하는 소리인 것을 특징으로 하는 착용형 디바이스.The opening sound data is a wearable device, characterized in that the sound generated when the lid included in the packaging of the food is removed.
  9. 제6항에 있어서,The method of claim 6,
    상기 개봉소리 데이터는, 식품의 포장에 형성된 접합부분 중 일부가 떨어질 때 발생하는 소리인 것을 특징으로 하는 착용형 디바이스.The opening sound data is a wearable device, characterized in that a sound generated when some of the joints formed on the packaging of the food falls.
  10. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 개봉시간으로부터 현재까지 경과한 시간 정보를 정보신호로 출력하는 것을 특징으로 하는 착용형 디바이스.The control unit is a wearable device, characterized in that for outputting time information elapsed from the opening time to the present as an information signal.
  11. 제1항에 있어서,The method of claim 1,
    상기 메모리부는, 다양한 식품의 특성에 따른 경과기간을 포함하는 경과기간 데이터 테이블을 더 저장하고,The memory unit further stores an elapsed period data table including an elapsed period according to various food characteristics,
    상기 제어부는, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 특성을 판단하고, 상기 개봉시간으로부터 상기 경과기간 데이터 테이블에서 상기 판단된 식품의 특성을 맵핑하여 산출된 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력하는 것을 특징으로 하는 착용형 디바이스.The controller may determine a characteristic of the food distinguished from the first image received through the camera, and the remaining time of the elapsed period calculated by mapping the characteristic of the determined food in the elapsed period data table from the opening time or Wearable device, characterized in that for outputting information related to the time of the transition as an information signal.
  12. 제1항에 있어서,The method of claim 1,
    상기 메모리부는, 상기 포장이 개봉된 식품에 대해 사용자가 입력한 경과시간을 더 저장하고,The memory unit further stores the elapsed time input by the user for the food, the package is opened,
    상기 제어부는, 상기 개봉시간으로부터 상기 사용자가 입력한 경과기간의 잔여시간 또는 도과시간과 관련된 정보를 정보신호로 출력하는 것을 특징으로 하는 착용형 디바이스.The control unit, wherein the wearable device, characterized in that for outputting information relating to the remaining time or the elapsed time of the elapsed period input by the user from the opening time as an information signal.
  13. 제1항에 있어서,The method of claim 1,
    시각적 신호 또는 청각적 신호를 출력하는 경고부;를 더 포함하고,And a warning unit for outputting a visual signal or an audio signal.
    상기 제어부는, 상기 정보신호를 상기 경고부에 출력하는 것을 특징으로 하는 착용형 디바이스.The control unit outputs the information signal to the warning unit.
  14. 제13항에 있어서,The method of claim 13,
    상기 경고부는, 영상을 출력하는 디스플레이 유닛이고,The warning unit is a display unit for outputting an image,
    상기 제어부는, 상기 메모리부에 저장된 개봉시간과 관련된 시간 정보를 상기 디스플레이 유닛에 표시되도록 상기 정보신호를 출력하는 것을 특징으로 하는 착용형 디바이스.The control unit, wherein the wearable device, characterized in that for outputting the information signal to display the time information associated with the opening time stored in the memory unit on the display unit.
  15. 제14항에 있어서,The method of claim 14,
    하나 이상의 가상 오브젝트를 하나 이상의 레이어에 배치한 후 상기 카메라에서 촬영된 현실 세계의 이미지 위에 중첩시키는 이미지 처리부;를 더 포함하고,And an image processor for disposing one or more virtual objects on one or more layers and superimposing them on the image of the real world captured by the camera.
    상기 제어부는, 상기 개봉시간과 관련된 시간 정보를 상기 가상 오브젝트로 표시되도록 제어하고, 상기 촬영된 현실 세계의 이미지 중 식품 이미지와 인접한 부분에 상기 가상 오브젝트가 위치하도록 제어하는 것을 특징으로 하는 착용형 디바이스.The controller may be configured to control the time information related to the opening time to be displayed as the virtual object, and to control the virtual object to be positioned in a portion adjacent to the food image of the photographed real world image. .
  16. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 사용자의 입력을 수신할 때 상기 식품의 포장 개봉 여부를 판단하는 것을 특징으로 하는 착용형 디바이스.The control unit, the wearable device, characterized in that for determining whether to open the food packaging when receiving a user input.
  17. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 카메라를 통해 수신된 제1 이미지에서 구별된 식품의 포장에 표시된 정보를 판독할 때 상기 식품의 포장 개봉 여부를 판단하는 것을 특징으로 하는 착용형 디바이스.The control unit, the wearable device, characterized in that for determining whether to open the package of food when reading the information displayed on the packaging of the food distinguished from the first image received through the camera.
  18. 제17항에 있어서,The method of claim 17,
    상기 식품의 포장에 표시된 정보는, 식품의 상표명인 것을 특징으로 하는 착용형 디바이스.Wearable device, characterized in that the information displayed on the packaging of the food is a brand name of the food.
  19. 제17항에 있어서,The method of claim 17,
    상기 식품의 포장에 표시된 정보는, 바코드 또는 QR코드인 것을 특징으로 하는 착용형 디바이스.Wearable device, characterized in that the information displayed on the packaging of the food is a barcode or QR code.
  20. (a) 카메라를 통해 수신된 제1 이미지에서 사용자의 손 동작 및 포장된 식품을 구별하고 단계;(a) distinguishing the user's hand gesture and the packaged food from the first image received through the camera;
    (b) 상기 카메라를 통해 수신된 제1 이미지에서 구별된 사용자의 손 동작에 의해 상기 카메라를 통해 수신된 이미지에서 구별된 식품의 포장이 개봉되는지 여부를 판단하는 단계;(b) determining whether the package of the food distinguished in the image received through the camera is opened by a user's hand gesture distinguished in the first image received through the camera;
    (c) 상기 식품의 포장이 개봉된 경우 상기 포장이 개봉된 식품에 대한 데이터(이하 '식품데이터') 및 상기 포장이 개봉된 시간에 대한 데이터(이하 '개봉시간')를 메모리부에 저장하는 단계; 및(c) when the package of the food is opened, storing data about the food in which the package is opened (hereinafter 'food data') and data on the time when the package is opened (hereinafter 'opening time') step; And
    (d) 상기 카메라를 통해 수신된 제2 이미지에서 구별된 식품이 상기 식품데이터와 일치하는 경우 상기 개봉시간과 관련된 정보를 사용자에게 제공하는 정보신호를 출력하는 단계;를 포함하는 것을 특징으로 하는 착용형 디바이스의 제어 방법.and (d) outputting an information signal for providing the user with information related to the opening time when the food distinguished from the second image received through the camera matches the food data. Type control method.
PCT/KR2014/006809 2014-07-25 2014-07-25 Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor WO2016013702A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/006809 WO2016013702A1 (en) 2014-07-25 2014-07-25 Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/006809 WO2016013702A1 (en) 2014-07-25 2014-07-25 Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor

Publications (1)

Publication Number Publication Date
WO2016013702A1 true WO2016013702A1 (en) 2016-01-28

Family

ID=55163222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/006809 WO2016013702A1 (en) 2014-07-25 2014-07-25 Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor

Country Status (1)

Country Link
WO (1) WO2016013702A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112413989A (en) * 2020-11-18 2021-02-26 青岛海尔科技有限公司 Object monitoring method, refrigerator, storage medium and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030071609A (en) * 2003-07-31 2003-09-03 류지원 Consumer self-management system for managing time of food ingestion after opening wrapping paper of food
KR20110007806A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Apparatus and method for detecting hand motion using a camera
KR101137718B1 (en) * 2010-10-13 2012-04-19 이재봉 Custody timely message sticker
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
JP2014125248A (en) * 2012-12-27 2014-07-07 Japan Tobacco Inc Inspection system of packaged body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030071609A (en) * 2003-07-31 2003-09-03 류지원 Consumer self-management system for managing time of food ingestion after opening wrapping paper of food
KR20110007806A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Apparatus and method for detecting hand motion using a camera
KR101137718B1 (en) * 2010-10-13 2012-04-19 이재봉 Custody timely message sticker
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
JP2014125248A (en) * 2012-12-27 2014-07-07 Japan Tobacco Inc Inspection system of packaged body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112413989A (en) * 2020-11-18 2021-02-26 青岛海尔科技有限公司 Object monitoring method, refrigerator, storage medium and electronic device

Similar Documents

Publication Publication Date Title
US20220229624A1 (en) Screen projection method, system, and related apparatus
US20230115868A1 (en) Displaying Interfaces in Different Display Areas Based on Activities
US11929626B2 (en) Wireless charging method and electronic device
US20220066725A1 (en) Message processing method, related apparatus, and system
AU2018443332B9 (en) Data transfer method and electronic device
WO2015111790A1 (en) Smart watch, display device and method of controlling therefor
WO2014181918A1 (en) Smart watch and method for controlling the same
TW201519613A (en) System with distributed process unit
US11848016B2 (en) Voice control command generation method and terminal
EP4095664A1 (en) Split-screen display method and electronic device
WO2016144095A1 (en) Method and apparatus for controlling a electronic device in a communication system
US20170264792A1 (en) Method of synchronizing data and electronic device and system for implementing the same
WO2022179275A1 (en) Terminal application control method, terminal device, and chip system
WO2016010200A1 (en) Wearable display device and control method thereof
US20230091160A1 (en) Identity Verification Method and Apparatus, and Electronic Device
WO2022042637A1 (en) Bluetooth-based data transmission method and related apparatus
CN108848333A (en) signal conversion module and mobile terminal
WO2016013702A1 (en) Wearable device for determining whether packaged food is opened and providing information related to time at which packaged food has been opened, and control method therefor
CN113852714A (en) Interaction method for electronic equipment and electronic equipment
WO2022062809A1 (en) Screen projection control method and apparatus
WO2022121988A1 (en) Display synchronization method, electronic device, and readable storage medium
WO2014182030A1 (en) Head-mounted display
WO2022033432A1 (en) Content recommendation method, electronic device and server
CN115686659A (en) Fast application processing method, electronic equipment and fast application system
JP2015135645A (en) Information display control device, information display control method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14897978

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14897978

Country of ref document: EP

Kind code of ref document: A1