WO2008032448A1 - Headgear type display - Google Patents

Headgear type display Download PDF

Info

Publication number
WO2008032448A1
WO2008032448A1 PCT/JP2007/000992 JP2007000992W WO2008032448A1 WO 2008032448 A1 WO2008032448 A1 WO 2008032448A1 JP 2007000992 W JP2007000992 W JP 2007000992W WO 2008032448 A1 WO2008032448 A1 WO 2008032448A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
time
image
head
unit
Prior art date
Application number
PCT/JP2007/000992
Other languages
English (en)
French (fr)
Inventor
Shigeru Kato
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006248330A external-priority patent/JP4992355B2/ja
Priority claimed from JP2006248329A external-priority patent/JP2008072354A/ja
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US12/310,719 priority Critical patent/US8907866B2/en
Publication of WO2008032448A1 publication Critical patent/WO2008032448A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a head-mounted display that includes a display unit and can be mounted on a user's head.
  • Patent Document 1 Japanese Patent Laid-Open No. 2 0 0 4-2 0 7 7 7 2
  • An object of the present invention is to realize a response to fatigue according to a user in a head mounted display that includes a display unit and can be mounted on the user's head. Means for solving the problem
  • the head-mounted display of the present invention includes a display unit that displays an image, a recognition unit that recognizes a use history of the display unit, and a time during which the user can observe the image based on the use history.
  • Another head-mounted display of the present invention includes a display unit that displays an image, a recognition unit that recognizes a use history of the display unit, and observation of the image by a user based on the use history.
  • a determination unit that determines a possible time; and a control unit that prompts the user to end observation of the image according to the observable time.
  • the recognition unit includes at least one of the number of uses, the use time in one use, the accumulated use time, and the adjustment time of the display unit before use. It may be recognized as a usage history.
  • Another head-mounted display includes: a display unit that displays an image; an acquisition unit that acquires user information; and a time period during which the user can observe the image is determined based on the user information. And a control unit that stops display of the image by the display unit according to the observable time.
  • Another head-mounted display includes a display unit that displays an image, an acquisition unit that acquires user information, and a time during which the user can observe the image based on the user information. And a control unit that prompts the user to end observation of the image according to the observable time.
  • the acquisition unit may acquire, as the user information, whether or not the user has used eyepiece optical equipment.
  • the user information acquisition unit may acquire at least one of the gender and age of the user as the user information.
  • control unit may correct the stop time determined according to the observable time when the display unit stops displaying the image.
  • control unit may correct the stop time based on information on content data of the image to be displayed by the display unit.
  • control unit may detect a scene change in the content data and correct the stop time based on a scene change position.
  • control unit may correct the stop time based on control information of the content data attached to the content data.
  • control unit may correct the stop time based on the user instruction.
  • the reception unit may receive the user instruction within a predetermined time including at least one of before and after the stop time.
  • a selection unit that selects whether or not to perform control by the control unit based on an instruction from the user may be further provided.
  • a head-mounted display that includes a display unit and can be mounted on the user's head, it is possible to realize a response to fatigue according to the user.
  • FIG. 1 is an external view of a head mounted display 100.
  • FIG. 2 is a diagram showing a relationship between an image display element included in the display unit 1 1 2 and a user's eye.
  • FIG. 3 is a side view of the head mounted display 100 viewed from the direction of arrow S in FIG.
  • FIG. 4 is a functional block diagram of a head-mounted display 100.
  • FIG. 5 is a flowchart showing the operation of the control unit 1 1 7 during content data playback.
  • FIG. 6 is a diagram for explaining determination of viewable time A.
  • FIG. 7 is a diagram showing a display example on the display unit 1 1 2.
  • FIG. 8 is a flowchart showing the operation of the control unit 1 1 7 during content data playback.
  • FIG. 9 is a diagram showing a display example on the display unit 1 1 2.
  • FIG. 10 is a diagram for explaining user information.
  • FIG. 11 is a flowchart for explaining an application example of the present invention.
  • FIG. 12 is another flowchart for explaining an application example of the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is an external view of a head mounted display 100.
  • the head-mounted display 100 has a speaker 1 1 1, a connecting part 1 1 1 a, a display part 1 1 2, a support arm 1 1 2 a, and an operating part 1 1 3. .
  • the spin force 1 1 1 is attached to both ears of the user, and the force 1 1 1 is held in both ears of the user by the elastic force of the connecting portion 1 1 1 a.
  • the display unit 1 1 2 includes an image display element (not shown) such as a transmissive LCD or an organic EL display and an optical system (not shown) that magnifies and projects the image of the image display element onto the user's eyes.
  • an image display element such as a reflective LCD or a self-luminous element arranged two-dimensionally may be used.
  • the display unit 1 1 2 is formed integrally with the support arm 1 1 2 a.
  • the support arm 1 1 2 a slides relative to the speaker 1 1 1 in the direction of arrow a in FIG.
  • the display unit 1 1 2 and the support arm 1 1 2 a are arranged at a position indicated by a solid line in FIG.
  • the display unit 1 1 2 and the support arm 1 1 2 a are rotated around the axis b except when observing an image, and the display unit 1 1 2 is arranged at the top of the user's head (see FIG. Position shown by dotted line 1).
  • the display unit 1 1 2 is placed at the top of the user's head when not observing the image, and does not block the view of the user.
  • the support arm 1 1 2 a can be rotated in the direction of the arrow c in FIG. 1 with respect to the speaker 11 1 1 about the axis b in FIG. 1 by a drive unit (not shown). Therefore, the position of the display unit 1 1 2 can be correctly adjusted in front of the user's eyes by the slide in the direction of the arrow a and the rotation in the direction of the arrow c.
  • the display unit 1 1 2 includes a slide member 1 1 2 b and a spherical bearing 1 1 2 c between the support arm 1 1 2 a and a more detailed description based on a user operation. The position and tilt can be adjusted.
  • FIG. 2 shows the relationship between the image display element of the display unit 1 1 2 and the user's eyes.
  • Display 1 1 2 is on the side of Figure 2A Slide the support arm 1 1 2 a in the direction of arrow a as shown in the plan view to slide in the direction of arrow a, and the front and rear position with reference to the user's eyes can be adjusted. It is.
  • the display unit 1 1 2 can be rotated in the direction of the arrow e by the spherical bearing 1 1 2 c, and the direction of the arrow f by the spherical bearing 1 1 2 c as shown in the top view of FIG. 2B. Can also be rotated. Therefore, the tilt based on the user's eyes can be adjusted.
  • the display unit 1 1 2 can be slid in the direction of the arrow g by the slide member 1 1 2 b, and the right and left positions with respect to the user's eyes Is possible.
  • the display unit 1 1 2 can be rotated in the direction of the arrow i by the spherical bearing 1 1 2 c. Therefore, the tilt in the plane perpendicular to the optical axis of the user's eye can be adjusted.
  • the operation unit 1 1 3 includes a user's temporal region, right ear speaker 1
  • FIG. 3 is a side view of the head mounted display 100 viewed from the direction of the arrow S in FIG.
  • the operation unit 1 1 3 includes a power button 1 1 3 a, a cross button 1 1 3 b, and a menu button 1 1 3 c.
  • the operation unit 113 may be provided outside the head-mounted display 100, like a remote controller. In this case, the remote controller and the head mounted display 100 may be connected wirelessly or may be connected by wire.
  • FIG. 4 is a functional block diagram of the head-mounted display 100.
  • the head-mounted display 100 controls display on the display unit 1 1 2 in addition to the speaker 1 1 1, display unit 1 1 2, and operation unit 1 1 3.
  • Display control unit 1 1 4 Connection unit 1 5 for connecting to external devices such as computers via cables, etc.Image information to be displayed on display unit 1 1 2, voice information to be output to speaker 1 1 1, etc.
  • Storage unit 1 1 6 for storing the control unit, and control unit 1 1 7 for controlling each unit.
  • image information, audio information, image information with audio, etc. are collectively referred to as “content data”.
  • the control unit 1 1 7 includes display control unit 1 1 4, connection unit 1 1 5, and storage unit 1 1 6. And connected to each other.
  • the output of the display control unit 1 1 4 is connected to the display unit 1 1 2.
  • the control unit 1 1 7 detects the state of the operation unit 1 1 3, and according to a user instruction given via the operation unit 1 1 3, plays back sound to the speaker 1 1 1 or displays the display unit 1 1 2. Displays an image.
  • the control unit 1 17 has a timer (not shown) inside. Furthermore, the control unit 1 17 also records and recognizes the use history that is a feature of the present invention.
  • the usage history is a usage history related to image display using the display unit 1 1 2.
  • the usage history includes the number of uses, the usage time in one usage, the cumulative usage time, the time required for adjustment of the display 1 1 2 before use, and the like.
  • the control unit 1 17 detects the time when the adjustment of each part of the display unit 1 1 2 described above (see FIG. 1 and FIG. 2) is performed, and the time required for the adjustment. Measure and record. The control unit 1 17 updates the usage history each time the head mounted display 100 is used by the user.
  • control unit 1 17 during content data reproduction in the head-mounted display 100 having the configuration described above will be described with reference to the flowchart of FIG.
  • step S 1 the control unit 1 17 determines whether or not image reproduction has been instructed via the operation unit 1 13. When the image reproduction is not instructed, the control unit 1 17 performs the same processing as that of a known technique according to the instruction. For example, when audio playback is instructed, audio playback is performed in the same manner as known technology. When the image reproduction is instructed, the control unit 1 1 7 proceeds to step S 2.
  • step S2 the control unit 1 17 reads the usage history.
  • the number of times of use is read will be described as an example.
  • control unit 1 1 7 determines viewable time A.
  • the control unit 1 1 7 determines the viewable time A based on the number of uses recognized in step S 2.
  • Figure 6A shows an example of the relationship between the number of uses and viewable time A. As shown in Fig. 6A, the number of uses and the viewable time A have a positive correlation. Messenger As the number of uses increases, the viewable time A becomes longer. However, in consideration of user fatigue, it is preferable to set an upper limit (N max) for the viewable time A.
  • the viewable time A may be determined in consideration of the information of the content data to be reproduced. For example, the viewable time A may be determined based on control information attached to the content data. If chapter information exists as control information attached to the container, the viewable time A is determined at the time when the viewable time elapses from the start of playback in accordance with the change of the chapter near that point. good. If playback is stopped after determining the viewable time A regardless of the content of the content data, the user may feel uncomfortable. By determining the viewable time A in this way, playback can be stopped without making the user feel uncomfortable.
  • Figure 6B shows an example of chapter information. When the content data to be played is composed of multiple chapters as shown in Fig.
  • the viewable time A is corrected according to the chapter configuration. For example, if the viewable time A determined according to the relationship in Fig. 6A has elapsed from the start of playback, and is in the middle of chapter X in Fig. 6B, it will be matched with the start point or end point of chapter X. Determine the viewable time A. If the viewable time A determined according to the relationship in Fig. 6A is before the center point of chapter X, the viewable time A is determined according to the start point of chapter X, and Fig. 6A If the viewable time A determined according to the relationship is after the center point of chapter X, the viewable time A may be determined in accordance with the end point of chapter X.
  • a viewable time A may be determined based on a scene change position by detecting a scene change in the content data to be reproduced. It is advisable to detect scene changes in the content data based on changes such as brightness, and to correct the viewable time A determined according to the relationship in Fig. 6A according to the changes in the scene changes. By determining the viewable time A in this way, the playback can be stopped without making the user feel uncomfortable, as in the example of the chapter information described above.
  • the control unit 1 17 starts image reproduction via the display control unit 1 14.
  • the control unit 1 17 starts to reproduce audio via the speaker 1 11.
  • step S 5 control unit 1 1 7 starts the timer in control unit 1 1 7.
  • T 1 is a predetermined time (for example, “5 minutes”).
  • step S7 the control unit 1 17 issues a warning.
  • the warning is realized, for example, by displaying a message on the display unit 1 1 2.
  • Figure 7A shows a warning display example.
  • an image (i 1) indicating a warning is superimposed on the image being displayed.
  • the example in Fig. 7A is an example, and an image that prompts the user to stop observing the image (for example, "Stop observing images that are predicted to be fatigued") may be displayed. .
  • step S 7 is performed prior to the viewable time A determined in step S 3 by a time T 1.
  • sound information via the speaker 1 1 1 may be used for this warning.
  • step S9 the control unit 1 17 ends the reproduction of the image via the display control unit 1 14.
  • the control unit 1 17 also ends the audio reproduction via the speaker 1 11.
  • an image (i 2) for notifying the user that the reproduction of the image is terminated is displayed superimposed on the displayed image. May be. Also, it is possible to confirm whether or not to end the image playback. It is also possible to use a configuration in which the image playback is terminated after the user is authenticated and the user is authenticated.
  • the images (i 1, i 2, i 3 to be described later) are recorded in advance in a memory (not shown) in the control unit 1 17.
  • the display unit for displaying an image is provided, the use history of the display unit is recognized, and the image of the image by the user is based on the recognized use history. Determine the observable time. Then, the display unit stops displaying the image according to the determined observable time. Accordingly, by determining the observable time according to the usage history of the head-mounted display for each user and stopping the display of the image, it is possible to realize a response to fatigue according to the user.
  • the user is prompted to end the observation of the image according to the determined observable time. Accordingly, it is possible to realize the response to fatigue according to the user by deciding the observable time according to the usage history of the head-mounted display for each user and prompting the end of the image observation.
  • the viewable time according to the user can be determined.
  • the stop time determined according to the observable time is corrected. Therefore, playback can be automatically stopped at an appropriate timing without making the user feel uncomfortable.
  • the stop time is corrected based on the content data information of the image to be displayed by the display unit. Therefore, playback can be automatically stopped according to the contents of the content data.
  • a scene change in the content data is detected, and the stop time is corrected based on the scene change position. Therefore, the playback can be automatically stopped in accordance with the scene change of the content data.
  • content data incidental to content data is stored. -Correct the stop time based on the control information. Therefore, playback can be automatically stopped according to the content data.
  • the force used as an example of the use history is described as one of the use time, the accumulated use time, and the adjustment time of the display unit before use.
  • the viewable time may be determined based on this. If the usage time for a single use is short, it may be assumed that the user is trying to use it appropriately and the viewable time may be lengthened. In addition, the longer the cumulative usage time, the more likely it is that the user is accustomed to using the head-mounted display. If the usage time for a single use is short, it is presumed that the user is likely to get tired, and it is preferable to set the viewable time short even if the cumulative usage time is long.
  • the viewable time may be determined by combining two or more factors among the number of times of use, the time of use in one use, the cumulative time of use, and the time required for adjusting the display before use. In this case, it is sufficient to prioritize multiple factors or determine the viewable time by weighting them.
  • step S9 the example in which the reproduction of the image is stopped in step S9 after the warning is given in step S7 in Fig. 5 is described.
  • the warning may be configured, A configuration may be adopted in which reproduction of an image is stopped without warning.
  • the head mounted display of the second embodiment has the same configuration as the head mounted display 100 of the first embodiment. Accordingly, the illustration and description of the configuration of the head-mounted display of the second embodiment will be omitted, and description will be made using the same reference numerals as those of FIGS. 1 and 3 of the first embodiment.
  • control unit 1 1 7 determines whether or not image reproduction has been instructed via operation unit 1 1 3.
  • the control unit 1 17 performs the same process as that of the known technique according to the instruction. For example, when audio playback is instructed, audio playback is performed in the same manner as in the known technology.
  • the control unit 1 17 proceeds to step S 2 2.
  • control unit 1 1 7 acquires user information.
  • the control unit 1 17 displays the images shown in FIG. 9A and FIG. 9B on the display unit 1 1 2 via the display control unit 1 1 4 and prompts the user information to be input. This image is recorded in advance in a memory (not shown) in the control unit 1 17.
  • the user operates the operation unit 1 1 3 while viewing the display unit 1 1 2 to input user information. Note that user information may be input (acquired) instead of at this timing.
  • control unit 1 1 7 determines viewable time A.
  • the control unit 1 17 determines the viewable time A based on the user information acquired in step S 2 2.
  • the control unit 1 17 has previously recorded an evaluation value corresponding to the user information in a memory (not shown) in the control unit 1 17.
  • Figure 9C shows an example of evaluation values (F 1 to F 7). Then, the control unit 1 17 determines the viewable time A based on this evaluation value. It should be noted that the more experienced the eyepiece optical device is, the more likely it is that the user will be accustomed to using the head-mounted display. Therefore, prepare an evaluation value that determines the viewable time A longer. In addition, since it can be estimated that the eye adjustment function decreases as the age increases, an evaluation value for determining the viewable time A is prepared. As in the first embodiment, it is preferable to set an upper limit for the viewable time A in consideration of user fatigue.
  • the viewable time A is determined in consideration of the content data playback start time and the content data to be played back, as in the first embodiment. Also good. Information on the content data to be played By taking the viewable time A into account, the playback can be stopped without causing the user to feel uncomfortable as in the first embodiment.
  • step S 24 the control unit 1 1 7 starts image reproduction via the display control unit 1 1 4.
  • the control unit 1 17 starts to reproduce audio via the speaker 1 11.
  • step S 25 control unit 1 1 7 starts the timer in control unit 1 1 7.
  • step S 27 the control unit 1 17 starts displaying the remaining time until the viewable time A is reached.
  • the control unit 1 17 displays an image (i 3) indicating the remaining time superimposed on the image being displayed. Then change the display as the remaining time decreases. Note that the remaining time display is performed prior to the viewable time A determined in step S 23 by a time T 2. Also, instead of displaying the remaining time, audio information via the speaker 1 1 1 may be used. In addition to the remaining time display, voice notification may be performed.
  • the image (i 3, i 4, i 5 to be described later) is recorded in advance in a memory (not shown) in the control unit 1 17.
  • step S28 the control unit 1 17 starts accepting with the extension button.
  • the extension button is a button for accepting a user instruction to extend the viewable time A determined in step S23. If the user feels that the remaining time presented in step S 27 is not desirable, the user can extend the viewable time A by a certain time (for example, “10 minutes”) by pressing this extension button. can do.
  • the extended button is the central button of the cross button 1 1 3 b of the operation unit 1 1 3. Other members as extension buttons Alternatively, a dedicated extension button may be provided in the operation unit 1 1 3.
  • the start of the reception by the extension button is performed by the time T 2 before the viewable time A determined in step S 23.
  • an image (i 4) notifying the user that reception by extension button is started is superimposed on the displayed image. May be.
  • step S29 the control unit 1 17 determines whether or not the extension button has been pressed. If the control unit 1 17 determines that the extension button has been pressed, the control unit 1 17 proceeds to step S 30. On the other hand, if it is determined that the extension button is not pressed even after waiting for a predetermined time, the control unit 1 17 proceeds to step S 3 1 described later.
  • control unit 1 17 corrects the timer or corrects viewable time A.
  • the control unit 1 1 7 subtracts the time (for example, “1 0 minutes”, etc.) previously associated with one press of the extension button from the timer or adds it to the viewable time A, Correct viewable time A.
  • step S 3 2 the control unit 1 1 7 ends the reproduction of the image via the display control unit 1 1 4.
  • the control unit 1 17 also ends the sound reproduction through the speaker 11 1 1.
  • an image (i 5) for notifying the user that the image playback is ended is displayed superimposed on the displayed image. Also good. Whether or not to end the image playback It may be configured to confirm with the user and terminate the image reproduction after the user is authenticated.
  • the display unit for displaying an image is provided, user information is acquired, and based on the acquired user information, the time that the user can observe the image is determined. decide. Then, display of the image by the display unit is stopped according to the determined observable time. Therefore, by deciding the observable time according to the user information for each user and stopping the image display, it is possible to realize the response to fatigue according to the user.
  • the user is prompted to end the image observation according to the determined observable time. Therefore, by determining the observable time according to the user information for each user and prompting the end of the image observation, it is possible to realize a response to fatigue according to the user.
  • the presence / absence of the user's experience in using eyepiece optical equipment is acquired as user information. Therefore, it is possible to determine an appropriate viewable time according to the user.
  • At least one of the user's gender and age is acquired as user information. Therefore, it is possible to determine an appropriate viewable time according to the user.
  • the stop time determined according to the observable time is corrected. Therefore, playback can be automatically stopped at an appropriate timing without making the user feel uncomfortable.
  • a reception unit that receives a user instruction to extend the stop time is provided, and the stop time is corrected based on the user instruction. Therefore, it is possible to extend the image playback until the user does not feel uncomfortable according to the content of the content data.
  • eyepiece optical devices head-mounted display, camera, binoculars, microscope, etc.
  • eyepiece optical devices head-mounted display, camera, binoculars, microscope, etc.
  • the usage mode is whether it is used in a calm environment such as a residence, or when the user is away from home, and the eye on the opposite side of the display unit 1 1 2 during use (right eye in this embodiment) If user information such as whether or not to use is closed is used as a user information, it is possible to realize a better response to fatigue according to the user.
  • step S 27 in FIG. 8 an example is shown in which the remaining time display is started in step S 27 in FIG. 8 and the image reproduction is stopped in step S 32, but only the remaining time display is performed.
  • a configuration may be used, or a playback may be stopped without displaying the remaining time.
  • the extension of the viewable time is received by the extension button from the time T2 before the viewable time to the end of the image playback.
  • it may be configured to accept an extension of the viewable time.
  • the image reproduction has ended at a timing unfavorable for the user. Even in this case, it is possible to extend the image playback until the user feels no sense of incongruity according to the content data.
  • an extension of viewable time is accepted even after the end of image playback, it is better to display a still image as if it were paused at the end of the image playback described in step S 32.
  • a predetermined time for example, “3 minutes”. It is preferable that the extension of the viewable time only be accepted.
  • a viewable time is always determined at the time of image reproduction and warning or image reproduction is automatically stopped has been described, but whether or not such processing is performed is determined. It is preferable that these can be selected by the user. Further, the method for determining the viewable time may be selectable by the user.
  • the image reproduction is finished according to the observable time and the sound reproduction is performed.
  • the processes described in the first embodiment and the second embodiment may be executed in combination.
  • the viewable time may be determined by combining the usage history described in the first embodiment and the user information described in the second embodiment.
  • the invention described in the first embodiment and the second embodiment can be similarly applied to the case where the reproduction of the content data is automatically stopped at a predetermined stop time.
  • Fig. 1 1 shows the control unit for stopping image playback as the remaining battery level decreases.
  • step S 4 1 the control unit 1 1 7 determines whether or not image reproduction is instructed via the operation unit 1 1 3.
  • the control unit 1 17 performs the same process as that of the known technique according to the instruction. For example, when audio playback is instructed, audio playback is performed in the same manner as in the known technology.
  • the control unit 1 17 proceeds to step S 4 2.
  • step S 4 2 the control unit 1 1 7 passes through the display control unit 1 1 4. Start playing the image.
  • the control unit 1 17 starts to reproduce audio via the speaker 1 11.
  • step S43 the control unit 1 17 determines whether or not the battery remaining amount ⁇ E.
  • the remaining battery level E is a predetermined threshold value. For example, it is necessary to prompt the user to stop the image playback (for example, “the image can be played for another hour”). A value indicating the quantity. If it is determined that the remaining battery amount ⁇ E, the control unit 1 17 proceeds to step S 44, and if it is determined that the remaining battery amount ⁇ E, the control unit 1 7 proceeds to step S 45.
  • step S 44 the control unit 1 17 estimates the playback driveable time based on the remaining battery level, and determines the viewable time A within a range that does not exceed the playback driveable time.
  • step S 45 the control unit 1 17 determines the viewable time A according to the remaining battery level, as in the first embodiment.
  • control section 1 17 corrects viewable time A determined in step S 44 or step S 45.
  • the control unit 1 17 corrects the viewable time A in consideration of the information of the content data to be reproduced. For example, the viewable time A may be corrected based on the content data control information attached to the content data, or a scene change in the content data to be played back can be detected and viewed based on the scene change position. Time A may be determined.
  • step S 47 to step S 51 the control unit 1 17 performs the same processing as in step S 5 to step S 9 (FIG. 5) of the first embodiment.
  • FIG. 12 is a flowchart showing the operation of the control unit 1 17 when the image reproduction is stopped in accordance with the time B preset by the user.
  • step S 61 the control unit 1 17 determines whether or not image reproduction has been instructed via the operation unit 1 1 3.
  • the control unit 1 17 performs the same processing as that of a known technique according to the instruction. For example, when audio playback is instructed, audio playback is performed in the same manner as known technology.
  • the control unit 1 17 proceeds to step S 6 2.
  • step S 62 the control unit 1 1 7 is the control unit 1 1 7 is the display control unit.
  • control unit 1 1 7 starts the timer in control unit 1 1 7.
  • the time B set in advance by the user may be corrected in consideration of the information of the content data to be reproduced.
  • the playback can be stopped without making the user feel uncomfortable.
  • control unit 1 17 performs the same processing as steps S 26 to S 3 2 (FIG. 8) of the second embodiment.
  • the present invention can be similarly applied to a head-mounted display that automatically controls the reproduction of content data by program control in accordance with the user's behavior pattern and the like.
  • the usage history user information is recorded for each user. What is necessary is just to be the structure managed.
  • the start time of the timer is observable time (set by the user) (Time)
  • the timer count may be reduced as time passes, and the image may be stopped when the timer reaches 0.
  • a known eye fatigue recovery mode may be mounted on the head-mounted display 100 described in the first and second embodiments.
  • the eye fatigue recovery mode is an image suitable for eye fatigue recovery displayed on the display unit 1 1 2 or by moving the position of the display unit 1 1 2 observed by the user.
  • the user's eye fatigue is recovered by relaxing or tensioning the body muscles. Then, it may be configured such that the eye fatigue recovery mode is automatically entered after the reproduction of the image is finished according to the observable time.
  • a known eye fatigue detection mechanism may be mounted on the head-mounted display 100 described in the first and second embodiments.
  • the eye fatigue detection mechanism is a mechanism that detects the degree of eye fatigue of the user based on, for example, the movement of the user's eyelids, the amount of tears, the interference image generated in the tear film, the degree of redness of the eyes, and the like. Then, based on the detection result by the eye fatigue detection mechanism, the above-described observable time may be corrected.
  • the reproduction of the image is terminated according to the observable time, the reproduction of the image is prohibited for a predetermined time (for example, 2 hours) thereafter. Also good.
  • the above-described eye fatigue detection mechanism may be configured to permit image reproduction again after reaching a state where it can be estimated that the user's eye fatigue has recovered to some extent.
  • the present invention can be similarly applied to a head-mounted display other than the configuration described in the first embodiment and the second embodiment.
  • the present invention is similarly applied to a head-mounted display in which the display unit is slid in and out instead of the head-mounted display having an overhead arm shape that flips the display unit in the direction of the top of the head. Can do.
  • the present invention can be similarly applied to a head-mounted display configured to acquire content data to be played back from an external playback device (such as a DVD player).
  • the head-mounted display has been described as an example.
  • the present invention can be similarly applied to a playback device other than the head-mounted display. it can.
  • the present invention can be similarly applied to a mobile phone, a portable playback device, a game device, etc. having an image playback function and an audio playback function.

Description

明 細 書
頭部装着型ディスプレイ
技術分野
[0001 ] 本発明は、 表示部を備え、 ユーザの頭部に装着可能な頭部装着型ディスプ レイに関する。
背景技術
[0002] 近年、 表示素子の小型化などにより、 ユーザの頭部に装着可能な頭部装着 型ディスプレイなどの表示装置が考えられている。 このような表示装置は、 使用に慣れないユーザには疲労が生じやすい。 また、 使用に慣れないユーザ は、 疲労していることを自覚できない場合がある。 そこで、 特許文献 1の発 明では、 予め定めた所定の時間で、 画像の表示を中断することで、 このよう な問題を解決している。
特許文献 1 :特開 2 0 0 4 - 2 0 7 7 7 2号公報
発明の開示
発明が解決しょうとする課題
[0003] しかし、 使用に慣れているか否かは、 ユーザの使用経験などによって異な る。 また、 疲れやすさもユーザ個々の眼機能などによって大きく異なる。 そ のため、 特許文献 1のように所定の時間で画像の表示を中断すると、 まだ疲 労していないユーザに対する画像の表示を中断してしまう場合や、 すでに疲 労しているユーザに対して画像の表示を継続してしまう場合がある。
[0004] 本発明は、 表示部を備え、 ユーザの頭部に装着可能な頭部装着型ディスプ レイにおいて、 ユーザに応じた疲労への対応を実現することを目的とする。 課題を解決するための手段
[0005] 本発明の頭部装着型ディスプレイは、 画像を表示する表示部と、 前記表示 部の使用履歴を認識する認識部と、 前記使用履歴に基づいて、 ユーザによる 前記画像の観察可能時間を決定する決定部と、 前記観察可能時間に応じて、 前記表示部による前記画像の表示を停止する制御部とを備える。 [0006] 本発明の別の頭部装着型ディスプレイは、 画像を表示する表示部と、 前記 表示部の使用履歴を認識する認識部と、 前記使用履歴に基づいて、 ユーザに よる前記画像の観察可能時間を決定する決定部と、 前記観察可能時間に応じ て、 前記ユーザに対して、 前記画像の観察終了を促す制御部とを備える。
[0007] なお、 好ましくは、 前記認識部は、 使用回数と、 1回の使用における使用 時間と、 累積使用時間と、 使用前の前記表示部の調整所要時間との少なくと も 1つを前記使用履歴として認識しても良い。
[0008] 本発明の別の頭部装着型ディスプレイは、 画像を表示する表示部と、 ユー ザ情報を取得する取得部と、 前記ユーザ情報に基づいて、 ユーザによる前記 画像の観察可能時間を決定する決定部と、 前記観察可能時間に応じて、 前記 表示部による前記画像の表示を停止する制御部とを備える。
[0009] 本発明の別の頭部装着型ディスプレイは、 画像を表示する表示部と、 ユー ザ情報を取得する取得部と、 前記ユーザ情報に基づいて、 ユーザによる前記 画像の観察可能時間を決定する決定部と、 前記観察可能時間に応じて、 前記 ユーザに対して、 前記画像の観察終了を促す制御部とを備える。
[0010] なお、 好ましくは、 前記取得部は、 前記ユーザの接眼光学機器使用経験の 有無を前記ユーザ情報として取得しても良い。
[001 1 ] また、 好ましくは、 前記ユーザ情報取得部は、 前記ユーザの性別と年齢と の少なくとも一方を前記ユーザ情報として取得しても良い。
[0012] また、 好ましくは、 前記制御部は、 前記表示部による前記画像の表示を停 止する際に、 前記観察可能時間に応じて決定した停止時間を修正しても良い
[0013] また、 好ましくは、 前記制御部は、 前記表示部による表示対象の前記画像 のコンテンツデータの情報に基づいて、 前記停止時間を修正しても良い。
[0014] また、 好ましくは、 前記制御部は、 前記コンテンツデータのシーン変化を 検出し、 シーンの変化位置に基づいて前記停止時間を修正しても良い。
[0015] また、 好ましくは、 前記制御部は、 前記コンテンツデータに付帯する前記 コンテンッデータの制御情報に基づいて、 前記停止時間を修正しても良い。 [001 6] また、 好ましくは、 前記停止時間を延長するユーザ指示を受け付ける受付 部を備え、 前記制御部は、 前記ユーザ指示に基づいて前記停止時間を修正し ても良い。
[001 7] また、 好ましくは、 前記受付部は、 前記停止時間の前と後との少なくとも —方を含む所定の時間内において前記ユーザ指示を受け付けても良い。
[0018] また、 好ましくは、 前記ユーザの指示に基づいて、 前記制御部による制御 を行うか否かを選択する選択部をさらに備えても良い。
発明の効果
[001 9] 本発明によれば、 表示部を備え、 ユーザの頭部に装着可能な頭部装着型デ イスプレイにおいて、 ユーザに応じた疲労への対応を実現することができる 図面の簡単な説明
[0020] [図 1 ]頭部装着型ディスプレイ 1 0 0の外観図である。
[図 2]表示部 1 1 2が有する画像表示素子と、 ユーザの眼との関係について示 す図である。
[図 3]頭部装着型ディスプレイ 1 0 0を図 1の矢印 Sの方から見た側面図であ る。
[図 4]頭部装着型ディスプレイ 1 0 0の機能ブロック図である。
[図 5]コンテンツデータ再生時の制御部 1 1 7の動作を示すフローチャートで
[図 6]視聴可能時間 Aの決定について説明する図である。
[図 7]表示部 1 1 2への表示例を示す図である。
[図 8]コンテンツデータ再生時の制御部 1 1 7の動作を示すフローチャートで
[図 9]表示部 1 1 2への表示例を示す図である。
[図 10]ユーザ情報について説明する図である。
[図 1 1 ]本発明の応用例について説明するフローチヤ一トである。
[図 12]本発明の応用例について説明する別のフローチヤ一トである。 発明を実施するための最良の形態
[0021 ] <第 1実施形態 >
以下、 図面に基づいて本発明の第 1実施形態について説明する。
[0022] 図 1は、 頭部装着型ディスプレイ 1 0 0の外観図である。 頭部装着型ディ スプレイ 1 0 0は、 図 1に示すように、 スピーカ 1 1 1、 連結部 1 1 1 a、 表示部 1 1 2、 支持アーム 1 1 2 a、 操作部 1 1 3を備える。 装着時にスピ —力 1 1 1はユーザの両耳に装着され、 連結部 1 1 1 aの弾性力により、 ス ピー力 1 1 1がユーザの両耳に保持される。 表示部 1 1 2は、 透過型 L C D や有機 E Lディスプレイなどの不図示の画像表示素子と画像表示素子の映像 を拡大してユーザの眼に投影する不図示の光学系とを備える。 なお、 画像表 示素子として、 反射型 L C Dや、 自発光型の素子を 2次元的に配列したもの などの画像表示素子を用いても良い。
[0023] 表示部 1 1 2は、 支持アーム 1 1 2 aと一体となって形成される。 支持ァ —ム 1 1 2 aは、 スピーカ 1 1 1に対して図 1の矢印 aの方向にスライ ドし て移動する。 表示部 1 1 2および支持アーム 1 1 2 aは、 画像観察時には、 図 1の実線で示す位置に配置される。 また、 表示部 1 1 2および支持アーム 1 1 2 aは、 画像観察時以外の場合には、 軸 bを中心に回動され、 表示部 1 1 2がユーザの頭頂部に配置される (図 1の点線で示す位置) 。 この結果、 表示部 1 1 2は、 画像観察時以外の場合にはユーザの頭頂部に配置され、 ュ —ザの視界を遮らない。 また、 支持アーム 1 1 2 aは、 不図示の駆動部によ り図 1の軸 bを中心として、 スピーカ 1 1 1に対して図 1の矢印 cの方向に 回転可能である。 したがって、 前述した矢印 aの方向のスライ ドと、 矢印 c の方向の回転とにより、 表示部 1 1 2の位置をユーザの眼前に正しく調整す ることができる。
[0024] また、 表示部 1 1 2は、 支持アーム 1 1 2 aとの間にスライ ド部材 1 1 2 bと球面軸受け 1 1 2 cとを有し、 ユーザ操作に基づいて、 さらに詳細な位 置および傾きなどを調整可能である。 図 2に、 表示部 1 1 2が有する画像表 示素子と、 ユーザの眼との関係について示す。 表示部 1 1 2は、 図 2 Aの側 面図に示すように、 支持アーム 1 1 2 aを矢印 aの方向にスライ ドさせるこ とで、 矢印 aの方向にスライ ド可能であり、 ユーザの眼を基準とした前後位 置を調整可能である。 また、 表示部 1 1 2は、 球面軸受け 1 1 2 cにより矢 印 eの方向に回転可能であるとともに、 図 2 Bの上面図に示すように、 球面 軸受け 1 1 2 cにより矢印 f の方向にも回転可能である。 したがって、 ユー ザの眼を基準とした傾きを調整可能である。 また、 表示部 1 1 2は、 図 2 C の正面図に示すように、 スライ ド部材 1 1 2 bにより矢印 gの方向にスライ ド可能であり、 ユーザの眼を基準とした左右位置を調整可能である。 また、 表示部 1 1 2は、 図 2 Dの正面図に示すように、 球面軸受け 1 1 2 cにより 矢印 iの方向に回転可能である。 したがって、 ユーザの眼の光軸と垂直な面 内における傾きを調整可能である。
[0025] 操作部 1 1 3は、 図 1に示すように、 ユーザの側頭部、 右耳のスピーカ 1
1 1近傍に配置される。 図 3は、 頭部装着型ディスプレイ 1 0 0を図1の矢 印 Sの方から見た側面図である。 操作部 1 1 3は、 図 3に示すように、 電源 ポタン 1 1 3 a、 十字ポタン 1 1 3 b、 メニューポタン 1 1 3 cを備える。 なお、 操作部 1 1 3はリモートコントローラのように頭部装着型ディスプレ ィ 1 0 0の外部に備えられても良い。 この場合、 リモートコントローラと頭 部装着型ディスプレイ 1 0 0とは無線で接続されても良いし、 有線で接続さ れても良い。
[0026] 図 4は、 頭部装着型ディスプレイ 1 0 0の機能ブロック図である。
[0027] 頭部装着型ディスプレイ 1 0 0は、 図 4に示すように、 スピーカ 1 1 1 、 表示部 1 1 2、 操作部 1 1 3に加えて、 表示部 1 1 2への表示を制御する表 示制御部 1 1 4、 ケーブルなどを介してコンピュータなどの外部機器と接続 する接続部 1 1 5、 表示部 1 1 2に表示する画像情報、 スピーカ 1 1 1に出 力する音声情報などを記憶する記憶部 1 1 6、 各部を制御する制御部 1 1 7 の各部を備える。 以下では、 画像情報、 音声情報、 音声付き画像情報などを まとめて 「コンテンツデータ」 と称する。
[0028] 制御部 1 1 7は、 表示制御部 1 1 4、 接続部 1 1 5、 記憶部 1 1 6の各部 と相互に接続される。 また、 表示制御部 1 1 4の出力は表示部 1 1 2に接続 される。 制御部 1 1 7は、 操作部 1 1 3の状態を検知するとともに、 操作部 1 1 3を介して行われるユーザ指示にしたがって、 スピーカ 1 1 1に対する 音声の再生や、 表示部 1 1 2に対する画像の表示を行う。 また、 制御部 1 1 7は、 内部に不図示のタイマを備える。 さらに、 制御部 1 1 7は、 本発明の 特徴である使用履歴の記録および認識も行う。 使用履歴は、 表示部 1 1 2を 用いた画像の表示に関する使用履歴である。 すなわち、 頭部装着型ディスプ レイ 1 0 0を音声情報のみの再生に使用した場合はこの使用履歴に含まれな し、。 使用履歴には、 使用回数、 1回の使用における使用時間、 累積使用時間 、 使用前の表示部 1 1 2の調整所要時間などが含まれる。 なお、 調整所要時 間について、 制御部 1 1 7は、 上述した表示部 1 1 2の各部位の調整 (図 1 および図 2参照) が行われると、 これを検知し、 調整に要した時間を計測し て記録する。 制御部 1 1 7は、 頭部装着型ディスプレイ 1 0 0がユーザによ り使用されるたびに、 これらの使用履歴を更新する。
[0029] 以上説明した構成の頭部装着型ディスプレイ 1 0 0における、 コンテンツ データ再生時の制御部 1 1 7の動作について、 図 5のフローチャートを用い て説明する。
[0030] ステップ S 1において、 制御部 1 1 7は、 操作部 1 1 3を介して画像再生 が指示されたか否かを判定する。 制御部 1 1 7は、 画像再生が指示されない 場合には、 指示に応じて公知技術と同様の処理を行う。 例えば、 音声再生が 指示された場合には、 公知技術と同様に音声の再生を行う。 画像再生が指示 された場合には、 制御部 1 1 7は、 ステップ S 2に進む。
[0031 ] ステップ S 2において、 制御部 1 1 7は、 使用履歴を読み出す。 なお、 本 実施形態では、 使用回数を読み出す場合を例に挙げて説明する。
[0032] ステップ S 3において、 制御部 1 1 7は、 視聴可能時間 Aを決定する。 制 御部 1 1 7は、 ステップ S 2で認識した使用回数に基づいて、 視聴可能時間 Aを決定する。 図 6 Aに使用回数と視聴可能時間 Aとの関係の一例を示す。 図 6 Aに示すように、 使用回数と視聴可能時間 Aとは正の相関を有する。 使 用回数が増えるほど、 視聴可能時間 Aは長くなる。 ただし、 ユーザの疲労を 考慮して、 視聴可能時間 Aには上限 (N m a x ) を設けるのが好ましい。
[0033] さらに、 視聴可能時間 Aを決定する際に、 再生対象のコンテンツデータの 情報を加味して視聴可能時間 Aを決定しても良い。 例えば、 コンテンツデ一 タに付帯する制御情報に基づいて視聴可能時間 Aを決定しても良い。 コンテ ンッデ一タに付帯した制御情報としてチヤプタ一情報が存在する場合には、 再生開始時点から視聴可能時間経過後の時点で、 その時点に近いチャプター の変わり目に合わせて視聴可能時間 Aを決定すると良い。 コンテンッデータ の内容と関係なく視聴可能時間 Aを決定して再生を停止してしまうと、 ユー ザが違和感を感じる場合がある。 し力、し、 このように視聴可能時間 Aを決定 することにより、 ユーザに違和感を感じさせずに再生を停止させることがで きる。 図 6 Bにチャプター情報の例を示す。 再生対象のコンテンツデータが 、 図 6 Bに示すように複数のチャプターにより構成されている場合、 チヤプ ターの構成に合わせて視聴可能時間 Aを修正する。 例えば、 再生開始時点か ら、 図 6 Aの関係にしたがって決定した視聴可能時間 Aだけ経過した時点が 、 図 6 Bのチャプター Xの途中である場合には、 チャプター Xの起点または 終点に合わせて視聴可能時間 Aを決定する。 なお、 図 6 Aの関係にしたがつ て決定した視聴可能時間 Aがチャプター Xの中心点より前である場合には、 チャプター Xの起点に合わせて視聴可能時間 Aを決定し、 図 6 Aの関係にし たがって決定した視聴可能時間 Aがチャプター Xの中心点より後である場合 には、 チャプター Xの終点に合わせて視聴可能時間 Aを決定すれば良い。
[0034] また、 再生対象のコンテンツデータのシーン変化を検出し、 シーンの変化 位置に基づいて視聴可能時間 Aを決定しても良い。 明るさなどの変化に基づ いてコンテンツデータにおけるシーン変化を検出し、 シーン変化の変わり目 に合わせて、 図 6 Aの関係にしたがって決定した視聴可能時間 Aを修正する と良い。 このように視聴可能時間 Aを決定することにより、 上述したチヤプ ター情報の例と同様に、 ユーザに違和感を感じさせずに再生を停止させるこ とができる。 [0035] ステップ S 4において、 制御部 1 1 7は、 表示制御部 1 1 4を介して、 画 像の再生を開始する。 なお、 再生対象のコンテンツデータが音声付き画像情 報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を介して音声の再生も 開始する。
[0036] ステップ S 5において、 制御部 1 1 7は、 制御部 1 1 7内のタイマをスタ —卜する。
[0037] ステップ S 6において、 制御部 1 1 7は、 タイマ = A _ T 1であるか否か を判定する。 T 1は、 予め定められた時間である (例えば、 「5分」 など) 。 制御部 1 1 7は、 タイマ = A _ T 1になるまで待機し、 タイマ = A _ T 1 であると判定するとステップ S 7に進む。
[0038] ステップ S 7において、 制御部 1 1 7は、 警告を行う。 警告は、 例えば、 表示部 1 1 2にメッセージを表示することにより実現する。 図 7 Aに警告の 表示例を示す。 図 7 Aの例では、 表示中の画像に警告を示す画像 ( i 1 ) を 重畳して表示する。 なお、 図 7 Aの例は一例であり、 ユーザに画像の観察の 中止を促す画像 (例えば、 「疲れが予測されるの画像の観察を中止してくだ さい」 など) を表示しても良い。
[0039] なお、 ステップ S 7で説明した警告は、 ステップ S 3で決定した視聴可能 時間 Aよりも時間 T 1だけ先だって行われることになる。 また、 この警告に スピーカ 1 1 1を介した音声情報を利用しても良い。
[0040] ステップ S 8において、 制御部 1 1 7は、 タイマ = Aであるか否かを判定 する。 制御部 1 1 7は、 タイマ = Aになるまで待機し、 タイマ = Aであると 判定するとステップ S 9に進む。
[0041 ] ステップ S 9において、 制御部 1 1 7は、 表示制御部 1 1 4を介して、 画 像の再生を終了する。 なお、 再生対象のコンテンツデータが音声付き画像情 報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を介して音声の再生も 終了する。 なお、 画像の再生を終了する際には、 例えば図 7 Bに示すように 、 画像の再生を終了することをユーザに報知する画像 ( i 2 ) を表示中の画 像に重畳して表示しても良い。 また、 画像の再生を終了して良いか否かをュ 一ザに確認し、 ユーザの認証が取れてから画像の再生を終了する構成として も良い。 なお、 画像 ( i 1、 i 2、 後述する i 3 ) は、 予め制御部 1 1 7内 の不図示のメモリに記録されている。
[0042] 以上説明したように、 第 1実施形態によれば、 画像を表示する表示部を備 え、 表示部の使用履歴を認識し、 認識した使用履歴に基づいて、 ユーザによ る画像の観察可能時間を決定する。 そして、 決定した観察可能時間に応じて 、 表示部による画像の表示を停止する。 したがって、 ユーザ毎の頭部装着型 ディスプレイの使用履歴に応じて、 観察可能時間を決定して画像の表示を停 止することにより、 ユーザに応じた疲労への対応を実現することができる。
[0043] また、 第 1実施形態によれば、 決定した観察可能時間に応じて、 ユーザに 対して、 画像の観察終了を促す。 したがって、 ユーザ毎の頭部装着型デイス プレイの使用履歴に応じて、 観察可能時間を決定して画像の観察終了を促す ことにより、 ユーザに応じた疲労への対応を実現することができる。
[0044] また、 第 1実施形態によれば、 使用回数と、 1回の使用における使用時間 と、 累積使用時間と、 使用前の表示部の調整所要時間との少なくとも 1つを 使用履歴として認識する。 したがって、 ユーザに応じた視聴可能時間を決定 することができる。
[0045] また、 第 1実施形態によれば、 表示部による画像の表示を停止する際に、 観察可能時間に応じて決定した停止時間を修正する。 したがって、 ユーザに 違和感を感じさせずに、 適当なタイミングで再生を自動停止させることがで さる。
[0046] また、 第 1実施形態によれば、 表示部による表示対象の画像のコンテンツ データの情報に基づいて、 停止時間を修正する。 したがって、 コンテンツデ ータの内容に応じて再生を自動停止させることができる。
[0047] また、 第 1実施形態によれば、 コンテンツデータのシーン変化を検出し、 シーンの変化位置に基づいて停止時間を修正する。 したがって、 コンテンツ データのシーン変化に合わせて再生を自動停止させることができる。
[0048] また、 第 1実施形態によれば、 コンテンツデータに付帯するコンテンツデ —タの制御情報に基づいて、 停止時間を修正する。 したがって、 コンテンツ データに応じて再生を自動停止させることができる。
[0049] なお、 第 1実施形態では、 使用履歴として使用回数を例に挙げて説明した 力 1回の使用における使用時間、 累積使用時間、 使用前の表示部の調整所 要時間の何れかに基づいて視聴可能時間を決定しても良い。 なお、 1回の使 用における使用時間が短い場合には、 ユーザが適切な使用を心がけていると 推測し、 視聴可能時間を長くしても良い。 また、 累積使用時間が長いほど、 ユーザが頭部装着型ディスプレイの使用に慣れていると推測できるので、 視 聴可能時間を長くすると良い。 なお、 1回の使用における使用時間が短い場 合には、 ユーザが疲れやすいと推測し、 累積使用時間が長くても視聴可能時 間を短く設定するのが好ましい。 また、 調整所要時間が短いほど、 ユーザが 頭部装着型ディスプレイの使用に慣れていると推測できるので、 視聴可能時 間を長くすると良い。 さらに、 使用回数、 1回の使用における使用時間、 累 積使用時間、 使用前の表示部の調整所要時間のうち 2つ以上のファクターを 組み合わせて視聴可能時間を決定しても良い。 この場合、 複数のファクター に優先順位をつけたり、 重み付けをして視聴可能時間を決定すれば良い。
[0050] また、 第 1実施形態では、 図 5のステップ S 7で警告を行った後にステツ プ S 9で画像の再生を中止する例を示したが、 警告のみを行う構成としても 良いし、 警告を行わずに画像の再生を中止する構成としても良い。
[0051 ] <第 2実施形態 >
以下、 図面に基づいて本発明の第 2実施形態について説明する。 第 2実施 形態では、 第 1実施形態と異なる部分についてのみ説明する。 第 2実施形態 の頭部装着型ディスプレイは、 第 1実施形態の頭部装着型ディスプレイ 1 0 0と同様の構成を有する。 したがって、 第 2実施形態の頭部装着型ディスプ レイの図示および構成の説明を省略し、 第 1実施形態の図 1および図 3と同 様の符号を用いて説明する。
[0052] 第 2実施形態におけるコンテンツデータ再生時の制御部 1 1 7の動作につ いて、 図 8のフローチャートを用いて説明する。 [0053] ステップ S 2 1において、 制御部 1 1 7は、 操作部 1 1 3を介して画像再 生が指示されたか否かを判定する。 制御部 1 1 7は、 画像再生が指示されな い場合には、 指示に応じて公知技術と同様の処理を行う。 例えば、 音声再生 が指示された場合には、 公知技術と同様に音声の再生を行う。 画像再生が指 示された場合には、 制御部 1 1 7は、 ステップ S 2 2に進む。
[0054] ステップ S 2 2において、 制御部 1 1 7は、 ユーザ情報を取得する。 なお 、 本実施形態では、 ユーザ情報として、 接眼光学機器 (頭部装着型ディスプ レイ、 カメラ、 双眼鏡、 顕微鏡など) 使用経験の有無および年齢を取得する 場合を例に挙げて説明する。 制御部 1 1 7は、 表示制御部 1 1 4を介して、 図 9 Aおよび図 9 Bに示す画像を表示部 1 1 2に表示し、 ユーザ情報の入力 を促す。 この画像は、 予め制御部 1 1 7内の不図示のメモリに記録されてい る。 ユーザは、 表示部 1 1 2を目視しながら操作部 1 1 3を操作して、 ユー ザ情報を入力する。 なお、 ユーザ情報の入力 (取得) は、 このタイミングで はなく前もつて行われても良い。
[0055] ステップ S 2 3において、 制御部 1 1 7は、 視聴可能時間 Aを決定する。
制御部 1 1 7は、 ステップ S 2 2で取得したユーザ情報に基づいて、 視聴可 能時間 Aを決定する。 制御部 1 1 7は、 予め制御部 1 1 7内の不図示のメモ リにユーザ情報に対応した評価値を記録している。 図 9 Cに評価値 (F 1 〜 F 7 ) の例を示す。 そして、 制御部 1 1 7は、 この評価値に基づいて視聴可 能時間 Aを決定する。 なお、 接眼光学機器の使用経験が多いほど、 ユーザが 頭部装着型ディスプレイの使用に慣れていると推測できるので、 視聴可能時 間 Aを長く決定する評価値を用意する。 また、 年齢が高いほど、 眼の調節機 能などが低下していると推測できるので、 視聴可能時間 Aを短く決定する評 価値を用意する。 なお、 第 1実施形態と同様に、 ユーザの疲労を考慮して、 視聴可能時間 Aには上限を設けるのが好ましい。
[0056] さらに、 視聴可能時間 Aを決定する際に、 第 1実施形態と同様に、 コンテ ンッデータの再生開始時点と再生対象のコンテンツデータの情報とを加味し て視聴可能時間 Aを決定しても良い。 再生対象のコンテンツデータの情報を 加味して視聴可能時間 Aを決定することにより、 第 1実施形態と同様に、 ュ 一ザに違和感を感じさせずに再生を停止させることができる。
[0057] ステップ S 2 4において、 制御部 1 1 7は、 表示制御部 1 1 4を介して、 画像の再生を開始する。 なお、 再生対象のコンテンツデータが音声付き画像 情報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を介して音声の再生 も開始する。
[0058] ステップ S 2 5において、 制御部 1 1 7は、 制御部 1 1 7内のタイマをス タートする。
[0059] ステップ S 2 6において、 制御部 1 1 7は、 タイマ = A _ T 2であるか否 かを判定する。 T 2は、 予め定められた時間である (例えば、 「5分」 など ) 。 制御部 1 1 7は、 タイマ = A _ T 2になるまで待機し、 タイマ = A _ T 2であると判定するとステップ S 2 7に進む。
[0060] ステップ S 2 7において、 制御部 1 1 7は、 視聴可能時間 Aに到達するま での残時間表示を開始する。 制御部 1 1 7は、 図 1 O Aに示すように、 表示 中の画像に残時間を示す画像 ( i 3 ) を重畳して表示する。 そして、 残時間 の減少に合わせて表示を変更する。 なお、 残時間表示は、 ステップ S 2 3で 決定した視聴可能時間 Aよりも時間 T 2だけ先だつて行われることになる。 また、 残時間表示の代わりに、 スピーカ 1 1 1を介した音声情報を利用して も良い。 また、 残時間表示に加えて音声による報知を行っても良い。 なお、 画像 ( i 3、 後述する i 4、 i 5 ) は、 予め制御部 1 1 7内の不図示のメモ リに記録されている。
[0061 ] ステップ S 2 8において、 制御部 1 1 7は、 延長ポタンによる受付を開始 する。 延長ポタンは、 ステップ S 2 3で決定した視聴可能時間 Aを延長する ユーザ指示を受け付けるためのポタンである。 ユーザは、 ステップ S 2 7に おいて提示された残時間が好ましくないと感じた場合には、 この延長ボタン を押圧することにより視聴可能時間 Aを一定時間 (例えば 「1 0分」 など) 延長することができる。 なお、 延長ポタンは、 本実施形態では、 操作部 1 1 3の十字ポタン 1 1 3 bの中央のポタンである。 他の部材を延長ポタンとし ても良いし、 専用の延長ポタンを操作部 1 1 3に備えても良い。 なお、 延長 ボタンによる受付の開始は、 ステップ S 2 3で決定した視聴可能時間 Aより も時間 T 2だけ先だって行われることになる。 また、 延長ポタンによる受付 開始の際には、 例えば図 1 O Bに示すように、 延長ポタンによる受付を開始 することをユーザに報知する画像 ( i 4 ) を表示中の画像に重畳して表示し ても良い。
[0062] ステップ S 2 9において、 制御部 1 1 7は、 延長ポタンが押圧されたか否 かを判定する。 制御部 1 1 7は、 制御部 1 1 7は、 延長ポタンが押圧された と判定するとステップ S 3 0に進む。 一方、 所定時間待機しても延長ポタン が押圧されないと判定すると、 制御部 1 1 7は、 後述するステップ S 3 1に 進む。
[0063] ステップ S 3 0において、 制御部 1 1 7は、 タイマを修正するか、 視聴可 能時間 Aを修正する。 制御部 1 1 7は、 延長ポタンの 1回の押圧に予め対応 付けられた時間 (例えば 「1 0分」 など) を、 タイマから減算するか、 また は、 視聴可能時間 Aに加算して、 視聴可能時間 Aを修正する。
[0064] ステップ S 3 1において、 制御部 1 1 7は、 タイマ = Aであるか否かを判 定する。 制御部 1 1 7は、 タイマ = Aであると判定するとステップ S 3 2に 進む。 一方、 所定時間待機してもタイマ = Aにならないと判定すると、 制御 部 1 1 7は、 ステップ S 2 9に戻り、 延長ポタンが押圧されたか否かを再び 判定する。 すなわち、 ステップ S 2 9からステップ S 3 1において、 制御部 1 1 7は、 延長ポタンが押圧されたか否かの監視とタイマ = Aであるか否か の監視を並行して行う。
[0065] ステップ S 3 2において、 制御部 1 1 7は、 表示制御部 1 1 4を介して、 画像の再生を終了する。 なお、 再生対象のコンテンツデータが音声付き画像 情報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を介して音声の再生 も終了する。 なお、 画像の再生を終了の際には、 例えば図 1 O Cに示すよう に、 画像の再生を終了することをユーザに報知する画像 ( i 5 ) を表示中の 画像に重畳して表示しても良い。 また、 画像の再生を終了して良いか否かを ユーザに確認し、 ユーザの認証が取れてから画像の再生を終了する構成とし ても良い。
[0066] 以上説明したように、 第 2実施形態によれば、 画像を表示する表示部を備 え、 ユーザ情報を取得し、 取得したユーザ情報に基づいて、 ユーザによる画 像の観察可能時間を決定する。 そして、 決定した観察可能時間に応じて、 表 示部による画像の表示を停止する。 したがって、 ユーザ毎のユーザ情報に応 じて、 観察可能時間を決定して画像の表示を停止することにより、 ユーザに 応じた疲労への対応を実現することができる。
[0067] また、 第 2実施形態によれば、 決定した観察可能時間に応じて、 ユーザに 対して、 画像の観察終了を促す。 したがって、 ユーザ毎のユーザ情報に応じ て、 観察可能時間を決定して画像の観察終了を促すことにより、 ユーザに応 じた疲労への対応を実現することができる。
[0068] また、 第 2実施形態によれば、 ユーザの接眼光学機器使用経験の有無をュ 一ザ情報として取得する。 したがって、 ユーザに応じた適切な視聴可能時間 を決定することができる。
[0069] また、 第 2実施形態によれば、 ユーザの性別と年齢との少なくとも一方を ユーザ情報として取得する。 したがって、 ユーザに応じた適切な視聴可能時 間を決定することができる。
[0070] また、 第 2実施形態によれば、 表示部による画像の表示を停止する際に、 観察可能時間に応じて決定した停止時間を修正する。 したがって、 ユーザに 違和感を感じさせずに、 適当なタイミングで再生を自動停止させることがで さる。
[0071 ] また、 第 2実施形態によれば、 停止時間を延長するユーザ指示を受け付け る受付部を備えユーザ指示に基づいて停止時間を修正する。 したがって、 コ ンテンッデータの内容などに応じた、 ユーザが違和感を感じないタイミング まで画像再生を延長することができる。
[0072] なお、 第 2実施形態では、 ユーザ情報として接眼光学機器 (頭部装着型デ イスプレイ、 カメラ、 双眼鏡、 顕微鏡など) 使用経験の有無および年齢を例 に挙げて説明したが、 他にユーザの性別、 ユーザの眼鏡の使用の有無、 ユー ザの左右眼の矯正具合 (裸眼と矯正眼との差異など) 、 ユーザの効き目、 使 用形態などに基づいて視聴可能時間を決定しても良い。 なお、 使用形態とし ては、 住居など落ち着いた環境での使用なのか、 外出先での使用なのかや、 使用の際に表示部 1 1 2と反対側の眼 (本実施形態では右眼) を閉じて使用 するのか否かなどをユーザ情報として利用すれば、 よりユーザに応じた疲労 への対応を実現することができる。 住居など落ち着いた環境での使用の場合 は、 外出先での使用の場合に比べて視聴可能時間を長くすると良い。 また、 使用の際に表示部 1 1 2と反対側の眼を閉じて使用する際には、 反対側の眼 を開けて使用する場合に比べて疲労しやすいので、 視聴可能時間を短くする と良い。 また、 複数のファクターを組み合わせて視聴可能時間を決定する際 には、 複数のファクターに優先順位をつけたり、 重み付けをして視聴可能時 間を決定すれば良い。
[0073] また、 第 2実施形態では、 図 8のステップ S 2 7で残時間表示を開始し、 ステップ S 3 2で画像の再生を中止する例を示したが、 残時間表示のみを行 う構成としても良いし、 残時間表示を行わずに画像の再生を中止する構成と しても良い。
[0074] また、 第 2実施形態では、 視聴可能時間よりも時間 T 2前から画像再生の 終了までの間、 延長ポタンによって視聴可能時間の延長を受け付ける例を示 したが、 画像再生の終了後にも視聴可能時間の延長を受け付ける構成として も良い。 このように、 視聴可能時間 (所定の停止時間) の前と後との少なく とも一方を含む所定の時間内においてユーザ指示を受け付けることにより、 ユーザにとって好ましくないタィミングで画像再生が終了してしまった場合 にも、 コンテンツデータの内容などに応じた、 ユーザが違和感を感じないタ イミングまで画像再生を延長することができる。 なお、 画像再生の終了後に も視聴可能時間の延長を受け付ける場合には、 ステップ S 3 2で説明した画 像再生の終了時に一時停止のように静止画像を表示しておくと良い。 また、 画像再生の終了後においては、 所定の時間 (例えば、 「3分」 など) に限つ てのみ視聴可能時間の延長を受け付ける構成とするのが好ましい。
[0075] また、 第 1実施形態および第 2実施形態では、 画像再生時に常に視聴可能 時間を決定して警告や画像再生の自動停止を行う例を示したが、 このような 処理を行うか否かをユーザにより選択可能にするのが好ましい。 また、 視聴 可能時間の決定方法をユーザにより選択可能にしても良い。
[0076] また、 第 1実施形態および第 2実施形態では、 再生対象のコンテンツデ一 タが音声付き画像情報である場合に、 観察可能時間に応じて画像の再生を終 了するとともに音声の再生も終了する例を示したが、 画像の再生のみを終了 し、 音声の再生は継続する構成としても良い。 また、 音声の再生を終了する か否かをユーザにより選択可能にしても良い。
[0077] また、 第 1実施形態および第 2実施形態で説明した処理を組み合わせて実 行しても良い。 例えば、 第 1実施形態で説明した使用履歴と第 2実施形態で 説明したユーザ情報とを組み合わせて視聴可能時間を決定する構成としても 良い。
[0078] また、 第 1実施形態および第 2実施形態で説明した発明を、 コンテンツデ ータの再生を所定の停止時間で自動停止する場合に同様に応用することもで さる。
[0079] 例えば、 電池残量の減少に合わせて、 コンテンツデータの再生を自動停止 する場合にも、 本発明で説明した視聴可能時間の決定方法や延長ポタンによ る視聴可能時間の延長に関する技術を適用することができる。
[0080] 図 1 1は、 電池残量の減少に合わせて、 画像再生を停止する場合の制御部
1 1 7の動作を示すフローチャートである。
[0081 ] ステップ S 4 1において、 制御部 1 1 7は、 操作部 1 1 3を介して画像再 生が指示されたか否かを判定する。 制御部 1 1 7は、 画像再生が指示されな い場合には、 指示に応じて公知技術と同様の処理を行う。 例えば、 音声再生 が指示された場合には、 公知技術と同様に音声の再生を行う。 画像再生が指 示された場合には、 制御部 1 1 7は、 ステップ S 4 2に進む。
[0082] ステップ S 4 2において、 制御部 1 1 7は、 表示制御部 1 1 4を介して、 画像の再生を開始する。 なお、 再生対象のコンテンツデータが音声付き画像 情報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を介して音声の再生 も開始する。
[0083] ステップ S 4 3において、 制御部 1 1 7は、 電池残量 < Eであるか否かを 判定する。 電池残量 Eとは、 予め定められた閾値であり、 例えば、 ユーザに 対して画像再生の停止を促す必要がある (例えば、 「あと 1時間程度画像再 生が可能である」 など) 電池残量を示す値である。 制御部 1 1 7は、 電池残 量 < Eであると判定するとステップ S 4 4に進み、 電池残量≥Eであると判 定するとステップ S 4 5に進む。
[0084] ステップ S 4 4において、 制御部 1 1 7は、 電池残量に基づいて再生駆動 可能時間を推定し、 再生駆動可能時間を超えない範囲で視聴可能時間 Aを決 定する。
[0085] ステップ S 4 5において、 制御部 1 1 7は、 第 1実施形態と同様に、 電池 残量に応じて、 視聴可能時間 Aを決定する。
[0086] ステップ S 4 6において、 制御部 1 1 7は、 ステップ S 4 4またはステツ プ S 4 5で決定した視聴可能時間 Aを修正する。 制御部 1 1 7は、 第 1実施 形態のステップ S 3で説明したように、 再生対象のコンテンツデータの情報 を加味して視聴可能時間 Aを修正する。 例えば、 コンテンツデータに付帯す るコンテンッデータの制御情報に基づいて視聴可能時間 Aを修正しても良い し、 再生対象のコンテンツデータのシーン変化を検出し、 シーンの変化位置 に基づいて視聴可能時間 Aを決定しても良い。
[0087] ステップ S 4 7からステップ S 5 1において、 制御部 1 1 7は、 第 1実施 形態のステップ S 5からステップ S 9 (図 5 ) と同様の処理を行う。
[0088] 以上の処理により、 電池残量の減少に合わせて、 コンテンツデータの再生 を自動停止する場合にも、 ユーザに違和感を感じさせずに再生を停止させる ことができる。
[0089] なお、 電池残量に合わせて、 コンテンツデータの再生を自動停止する場合 に、 延長ポタンによる視聴可能時間 Aの延長に関する技術を適用する場合に は、 繰り返し延長ボタンが押圧されることにより電池残量が減少しすぎるの を防ぐため、 電池残量に合わせて延長ポタンによる受け付けを禁止する構成 とするのが好ましい。
[0090] また、 公知技術で説明したように、 予め定めた所定の時間で、 画像の表示 を中断する場合や、 ユーザにより設定された視聴可能時間に応じて画像再生 を停止する場合にも、 本発明で説明した視聴可能時間 Aの決定方法や延長ポ タンによる視聴可能時間 Aの延長に関する技術を適用することができる。
[0091 ] 図 1 2は、 ユーザにより予め設定された時間 Bに応じて画像再生を停止す る場合の制御部 1 1 7の動作を示すフローチャートである。
[0092] ステップ S 6 1において、 制御部 1 1 7は、 操作部 1 1 3を介して画像再 生が指示されたか否かを判定する。 制御部 1 1 7は、 画像再生が指示されな い場合には、 指示に応じて公知技術と同様の処理を行う。 例えば、 音声再生 が指示された場合には、 公知技術と同様に音声の再生を行う。 画像再生が指 示された場合には、 制御部 1 1 7は、 ステップ S 6 2に進む。
[0093] ステップ S 6 2において、 制御部 1 1 7は、 制御部 1 1 7は、 表示制御部
1 1 4を介して、 画像の再生を開始する。 なお、 再生対象のコンテンツデ一 タが音声付き画像情報である場合には、 制御部 1 1 7は、 スピーカ 1 1 1を 介して音声の再生も開始する。
[0094] ステップ S 6 3において、 制御部 1 1 7は、 制御部 1 1 7内のタイマをス タートする。 なお、 第 1実施形態のステップ S 3で説明したように、 再生対 象のコンテンツデータの情報を加味してユーザにより予め設定された時間 B を修正しても良い。 再生対象のコンテンツデータの情報を加味してユーザに より予め設定された時間 Bを修正することにより、 ユーザに違和感を感じさ せずに再生を停止させることができる。
[0095] ステップ S 6 4からステップ S 7 0において、 制御部 1 1 7は、 第 2実施 形態のステップ S 2 6からステップ S 3 2 (図 8 ) と同様の処理を行う。
[0096] 以上の処理により、 ユーザにより予め設定された時間に応じてコンテンツ データの再生を自動停止する際に、 ユーザにとって好ましくないタイミング で画像再生が終了してしまった場合にも、 コンテンッデータの内容などに応 じた、 ユーザが違和感を感じないタィミングまで画像再生を延長することが できる。 また、 ユーザに違和感を感じさせずに再生を停止させることができ る。
[0097] さらに、 ユーザの行動パターンなどに合わせて、 プログラム制御によりコ ンテンッデータの再生を自動制御する頭部装着型ディスプレイにも、 本発明 を同様に応用することができる。
[0098] また、 第 1実施形態および第 2実施形態において、 複数のユーザが頭部装 着型ディスプレイ 1 0 0を共有する場合には、 各ユーザ毎に使用履歴ゃュ一 ザ情報を記録、 管理する構成とすれば良い。
[0099] また、 第 1実施形態および第 2実施形態では、 タイマのカウントを増やし て観察可能時間等を計測する例を示したが、 タイマの開始時間を観察可能時 間 (ユーザにより設定された時間) に設定し、 時間の経過とともにタイマの カウントを減らし、 タイマが 0になった時点で画像を停止する構成としても 良い。
[0100] また、 第 1実施形態および第 2実施形態で説明した頭部装着型ディスプレ ィ 1 0 0に公知の眼疲労回復モードを搭載しても良い。 眼疲労回復モードと は、 眼疲労回復に適した画像を表示部 1 1 2に表示したり、 ユーザにより観 察される表示部 1 1 2の位置を移動したりすることにより、 ユーザの毛様体 筋を弛緩させたり緊張させたりしてユーザの眼疲労を回復させるためのモー ドである。 そして、 観察可能時間に応じて画像の再生を終了した後に、 自動 的にこの眼疲労回復モードに入る構成としても良い。
[0101 ] また、 第 1実施形態および第 2実施形態で説明した頭部装着型ディスプレ ィ 1 0 0に公知の眼疲労検出機構を搭載しても良い。 眼疲労検出機構とは、 例えば、 ユーザのまぶたの動き、 涙液量、 涙液層で発生する干渉像、 眼の充 血具合などに基づき、 ユーザの眼疲労の度合いを検出する機構である。 そし て、 この眼疲労検出機構による検出結果に基づいて、 上述した観察可能時間 を修正しても良い。 [0102] また、 第 1実施形態および第 2実施形態において、 観察可能時間に応じて 画像の再生を終了した場合には、 その後所定時間 (例えば 2時間) は、 画像 の再生を禁止する構成としても良い。 そして、 所定時間経過後、 ユーザの眼 疲労がある程度回復したと推測できる状態になつてから、 再び画像の再生を 許可する構成としても良い。 また、 上述した眼疲労検出機構により、 ユーザ の眼疲労がある程度回復したと推測できる状態になつてから、 再び画像の再 生を許可する構成としても良い。
[0103] また、 第 1実施形態および第 2実施形態で説明した構成以外の頭部装着型 ディスプレイにも本発明を同様に適用することができる。 例えば、 表示部を 頭頂部方向に跳ね上げるオーバーへッドアーム形状の頭部装着型ディスプレ ィの代わりに、 表示部をスライ ド式に出し入れする頭部装着型ディスプレイ にも本発明を同様に適用することができる。 また、 外部の再生装置 (D V D プレーヤーなど) から再生対象のコンテンツデータを取得する構成の頭部装 着型ディスプレイにも本発明を同様に適用することができる。
[0104] また、 本実施形態では、 片側のみに表示部を備える例を示したが、 両側に 表示部を備える頭部装着型ディスプレイにも同様に本発明を適用することが できる。
[0105] また、 第 1実施形態および第 2実施形態では、 頭部装着型ディスプレイを 例に挙げて説明したが、 頭部装着型ディスプレイ以外の再生装置にも本発明 を同様に適用することができる。 例えば、 画像再生機能や音声再生機能を備 えた携帯電話、 携帯再生機器、 ゲーム機器などにも本発明を同様に適用する ことができる。

Claims

請求の範囲
[1 ] 画像を表示する表示部と、
前記表示部の使用履歴を認識する認識部と、
前記使用履歴に基づいて、 ユーザによる前記画像の観察可能時間を決定す る決定部と、
前記観察可能時間に応じて、 前記表示部による前記画像の表示を停止する 制御部と
を備えたことを特徴とする頭部装着型ディスプレイ。
[2] 画像を表示する表示部と、
前記表示部の使用履歴を認識する認識部と、
前記使用履歴に基づいて、 ユーザによる前記画像の観察可能時間を決定す る決定部と、
前記観察可能時間に応じて、 前記ユーザに対して、 前記画像の観察終了を 促す制御部と
を備えたことを特徴とする頭部装着型ディスプレイ。
[3] 請求項 1または請求項 2に記載の頭部装着型ディスプレイにおいて、 前記認識部は、 使用回数と、 1回の使用における使用時間と、 累積使用時 間と、 使用前の前記表示部の調整所要時間との少なくとも 1つを前記使用履 歴として認識する
ことを特徴とする頭部装着型ディスプレイ。
[4] 画像を表示する表示部と、
ユーザ情報を取得する取得部と、
前記ユーザ情報に基づいて、 ユーザによる前記画像の観察可能時間を決定 する決定部と、
前記観察可能時間に応じて、 前記表示部による前記画像の表示を停止する 制御部と
を備えたことを特徴とする頭部装着型ディスプレイ。
[5] 画像を表示する表示部と、 ユーザ情報を取得する取得部と、
前記ユーザ情報に基づいて、 ユーザによる前記画像の観察可能時間を決定 する決定部と、
前記観察可能時間に応じて、 前記ユーザに対して、 前記画像の観察終了を 促す制御部と
を備えたことを特徴とする頭部装着型ディスプレイ。
[6] 請求項 4または請求項 5に記載の頭部装着型ディスプレイにおいて、 前記取得部は、 前記ユーザの接眼光学機器使用経験の有無を前記ユーザ情 報として取得する
ことを特徴とする頭部装着型ディスプレイ。
[7] 請求項 6に記載の頭部装着型ディスプレイにおいて、
前記取得部は、 前記ユーザの性別と年齢との少なくとも一方を前記ユーザ 情報として取得する
ことを特徴とする頭部装着型ディスプレイ。
[8] 請求項 1または請求項 4に記載の頭部装着型ディスプレイにおいて、 前記制御部は、 前記表示部による前記画像の表示を停止する際に、 前記観 察可能時間に応じて決定した停止時間を修正する
ことを特徴とする頭部装着型ディスプレイ。
[9] 請求項 8に記載の頭部装着型ディスプレイにおいて、
前記制御部は、 前記表示部による表示対象の前記画像のコンテンツデータ の情報に基づいて、 前記停止時間を修正する
ことを特徴とする頭部装着型ディスプレイ。
[10] 請求項 9に記載の頭部装着型ディスプレイにおいて、
前記制御部は、 前記コンテンツデータのシーン変化を検出し、 シーンの変 化位置に基づいて前記停止時間を修正する
ことを特徴とする頭部装着型ディスプレイ。
[1 1 ] 請求項 9に記載の頭部装着型ディスプレイにおいて、
前記制御部は、 前記コンテンツデータに付帯する前記コンテンツデータの 制御情報に基づいて、 前記停止時間を修正する
ことを特徴とする頭部装着型ディスプレイ。
[12] 請求項 8に記載の頭部装着型ディスプレイにおいて、
前記停止時間を延長するユーザ指示を受け付ける受付部を備え、 前記制御部は、 前記ユーザ指示に基づいて前記停止時間を修正する ことを特徴とする頭部装着型ディスプレイ。
[13] 請求項 1 2に記載の頭部装着型ディスプレイにおいて、
前記受付部は、 前記停止時間の前と後との少なくとも一方を含む所定の時 間内において前記ユーザ指示を受け付ける
ことを特徴とする頭部装着型ディスプレイ。
[14] 請求項 1から請求項 1 3の何れか 1項に記載の頭部装着型ディスプレイに おいて、
前記ユーザの指示に基づいて、 前記制御部による制御を行うか否かを選択 する選択部をさらに備える
ことを特徴とする頭部装着型ディスプレイ。
PCT/JP2007/000992 2006-09-13 2007-09-11 Headgear type display WO2008032448A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/310,719 US8907866B2 (en) 2006-09-13 2007-09-11 Head mount display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006248330A JP4992355B2 (ja) 2006-09-13 2006-09-13 頭部装着型ディスプレイ
JP2006-248329 2006-09-13
JP2006248329A JP2008072354A (ja) 2006-09-13 2006-09-13 再生装置
JP2006-248330 2006-09-13

Publications (1)

Publication Number Publication Date
WO2008032448A1 true WO2008032448A1 (en) 2008-03-20

Family

ID=39183517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/000992 WO2008032448A1 (en) 2006-09-13 2007-09-11 Headgear type display

Country Status (2)

Country Link
US (1) US8907866B2 (ja)
WO (1) WO2008032448A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2244119A2 (en) 2009-01-15 2010-10-27 Brother Kogyo Kabushiki Kaisha Image display device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810540B2 (ja) * 2011-02-04 2015-11-11 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2013033195A2 (en) * 2011-08-30 2013-03-07 Microsoft Corporation Head mounted display with iris scan profiling
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US11029520B2 (en) * 2018-10-02 2021-06-08 Seebright Inc. Head mounted display with lens
US9229231B2 (en) * 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9183807B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US9165381B2 (en) 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US9383816B2 (en) * 2013-11-15 2016-07-05 Kopin Corporation Text selection using HMD head-tracker and voice-command
US9500867B2 (en) 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US9904360B2 (en) 2013-11-15 2018-02-27 Kopin Corporation Head tracking based gesture control techniques for head mounted displays
US10209955B2 (en) 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US10146057B2 (en) * 2014-02-20 2018-12-04 Sony Corporation Display control device, display control method, and computer program
KR20150110254A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 Hmd 디바이스 및 그 동작 방법
EP3382443B1 (en) * 2014-03-21 2023-07-26 Samsung Electronics Co., Ltd. Head-mounted display and method of operating the same
US10304446B2 (en) * 2016-02-03 2019-05-28 Disney Enterprises, Inc. Self calibration for smartphone goggles
TWI681209B (zh) * 2017-07-18 2020-01-01 廣達電腦股份有限公司 頭戴式顯示設備

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993513A (ja) * 1995-09-28 1997-04-04 Sony Corp 光学視覚装置及び光学視覚装置の制御方法
JPH1065997A (ja) * 1997-06-23 1998-03-06 Olympus Optical Co Ltd 映像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5051931A (en) * 1989-07-25 1991-09-24 Dynavision, Inc. Method and apparatus for exercising the eyes
US6160666A (en) * 1994-02-07 2000-12-12 I-O Display Systems Llc Personal visual display system
US5864346A (en) * 1994-09-12 1999-01-26 Nintendo Co., Ltd. Picture display unit and image display system
US6050717A (en) * 1996-05-15 2000-04-18 Sony Corporation Head-mounted image display having selective image suspension control and light adjustment
US7248232B1 (en) * 1998-02-25 2007-07-24 Semiconductor Energy Laboratory Co., Ltd. Information processing device
JP2000005448A (ja) 1998-04-21 2000-01-11 Sega Enterp Ltd 画像表示機能付ゲ―ム装置及びテレビジョン装置及び記憶媒体
JP3673217B2 (ja) * 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
JP4222817B2 (ja) 2002-09-27 2009-02-12 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
US7245820B2 (en) * 2002-11-04 2007-07-17 Koninklijke Philips Electronics N.V. Method and system for selecting chapter boundaries for digital video recordings
US8001612B1 (en) * 2003-11-03 2011-08-16 Wieder James W Distributing digital-works and usage-rights to user-devices
JP2005166172A (ja) 2003-12-03 2005-06-23 Sharp Corp 再生装置
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP4251634B2 (ja) * 2004-06-30 2009-04-08 株式会社東芝 マルチメディアデータ再生装置およびマルチメディアデータ再生方法
US8490022B2 (en) * 2004-12-16 2013-07-16 Elizabeth Susan Stone Menus for audiovisual content
US20060225105A1 (en) * 2005-04-05 2006-10-05 Scientific-Atlanta, Inc. Networked multi-room system ad insertion
GB2427952B (en) * 2005-07-02 2010-09-01 Raymond Butcher Apparatus for preventing visual impairment
JP2007067522A (ja) * 2005-08-29 2007-03-15 Toshiba Corp 情報編集装置、情報編集方法、及び情報編集プログラム
WO2007072270A1 (en) * 2005-12-19 2007-06-28 Koninklijke Philips Electronics N.V. 3d image display method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993513A (ja) * 1995-09-28 1997-04-04 Sony Corp 光学視覚装置及び光学視覚装置の制御方法
JPH1065997A (ja) * 1997-06-23 1998-03-06 Olympus Optical Co Ltd 映像表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2244119A2 (en) 2009-01-15 2010-10-27 Brother Kogyo Kabushiki Kaisha Image display device
EP2244119A3 (en) * 2009-01-15 2011-11-16 Brother Kogyo Kabushiki Kaisha Image display device
US8159417B2 (en) 2009-01-15 2012-04-17 Brother Kogyo Kabushiki Kaisha Image display device

Also Published As

Publication number Publication date
US20090243967A1 (en) 2009-10-01
US8907866B2 (en) 2014-12-09

Similar Documents

Publication Publication Date Title
WO2008032448A1 (en) Headgear type display
JP6613392B2 (ja) 音響再生装置
JP5023663B2 (ja) 撮像装置、撮像方法
US20050250996A1 (en) Biological sensor device and content playback method and apparatus
EP2942931A1 (en) Mobile terminal with eyeglass display
WO2015125626A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
US20140146243A1 (en) Head-Mounted Electronic Device And Audio Processing Method
JP2009021914A (ja) 撮像表示システム、撮像表示装置、撮像表示装置の制御方法
WO2008029570A1 (fr) Dispositif d&#39;affichage et procédé d&#39;affichage
JP2008269588A (ja) 認識装置、認識方法及び認識プログラム
JP2018107576A (ja) 再生制御方法、及びシステム
KR20070068236A (ko) 전자 기기, 표시 방법 및 그 방법을 실현시키는 프로그램을기록한 저장 매체
JP4992355B2 (ja) 頭部装着型ディスプレイ
CN109831817B (zh) 终端控制方法、装置、终端及存储介质
US10386635B2 (en) Electronic device and method for controlling the same
JP2008072354A (ja) 再生装置
CN103270773A (zh) 声音控制装置及摄像装置
JP2013176131A (ja) 頭部装着型ディスプレイ
JP2005218025A (ja) 視聴中断位置記憶装置、再生装置、及び記録装置
JP4558416B2 (ja) 通信端末
JP4572848B2 (ja) 頭部装着型ディスプレイ
JP2019197497A (ja) ヘッドマウントディスプレイシステム、通知制御装置、通知制御方法、及びプログラム
CN110651304A (zh) 信息处理装置、信息处理方法以及程序
US20230083214A1 (en) Head-mounted display and method for adjusting the same
WO2022131212A1 (ja) 情報通知装置、情報通知方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07805847

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12310719

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07805847

Country of ref document: EP

Kind code of ref document: A1