WO2016029283A1 - System for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor - Google Patents

System for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor Download PDF

Info

Publication number
WO2016029283A1
WO2016029283A1 PCT/BR2015/000128 BR2015000128W WO2016029283A1 WO 2016029283 A1 WO2016029283 A1 WO 2016029283A1 BR 2015000128 W BR2015000128 W BR 2015000128W WO 2016029283 A1 WO2016029283 A1 WO 2016029283A1
Authority
WO
WIPO (PCT)
Prior art keywords
positioning
cameras
environment
images
virtual
Prior art date
Application number
PCT/BR2015/000128
Other languages
French (fr)
Portuguese (pt)
Inventor
Samuel MUNIZ
Original Assignee
Muniz Samuel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from BR102014021182A external-priority patent/BR102014021182A2/en
Application filed by Muniz Samuel filed Critical Muniz Samuel
Publication of WO2016029283A1 publication Critical patent/WO2016029283A1/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the object of the present invention is an "IMAGE, VIDEO & SONG CREATING SYSTEM FROM ONE-DIMENSIONAL VIRTUAL ENVIRONMENT WITH CAMERA SET AND DEPTH SENSORS " .
  • IMAGE, VIDEO AND SONG PLAYBACK 3-D VIRTUAL HEAD MOUNTED DISPLAY WITH MOTION SENSOR makes full immersion within recorded scenes possible, giving the viewer full autonomy of positioning control and control of vision direction.
  • U.S. Patent 5,495,576 issued February 27, 1096 discloses an audio visual system in which a set of cameras provided with shape sensors and a sound capture device; 1 As described devices are positioned around ym target element, wherein each chamber ger image gives a side of the element ⁇ sensors define the sounds surface shape, thereby enabling reproduction of eomp ⁇ eto element three-dimensional shape, however eese invention is limited the three-dimensional reproduction of a target element and not of the entire census environment in which it is reproduced 2D.
  • a device control may be coupled to the MMD or a remote control device.
  • the Fig. 1 shows in isometric view, a simulated model of panning camera with panoramic cameras and depth cameras with panoramic range in this case adjacent to a single elm.
  • FIG. 12 - Fig. 1a shows in isometric view a simplified model of image positioning camera with panoramas and depth cameras with panoramic range, in this case adjacent to a single axis, with full range of each camera range and image overlay,
  • FIG. 13 - ⁇ Fig. 2 shows in isometric view a model of image positioning camera with panoramic cameras and depth cameras with global panoramic range, ie unidirectional range,
  • Fig. 3 shows in side view an example of the file creation system capturing the real environment data for the virtual environment file creation.
  • Fig. 4 shows in plan the example cited in Fig. 3,
  • FIG. 16 - Fig. 5 shows in side view a user using a Head foynt d Display for playback of virtual environment files, as well as the view screen reproduced in the Head ounted Display,
  • Fig. 8 shows an example of a dc-Î2-Î2i ⁇ n nàmeni ⁇ ' -resn ⁇ tD control device.
  • Fig. 9 shows a background scheme of an image positioning camera as well as co-operative devices.
  • Fig. 10 is a diagram of the operation of the data transmission system from the image position cameras to the central computer.
  • Figs. 1 and 2 amenfo posidot emers as shown in Figs. 1 and 2 as positioned to form an internal area therebetween as shown.
  • the image positioning camera is composed of a number of cameras (8) about the same positioning in different directions to form a panoramic range on a single axis as shown in Fig.
  • a depth camera (&) with the same angle al cance in the same direction of the imaging camera (8) so the depth camera (9) also has a wide range, preferably imante depth camera (9) may be the Infrared type transmitter and receiver, which as is' knowledge common determines the distance of the elements within range based on the. infrared frequency reached at the receiver, but. This intent is not imitated for a single type of depth camera, as this method is suitable for " any type of depth camera.
  • an interface for external communication (33) may be any type of interface using comyrtlcâ io via wireless telephone or communication, the onboard computer (18) synchronizes the imaging cameras ( 8) With depth cameras each imaging camera (8) captures individually!
  • the internal computer (18) compares the image generated from each camera with the image (8) of the adjunct de ⁇ é mirtandô cameras.
  • the Image overlay area after determining the overlap areas, the internal computer (18) deletes these image areas, aligns and joins the adjacent images of each camera to create a panoramic image.
  • Depth cameras (9) capture s digitize the distance from any environment to the cameras. Since they are in the same position, the Internal computer (18) with the aid of a clock (31) synchronizes the procedures of. image capture @ element distance scanning / Based on the overlapping area determined in the image capture, the internal computer (18) deletes the distance data for this area.
  • a GPS global positioning system (30) is used to inform to the internal user (16) locating the image positioning camera (2).
  • the Image positioning camera further comprises a pedestal (3) for height adjustment support and a sound pickup device (13) such as, for example, one or more microphones attached to the pedestal, each sound pickup device ( 1) captures the ambient sound vibrations individually synchronized by the internal computer (18) . with depth cameras (9) and image (8). . . 3 ⁇ 4
  • the internal computers (18) send via the external communication interface (33) the generated data to a central computer (35), illustrated in Fig. 10 consisting of: Image Positioning Camera Interface (42) be custom made or used conventional models such as USB or Firewire, a battery (36), RAM (37) s watches (39) ? storage memory (40),. processor ⁇ 41 ⁇ and interface for external communication (38) can be any type of interface using cable communication or wireless communication.
  • the Central Computer (35) merges the data received by the internal computers (18) into a single file, defines the Jiniite perimeter of the moving environment (1) by drawing a virtual perimeter line between the image positioning cameras (2). according to the information provided by
  • the infrared signal from a depth camera (9) may interfere with the reception of another camera camera: ⁇ ) sj by iOi ⁇ ⁇ ' ⁇ intended for . sun c tion this one.
  • the central computer (35) first drives an individual Image positioning camera (2) and then another and so on until all of them have recorded the test environment data, If this is true, the oscillator triggers all Image positioning cameras (2) at once »any interference reading or if
  • the central computer can be an external element, or one of the internal computers. It is one of the Image positioning cameras.
  • the computer program records the Inclination Initiate on the initial axes ⁇ 23 ⁇ of the sensor (14), from this moment on when the user tilts the head forms a new inclination for the axes (24) which consequently creates angles of the inclination difference for the
  • a new image is then reproduced on the user's screen after Tilt or Rotation (17), for positioning autonomy the depth contract (19) built into the ao or remote can be used as shown in Fig ⁇ 8 with an on / off button ( 22) synchronization knob (20) to synchronize it to its respective HMD (14) and autonomy buttons (21) such as movement, volume, pause and the like control, when a remote control is used before playback starts.
  • the adjustment of party sound reproduction by the program s is The. from the sound proportionality lines of the axis "" (?) of the sound proportionality lines of the esxo y (6), which contract the sound reproduction intensity according to the virtual distance that the user is in relation to the sound emission locations. in the virtual environment, as the example in Hg illustrates,? of sound reproduction for the sound location in the indicated virtual environment (43).

Abstract

The invention relates to a system for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and to the playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor, for enabling the creation and playback of images, videos, sounds and films in a virtual omnidirectional environment from real scenes, allowing the spectator to control autonomously the position and direction of viewing during playback of the digital file, said system comprising a set of image positioning cameras (2) including image cameras (8) parallel to depth cameras (9), sound capture devices (13) and an inner computer (18). The images of the inner environment formed by the image positioning cameras can thus be captured and positioned in a virtual environment by a central computer (35). An example is the playback of a virtual environment file by a head-mounted display (14) coupled to a movement sensor (15) and a computer program for decoding the data received from the movement sensor (15) and transmitting the data to the sound emitter and to the user display screen, with a remote depth control (19) that allows the spectator to determine autonomously the desired virtual position during playback of the files, giving the user the sensation of total immersion in the virtual environment.

Description

"SISTEMA DE CRIAÇÃO DE IMAGENS, VÍDEOS E SONS £ AMBIENTE VIRTUAL ONI DI ENSIONAL A PARTIR DE CENAS REAIS COM CONJUNTO DE CAM ERAS E SENSORES DE PROFUNDIDADE, REPRODUÇÃO DE IMAGENS, VÍDEOS È SQf^S EM AMBIENTES VIRTUAIS TRí D S ENCIONAIS COM HEAD MOUNTED DÍSPL Y E SENSOR DE MOVIMENTO,"  "IMAGE, VIDEO AND SOUND CREATION SYSTEM ONI DI SINGLE VIRTUAL ENVIRONMENT FROM REAL SCENES WITH CAMERA SET AND DEPTH SENSORS, È SQf ^ S VIDEO IN THREE DUAL SADD END VIDEO ENVIRONMENTS YE MOVEMENT SENSOR, "
1 - A presente patente de invenção tem por objatives um "SISTEMA DE CRIAÇÃO DE IMAGENS, VÍDEOS £ SONS E AMBIENTE VIRTUAL ONIDIMENSIONAL A PARTIR DE CENAS REAIS COM CONJUNTO DE CAMERAS E SENSORES DE PROFUNDIDADE».. REPRODUÇÃO DE IMAGENS, VÍDEOS E SONS EM AMBIENTES VIRTUAIS TRIDIMENCfONAIS COM HEAD MOUNTED DISPLAY E SENSOR DE MOVIMENTO" tornando possível a Imersão completa dentro de cenas gravadas, possibilitando ao espectador total autonomia de controle de posicionamento e controle d© direção da visão. 1 - The object of the present invention is an "IMAGE, VIDEO & SONG CREATING SYSTEM FROM ONE-DIMENSIONAL VIRTUAL ENVIRONMENT WITH CAMERA SET AND DEPTH SENSORS " . IMAGE, VIDEO AND SONG PLAYBACK 3-D VIRTUAL HEAD MOUNTED DISPLAY WITH MOTION SENSOR "makes full immersion within recorded scenes possible, giving the viewer full autonomy of positioning control and control of vision direction.
2 ~Ã Patente 5495576 emitida em 27 de fevereiro de 1096 divulga um sistema áudio visual no qual um conjunto de càmeras munidos com sensores de forma e um dispositivo par captura sonora;1 Conforme descrito os dispositivos são posicionados em torno de ym elemento alvo, onde cada câmara ger a imagem d um lado deste elemento © os sensores definem formato de soa superfície, possibilitando assim a reprodução do elemento eompíeto de formâ tridimensional, porém eese invento se limita a reprodução tridimensional de um elemento alvo e não de todo o ambiente da cens em uestio qm ê reproduzido de modo 2D. U.S. Patent 5,495,576 issued February 27, 1096 discloses an audio visual system in which a set of cameras provided with shape sensors and a sound capture device; 1 As described devices are positioned around ym target element, wherein each chamber ger image gives a side of the element © sensors define the sounds surface shape, thereby enabling reproduction of eompíeto element three-dimensional shape, however eese invention is limited the three-dimensional reproduction of a target element and not of the entire census environment in which it is reproduced 2D.
Figure imgf000003_0001
posse ser capturado mm roais de uma i ag , ocasionando uma duplicação deste elemento no produto final da imagem.
Figure imgf000003_0001
can be captured in mm of an image, causing a duplication of this element in the final product of the image.
4 - Solucionando o problema acima citado a Patente US 2001/001055$, publicada em 2 de agosto de 2001 fel incluído um espelho convexo m câmara panorâmica e adequando digitalmente a imagem panorâmica captada sem a diferença de tempo entre as Imagens individuais.  4 - Solving the above-cited problem US Patent 2001/001055 $, issued August 2, 2001, included a convex mirror in a panoramic camera and digitally matching the panoramic image captured without the time difference between the individual Images.
5 - Conforme publicado na Patente US20Q1/0020976 em 13 d setembro de 2001 , foi desenvolvido a eâmera panorâmica estéreo, qual trata» se de duas câmaras panorâmicas utilizando espelhos apropriados ligadas a um estereoscópio, Proporcionando este Invento a produção de imagens panorâmicas em 3 Dim nsões 5 - As reported in U.S. US20Q1 / 0020976 13 d September 2001, was developed stereo panoramic eâmera, which comes' are two panoramic cameras using appropriate mirrors attached to a stereomicroscope, Providing this invention to produce panoramic images 3 Dim nsões
6 - a Patente EP26144Q5 Publicada $m de pino de 2013, foi apresentado um câmara de profundidade a partir da luz estruturada coro; visio estéreo, tal invento capacita uma câmera a captar a distância entre ela e os obfetGS em seu campo de visio atuâíízândo esses dadcs em tempo real, possibilitando assim a reprodução de imagens estéreos e captação de dados de profundidade da cena.  6 - Published Patent EP 26144Q5 $ m 2013, a depth chamber was presented from the structured choir light; In stereo vision, such an invention enables a camera to capture the distance between it and the obfetGS in its field of view by activating these data in real time, thereby enabling the reproduction of stereo images and capture of depth data from the scene.
7 - É de conhecimento comum a captação de imagens de modo tridimensional e com alcance panorâmico das eâmeras, assim podemos reproduzir imagens, vídeos e similares com qualidade estéreo e proporcionar ao usuário autonomia de direção de visto a partir de comandos externos, seja por um arrastar de mouse, um botão de algum controle ou simplesmente girar a cabeça quando equipado com um Heasl ounted Dispiay- porém nenhuma das técnicas apresentadas proporciona a autonomia de posicionamento virtual dentro da imagem ou cena captada, em todos os casos o usuário necessariamente ficará virtualmente estático -na cena do ponto de onde a câmera pos onou-se durante a gr ção. Tal inconveniente prejudica a imersão do usuário a cena virtual, pois diferente do mundo real s técnicas comuns o usuário é sempre um elemento imóvel.  7 - It is common knowledge to capture three-dimensional and pan-wide images of cameras, so we can reproduce stereo-quality images, videos and the like and provide the user with autonomous viewing direction from external commands, either by dragging mouse, a knob of some control or simply turning the head when equipped with a Heasl ounted Dispiay- however none of the techniques presented provides virtual positioning autonomy within the captured image or scene, in all cases the user will necessarily be virtually static - at the scene from where the camera was positioned during the shot. Such inconvenience impairs the immersion of the user to the virtual scene, because unlike the real world to the common techniques the user is always an immovable element.
8 » Tendo em vista esses problemas e no propósito de superá-los foi des nvolvido o:-'^T¾^;, E,O 'íeçÁ0 D:E f AQE S^ VÍDEOS E 'SONS E â BIE É Vl TUÃi 0NlDIM«SiÕMAL Á PiM¾f IR E SENÁS REAIS -COM CONJUNTO DE CAMERAS E SENSORES DE PROFUNDIDADE, REPRODUÇÃO DE IMAGENS, VÍDEOS E SONS EM AMBIENTES VIRTUAIS TftiDIMENCIO AlS COM HEAD MOUHTEO DISFLAY E SENSOR DE MOVIMENTO", ohjeto da presente patente, o qual consiste em produzir arquivos de vídeos, imagens, filmes ou similares m um ambiente onidlreclonal virtual a partir de um conjunto de câmeras panorâmicas convencionais posicionais de forma a criar uma área entre elas, cada câmara captura o ambiente em tomo d si enquanto câmesas de profundidade paralelas as çâmeras panorâmicas passam a digitalizar a istância entre as câmeras panorâmicas e os pkeis da imagem panorâmica e dispositivos para captação sonora do ambiente posicionados preferencialmente no mesmo ponto e posicionamento das câmeras de modo que tanto as vibrações sonoras do ambiente quanto o ponto de posicionamento do dispositivo de captação sonora façam parte dos arquivos de dados digital criado. Deste modo possibilita a criação de um: arquivo contendo informações como» imagens panorâmicas de pontos diferentes de um mesmo ambiente, distância de cada pixel da imagem com a câmera, vibrações sonoras ocasionadas na cena do ambiente no momento da captação das imagens sua localizações em relação as imagens panorâmicas. Visto que o arquivo digita! de ambiente virtual criado possui todas as informações pertinentes a cena capturada, a reprodução desse arquivo pode ser realizada em televisores comuns, computadores pessoais e preferencialmente em um Head Wounted Display utilizando um sensor de movimento embutido ou não, que capta o movimentos de Inclinação e de rotação que o usuário fizer no HMD, fazendo o som e a imagem transmitida na teia sofrer os mesmos movimentos simultaneamente, © um controle de dispositivos podem esse ser acoplado ao MMD ou um dispositivo de controle remoto. 8 »In view of these problems and the purpose of them was to overcome the des nvolvido: - '^ ^ T¾ ;, E, O' íeçÁ0 D: E f ^ S AQE AND VIDEO 'tones and BIE and VL Tuai 0NlDIM' SiÕMAL Á PiM¾f IR AND REAL SENAS -COM CAMERA SET AND DEPTH SENSORS, IMAGE, VIDEO AND SONG PLAYBACK IN VIRTUAL ENVIRONMENTS TftiDIMENCIO ALS WITH HEAD MOUHTEO DISFLAY ", the subject matter of this patent, which consists of producing video, image, movie or similar files m a virtual omni-clonal environment from a set of conventional positional panoramic cameras to create an area between them, each camera captures the environment around itself while parallel depth cameras panoramic cameras begin to digitize the distance between the panoramic cameras and panoramic image pixels and ambient sound pickup devices preferably positioned at the same point and positioning of the cameras so that both the ambient sound vibrations and the sound pickup positioning point are part of the digitally created data files. mode allows the creation of a: contend file o information such as » panoramic images from different points of the same environment, distance from each pixel of the image with the camera, sound vibrations caused in the ambient scene at the moment of capturing its locations relative to panoramic images. Since the file types! created virtual environment has all the information pertinent to the scene captured, the reproduction of this file can be performed on ordinary televisions, personal computers and preferably on a Head Wounted Display using a built-in or not motion sensor, which captures Tilt and rotation that the user makes on the HMD, causing the sound and image transmitted on the web to move the same simultaneously, © a device control may be coupled to the MMD or a remote control device.
9 - Esse novo sistema soluciona todos os inconvenientes já citados.,, visto que a criação do ambiente virtual tridimensional juntamente com o reprodutor adequado, r fcionâ ao espectador a possibilidade completa, e controle de direção de visuaikâçâQ e posicionamento virtual durante a reprodução dos arquivos, oferecendo ao- espectador a sensação de imersão com leta ao ambiente reproduzido. 9 - This new system solves all the drawbacks already mentioned, since the creation of the three-dimensional virtual environment together with the appropriate player, gives the viewer the full possibility, and visual direction control and virtual positioning during the playback of the files. archives, giving the viewer the sensation of a leta-immersion in the reproduced environment.
10 - Os desenhos anexos Hu&tram o sistema de capitação de dados {imagens, distancias e sons) do ambiente e a sua reprodução por mato da um HMD com alcance orskiífeeional, nos quais,  10 - The accompanying drawings Hu & tr the data capture system (images, distances and sounds) of the environment and its reproduction by bush of an HMD with orskiifeeional range, in which,
11 - A Fíg. 1 mostra em vista isométrica, um modelo sim lifica o de câmara de osicionament de imagem com cimeras panorâmicas e câmeras de profundidade com alcance panorâmico neste caso adjacentes a um únic elm.  11 - The Fig. 1 shows in isometric view, a simulated model of panning camera with panoramic cameras and depth cameras with panoramic range in this case adjacent to a single elm.
12 - A Fig, Ia mostra em vista isométrica, um - modelo simplificado de câmera de posicionamento de imagem com câmeras -.panorâmicas e câmeras de profundidade com alcance panorâmico, neste caso adjacentes a um único eixo, com detaihamertio do alcance de cada câmera e a sobreposição de imagens,  12 - Fig. 1a shows in isometric view a simplified model of image positioning camera with panoramas and depth cameras with panoramic range, in this case adjacent to a single axis, with full range of each camera range and image overlay,
13 - Â Fig. 2 mostra em vista isométrica, um modelo de câmera de posicionamento de imagem com câmeras panorâmicas e câmeras de profundidade com alcance panorâmico global, ou seja, alcance unidíreciortai, 13 - Â Fig. 2 shows in isometric view a model of image positioning camera with panoramic cameras and depth cameras with global panoramic range, ie unidirectional range,
14 - A Fig, 3 mostra em vista lateral um exemplo do sistema de criação de arquivos captando os dados do ambiente real para a criação do arquivo de ambiente virtual. Fig. 3 shows in side view an example of the file creation system capturing the real environment data for the virtual environment file creation.
15 - A Fig, 4 mostra m planta o exemplo citado na Fig. 3,  Fig. 4 shows in plan the example cited in Fig. 3,
16 - A Fig. 5 mostra em vista lateral um usuário utilizando um Head foynt d Display para reprodução do arquivos de ambiente virtual, bem com a tela de visão reproduzida no Head ounted Display,  16 - Fig. 5 shows in side view a user using a Head foynt d Display for playback of virtual environment files, as well as the view screen reproduced in the Head ounted Display,
17 - Â Fig;, 8 mostra em perspectiva um modelo¾ó sistema de criação de arquivos captando os dados do ambiente real em um .octógorto de lutas 17 - Â Fig ;, 8 shows in perspective a model¾ó file creation system capturing real environment data in one . octagon of fights
18 - A Fig, ? mostra um exemplo de proporcionalidade de intensidade sonora para reprodução do ambiente de acordo., com o posicionamento virtual do espectador em relação a distância da captação sonora,  18 - Fig,? shows an example of sound intensity proportionality for ambient reproduction according to the viewer's virtual positioning in relation to the distance of the sound capture,
- A Fig, 8 mostra um .exemplo, sim les de um dispositivo de controle dè.-pò^-íciònàmeniò'-resnòtD,Fig. 8 shows an example of a dc-β-βià n nàmeniò ' -resnòtD control device.
Figure imgf000006_0001
20 - A Fig, 9 mostra um squema de fundonamenlQ de ma câmara de posicionamento d® imagem, bem como os dispositivos ue a co põ ,
Figure imgf000006_0001
Fig. 9 shows a background scheme of an image positioning camera as well as co-operative devices.
21 - Â Fig, 10 meeira um esquema de funcfotlamenfo do sistema de transmissão de dâdos das câmeras de posicíonarnersto de imagem para o computador central.  21 Fig. 10 is a diagram of the operation of the data transmission system from the image position cameras to the central computer.
22 - De conformidade com o quanto ilustram s figuras ciladas, o "SlSTEi A DE CRIAÇÃO DE IMAGENS, VÍDEOS E SONS EM AMBIENTE VIRTUAL ONÍDIMENSiONAL A PARTIR DE CENAS REAIS COM CONJUNTO DE CAME AS E SENSORES DE PROFUNDIDADE, REPRODUÇÃO DE IMAGENS, VÍDEOS E SONS EM AMBIENTES VIRTUAIS TRIDJMENCfONAIS COM HEAD MOUNTED DISPLAY E SENSOR DE pVIMENTOw s objeto da presente patente, consiste em eâmerâs de posidot amenfo d© imagem conforme ilustrado rias Fig, 1 e fsg. 2 posicionadas de modo a forma uma área interna entre elas conforme demonstrado «as Fig. 3- Fig, 6, a câmera de posicionamento de irnagem é composta por detemiteda quantidade câmaras de imagem (8) sobre o mesmo posicionamento a direoões diferentes de modo a formar um alcance panorâmico sobre um único eixo éonforme ilustra a Fig. 1 ou sobre vários eixos formando um alcance panorâmico' global conforme ilustra a Fig.. 2, paralela a cada câmera de imagem (8) uma câmera de profundidade (&) com o mesmo ângulo de alcance e na mesma direção da câmera de imagem (8) assim a câmera de profundidade (9) possui também um alcance panorâmico, preferencia imante a câmera de profundidade (9) pode ser do tipo emissor e receptor Infravermelho, que como é de 'conhecimento comum determina a distância dos elementos ao seu alcance com base na. raftetância do infravermelho atingida no receptor, mas. este Intento não se Imita a um único tipo de câmaras de profundidade , visto que este método se adequa a" qualquer tipo de câmeras de profundidade. Um computador interno (1$) na câmera de posieionam nío de imagem (2) Ilustrado na Fig. 9. compreendido por; inter ace para comunicação de. dados sendo elas, interface para câmeras de reagem (25), interface para diapositivo de.captação sonora Ç2 ■■ interface ára ci eras dè:' prÁ dídadè- essa ínferfaoes poclem ser t las soo medid o utísad os modelos .oon eRcidnais çomo; m fi ré, podendo: ainda ser reduzido essas três interfaces (25 f 26 e 27) a uma única interface de comunicação uma bateria interna (28), uma memória RAM (29), ym sistema de poskâona ento (30), um relógio (31), uma memória de si azenamento (32)» um processador (34) uma interface para comunicação externa (33) podendo ser qualquer tipo de Interface utilizando comyrtlcâ io por meio de cabos ou comunicação sem fio, O computador interno (18) sincroniza as câmaras de imagem (8) com as câmeras de profundidade cada câmera de imagem (8) captura de forma individua! a imagem de acordo com seu ângulo de alcance (11), o computador interno (18) compara a imagem gerada de cada câmera com a imagem (8) das câmeras adjace tes deíé mirtandô . a área de sobreposição de Imagem, após a determinação das áreas de sobreposição o computador interno (18) exclui essas áreas da imagem, alinha e uni as imagens adjacentes de cada câmera de forma -a criar uma imagem panorâmica. Câmeras de profundidade (9) captam s digitalizam a distância de todo ambiente e n relação as câmeras. de imagem (8) e a eias mesma Já que se encontram no mesmo posicionamento, o computador Interno (18) com auxilio de um relógio (31) sincroniza os procedimentos de . captação de imagens @ digitalização da distância dos elementos/Baseado na área de sobreposição determinada na captação das imagens, o computador interno (18) exclui os dados de distancia referentes a esta área, Um sistema de posidortamento global GPS (30) è utizado para informar ao oom^utador interno (16) a locaitzacão da câmera de posicionamento da imagem (2). A câmera de posicionamento de Imagem é compreendida ainda por um pedestal (3) para apoio a regulâgem de altura e um dispositivo para captação sonora (13) co o, por exemplo, um ou mais microfones fixados ao pedestal, cada dispositivo de captação sonora (1 ) capta as vibrações sonoras do ambiente de modo individuai sincronizada pelo computador interno (18). com as câmeras de profundidade (9) e de imagem (8), . .. ¾ 22 - As illustrated by the trapped figures, "IMAGE, VIDEO, AND SOUND CREATING SESSIONS IN ONE-DIMENSIONAL VIRTUAL ENVIRONMENT FROM REAL SCENES, DEPTH, VIDEO, AND SONG SENSORS In three-dimensional virtual environments with HEAD MOUNTED DISPLAY and PEOPLE SENSOR w s object of the present invention, consists of amenfo posidot emers as shown in Figs. 1 and 2 as positioned to form an internal area therebetween as shown. In Figs. 3- Fig. 6, the image positioning camera is composed of a number of cameras (8) about the same positioning in different directions to form a panoramic range on a single axis as shown in Fig. 1 or about several axes forming a panoramic 'global reach as illustrated in Fig .. 2 parallel to each imaging camera (8) a depth camera (&) with the same angle al cance in the same direction of the imaging camera (8) so the depth camera (9) also has a wide range, preferably imante depth camera (9) may be the Infrared type transmitter and receiver, which as is' knowledge common determines the distance of the elements within range based on the. infrared frequency reached at the receiver, but. This intent is not imitated for a single type of depth camera, as this method is suitable for " any type of depth camera. An internal computer (1 $) in the image position camera (2) Illustrated in Fig. 9. understood by, inter ace for data communication with them, interface to react (25) cameras, interface to slide sound .captação Ç2 ■■ ára interface IC eras: 'PRA dídadè- this ínferfaoes poclem be t. them soo medid the utísad models .oon eRcidnais as; m fi re, may: It is further reduced these three interfaces (25 f 26 and 27) to a single communication interface an internal battery (28), a RAM (29) memory, poskâona system ym then (30), a clock (31), a memory itself azenamento (32) »a processor (34) an interface for external communication (33) may be any type of interface using comyrtlcâ io via wireless telephone or communication, the onboard computer (18) synchronizes the imaging cameras ( 8) With depth cameras each imaging camera (8) captures individually! the image according to its range angle (11), the internal computer (18) compares the image generated from each camera with the image (8) of the adjunct deíé mirtandô cameras. The Image overlay area, after determining the overlap areas, the internal computer (18) deletes these image areas, aligns and joins the adjacent images of each camera to create a panoramic image. Depth cameras (9) capture s digitize the distance from any environment to the cameras. Since they are in the same position, the Internal computer (18) with the aid of a clock (31) synchronizes the procedures of. image capture @ element distance scanning / Based on the overlapping area determined in the image capture, the internal computer (18) deletes the distance data for this area. A GPS global positioning system (30) is used to inform to the internal user (16) locating the image positioning camera (2). The Image positioning camera further comprises a pedestal (3) for height adjustment support and a sound pickup device (13) such as, for example, one or more microphones attached to the pedestal, each sound pickup device ( 1) captures the ambient sound vibrations individually synchronized by the internal computer (18) . with depth cameras (9) and image (8). . . ¾
23 - A área formada entre as câmeras de posicionamento de imagem 2}s,ê delimitada pelo perímetro limite do ambiente de movimentação (1). como Ilustram as Fi , 3¾ :f¾ 6 cada ci ra d ; posíc^namento : de Imagem Ç2) capta soa im gem: panorâmica, s dados d© - ro||ndldade s vibraçõ^-sònoraé- do ambiente de modo indivi uais si© processados peto computador interno (18) em cada uma delas, essas dados podem ser armazenados na memória de armazenamento (32) interna de cada computador ou emitidos em tempo real a um computador central por melo da interface para comunicação externa (33), essa comunicação pode ser feita por cabo .ou via comunicação, sem fio, 23 - The area formed between the image positioning cameras 2} s is delimited by the boundary perimeter of the movement environment (1). as Fi, 3¾ illustrate: f¾ 6 each ci ra d ; position: Imaging Ç2) captures soa im gem: pan, s data d © - ro || ndldade s vibration mode environment indivi UAI are themselves © processed Peto internal computer (18) in each, these data can be stored in the storage memory (32) internal to each computer or sent in real time to a central computer interface melo for external communication (33), this communication can be done by cable .or via wireless communication,
24 - Os computadores internos (18) enviam por meio da interface de comu icaçã externa (33) os dados gerados a um computador central (35), ilustrado a Fig. 10 composto por: Interface para câmera da posicionamento de imagem (42) odendo ser feitas sob medida ou utilizado os modelos convencionais como USB ou Firewire, uma bateria (36), memória RAM (37) s relógio (39)? memória de armazenamento (40), . processador {41} e interface para comunicação externa (38) podendo ser u quer tipo d interface utilizando comunicação por meio de cabos ou comunicação sem fio. O Computador centrai (35) faz a união dos dados recebidos pelos computadores internos (18) um único arquivo, define o perímetro Jiniite do ambiente de movimentação (1) traçando uma linha de perímetro virtual entre as câmaras d posicionamento de imagem (2) de acordo com as informações fornecidas peto 24 - The internal computers (18) send via the external communication interface (33) the generated data to a central computer (35), illustrated in Fig. 10 consisting of: Image Positioning Camera Interface (42) be custom made or used conventional models such as USB or Firewire, a battery (36), RAM (37) s watches (39) ? storage memory (40),. processor {41} and interface for external communication (38) can be any type of interface using cable communication or wireless communication. The Central Computer (35) merges the data received by the internal computers (18) into a single file, defines the Jiniite perimeter of the moving environment (1) by drawing a virtual perimeter line between the image positioning cameras (2). according to the information provided by
Figure imgf000009_0001
Figure imgf000009_0001
çâmera rofurididadé -(9), s vibrações s nôras serão emlidai dê- cordo ©0:5 o posici namenl de ca a dispositivo de: capta l ^nor : (1.3) durante- a gfá âçfo da cenas sendo que o ioeaf de captação sonsfá passa a ser o focal de B fesio sonora nóamblentev ríuai Camera rofurididadé - (9), s s ñoras vibrations are emlidai Give lanyard © 0: 5 POSITIONS namenl the device to ca: l ^ nor captures: (1.3) durante- of GFA are ACFO wherein the scene of ioeaf somfá uptake becomes the focal point of sound fesio noamblentev ríuai
¾ - Ocasionalmente a e i$sio de infraverme no uma câmera de profundidade (9) pode interferir m recépçld de uma outr câroera de p lli didadê: {©) s j pe iOi ό©'· intuito de. sol cionar esse. pAIèma opcionalmente apôs slribuldas as câm s: de posicionamento, de imag m (¾ no m iente d g arão e- ntes de pfée;ncrter .ambiénfecom elemsntos móveis, acbrsar iodo o sistema em um modo d© tese, assim o computador central (35) aciona primeiramente uma câmera de posicionamento de Imagem (2) individuai e depois outra e assim sucessivamente até que todas tenham registrado os dados do ambiente de teste, féíto isso o oõmpyíador aciona todas as câmaras da posicionamento de Imagem (2) de uma sé vez» qualquer leitura com interferência ou se| s que não coincida com a primeira feitura, é r cess da pelo oomputa óf ceptral 3S . qpe por sua vez e ab í¾ um p!ar¾o d sincfQfíízaçio- dai: êâmems dè:; profundidad ($), ye,. 8ssarn« trabalhar de-- ferro : ate ada sempre coi¾ dr¾çençj'" mínima a ponto ; e nio serem, ercebidas durante repro uçi o do rquivo. Outra so ução viável é ex^ulr o emissor infra v¾rmelèO: ciai câmeras $ t í (¾ e tne uir dli ossfeo^ e
Figure imgf000010_0001
¾ - Occasionally the infrared signal from a depth camera (9) may interfere with the reception of another camera camera: {©) sj by iOi ό © ' · intended for . sun c tion this one. optionally after splitting the positioning , imaging, and m etations (¾ at the same time as before); iodine the system in a thesis mode, so the central computer (35) first drives an individual Image positioning camera (2) and then another and so on until all of them have recorded the test environment data, If this is true, the oscillator triggers all Image positioning cameras (2) at once »any interference reading or if | If it does not coincide with the first work, it is terminated by the ceptral computation 3S. ! QPE and turn ab í¾ ap d ar¾o sincfQfíízaçio- give: êâmems of:; depth ($), ye ,. 8ssarn 'of- work Iron: Ada always up coi¾ dr¾çençj'"the minimum point, and nio be, for repro ercebidas the UCI rquivo Another example is only feasible ^ ck ULR below the emitter v¾rmelèO:. $ T i cameras ClaI (Ne e tne uir dli ossfeo ^ e
Figure imgf000010_0001
câmera de profundidade (9) desde que atinjam toda área de alcanc na câmera de posicon amento d Imagem (2) evitando assim a sobreposição da área alça nçedâ peio infravermelho, O computador central pode ser um elemento externo ao ambiente, ou um dos computadores interno âe uma das câmaras de posicionamento de Imagem.  depth camera (9) as long as they reach the entire reach area in the positioning camera d Image (2) thus avoiding overlapping the infrared handle area. The central computer can be an external element, or one of the internal computers. It is one of the Image positioning cameras.
Figure imgf000010_0002
Figure imgf000010_0002
em bulido as BMP , com um com putâdo r que é ¾spc¾sãvef por decodifica r as informações recebidas do sensor de movimento e transmiti-la a teia do HMD (14), Ao iniciar o HMD (14) o programa de..computador registra a Inclinação Iniciai nos eixos iniciais {23} do sensor (14), a partir deste momento quando o usuário inclina a cabeça forma uma nova inclinação para o eixos (24) que consequentemente cria-se ângulos cia diferença de inclinação para os  BMP, with a computer that is capable of decoding the information received from the motion sensor and transmitting it to the HMD web (14). When starting HMD (14) the computer program records the Inclination Initiate on the initial axes {23} of the sensor (14), from this moment on when the user tilts the head forms a new inclination for the axes (24) which consequently creates angles of the inclination difference for the
Figure imgf000010_0003
então reproduzida uma nova imagem na tela do usuário após Inclinação ou rotação (17), para autonomia de posicionamento pode ser utilizado o contrate de profundidade (19) embutido ao ΗΜΡ ou remoto conforme ilustra a Fig< 8 contando um botão de ligar e desligar (22) uni otão de sincronização (20) para sincroniza-lo a seu respectivo HMD (14) e botões de autonomia (21) como controle de movimentação, volume, pause e similares,, quando utilizado um controle remoto antes do início de reprodução do arquivo digita! de ambiente virtual o usuário sincroniza seu controle remoto de profundidade (19) com seu HIVID e Já pode inidalizsr a reprodução do arquivo, durante a reprodução quando o usuário desejar mudar ¾su ..posicionamento virtual dentro do ambiente, basta cllcar nos botões de autonomia. (2 )!que os dados recebido pelo controle serio emitidos para o programa do HMÚ por meio de comunicação reiess que por sua vez ajustará a imagem onrdiracionaí (12) de acordo com o novo posicionamento virtual do espectador, o ajuste de reprodução de sons festa peio programa sé a. partir das linhas de proporcionalidade sonoras do eixo " " (?) das linhas de proporcionalidades sonoras do esxo y (6), que contraiam a intensidade de reprodução sonora de acordo com a distanci virtual que o usuário está em relação aos locais d© emissão sonora no ambiente virtual, como ilustra o exemplo na Hg, ? de reprodução de sons referente ao locai de emissã sonora no ambiente virtual (43) indicado.
Figure imgf000010_0003
A new image is then reproduced on the user's screen after Tilt or Rotation (17), for positioning autonomy the depth contract (19) built into the ao or remote can be used as shown in Fig <8 with an on / off button ( 22) synchronization knob (20) to synchronize it to its respective HMD (14) and autonomy buttons (21) such as movement, volume, pause and the like control, when a remote control is used before playback starts. file type! virtual environment the user synchronizes his depth remote control (19) with his HIVID and can now disable file playback during playback when the user wants to change their virtual positioning within the environment by simply clicking the autonomy buttons . (2) ! Since the data received by the serious control emitted to the HMÚ program by reiess communication which in turn will adjust the onrdiracionaí image (12) according to the new virtual positioning of the viewer, the adjustment of party sound reproduction by the program s is The. from the sound proportionality lines of the axis "" (?) of the sound proportionality lines of the esxo y (6), which contract the sound reproduction intensity according to the virtual distance that the user is in relation to the sound emission locations. in the virtual environment, as the example in Hg illustrates,? of sound reproduction for the sound location in the indicated virtual environment (43).

Claims

mwmmcAÇÃQ mwmmcAÇÃQ
1) Uma câmera de posicionamento de imagem panorâmica caracterizado por compreender câmaras de imagem paralelas a câmaras de profundidade ligadas a um computador. Caracterizado por possibilitar o computador a formar uma Imagem panorâmica e posicionar cada pixel dessa imagem panorâmica de acordo com a distancia captada na eârnera de profundidade, 1) A panoramic image positioning camera comprising cameras parallel to depth cameras connected to a computer. Characterized by enabling the computer to form a panoramic image and position each pixel of that panoramic image according to the distance captured in the depth beam,
2) O método da reivindicação 1 em u é Incluso um: oy mais dispositivos de captação sonora apoiada m um pedestal ou remoto a câmara de posicionamento. Caracterizado por digitalizar as vibrações sonoras ao computador Interno da câmera de posicionamento,  The method of claim 1 wherein there is one or more sound pickup devices supported on a pedestal or remote positioning chamber. Characterized by digitizing sound vibrations to the positioning camera's internal computer,
3) O método da reivindicação 1 caracterizado por conter m computador interno a câmera de posicionamento de imagem compreendendo por; processador, bateria, memória RAM, memória de armazenamento^ Interface para câmara de Imagem, interface para câmera de profundidade, interface para dispositivos de captação sonora,  The method of claim 1, wherein the internal positioning computer comprises the image positioning camera comprising; processor, battery, RAM, storage memory ^ Camera interface, depth camera interface, sound device interface,
4) O método da i¾ ndtoaçâo 3 composto também por um relógio, caracterizado por permitir a sincronização da captura das imagens com a profundidade do ambiente, e permitir também a alternância de emissão de infravermelho da câmera de profundidade.  (4) The method of Indication 3 also comprises a clock, characterized in that it allows the synchronization of the capture of images with the depth of the environment, and also allows the alternation of infrared emission from the depth camera.
5) O método da reivindicação 3 composto também por um sistem de posicionamento (GPS)» caracterizado por possioitar ao computador definir seu próprio posicionamento dentro de um ambiente e. em relação a outros elementos externos que também possuam GPS, 5) The method of claim 3 also comprising a positioning SYSTEM (GPS) "wherein the computer possioitar define its own position within an environment. relative to other external elements that also have GPS,
6) Um sistema de criação de dados de um &mbi< t& wrtm a partir de cenas reais, caracterizado por um conjunto de cámeras de posicionamento de imagem distribuídas de modo a formar uma área entre elas,  (6) a real scene data creation system, characterized by a set of image positioning cameras distributed to form an area between them,
7) o método da reivindicação 6 ^ contendo um computador central composto por: interface da câmera de posicionamento de imagem, bateria, memória RAM, interface para comunicação externa, memória de armazenamento, relógio e processador, caracterizado por receber os dados de cada câmera de posicionamento, criar um ambiente virtual a partir desses dados, sifKjfõnizar as câmeras de posíc onaniento alternar a emissão de infmvermeffcos do sistema, 7) the method of claim 6. A computer containing a central composed of picture positioning the camera interface, battery, RAM, external communication interface, storage memory, clock and processor, characterized by receiving data each positioning camera, create a virtual environment from this data, sifKjonize the positioning cameras by alternating the emission of system infmemmes,
8) Reprodução de arquivos do ambiente vlrl ai em Head Mounted Display com sensor de movimento, caracterizado por adequar a imagem transmitida na tela do Head Mounted Display com os movimentos executados pelo usuário,  8) Reproduction of vlrl ai environment files on Head Mounted Display with motion sensor, characterized by matching the image transmitted on the Head Mounted Display screen to the movements performed by the user,
9} Reprodução de arquivos do ambiente . virtual em televisor çomums caracterizado por adequar o controle remoto usual comandos de posicionamento e direção de imagem, possibilitando assim que o televisor comum reproduza Imagens do ambiente virtual com autonomia de direção e posicionamento de visyaltzaçio* 9} Playing environment files. Virtual TV in common are characterized by adjusting the usual remote positioning commands and image direction, thereby enabling the common TV reproduces images of the virtual environment with a range of direction and positioning visyaltzaçio *
10) Dispositivo de control de positíonamemo para reprodução de arquivos de ambiente virtual com autonomia de posicionamento, caracteriza pelo fato de permitir ao usuário uma movimentação virtual dentro do ambiente criado através de comandos contidos no contr íe remoto ao visor de reprodução,  10) Positioning control device for playback of virtual environment files with positioning autonomy, characterized by the fact that it allows the user a virtual movement within the environment created by commands contained on the remote control to the playback display;
11) Sistema de reprodução sonora em ambiente virtual, caracterizado pelo fato do sistema controlar a emissão sonora alimentando ou diminuindo proporcionalmente sua intensidade de acordo com, o posidonamenfo do usuário em relação ao emisso sonoro.  11) Sound reproduction system in virtual environment, characterized by the fact that the system controls the sound emission by feeding or proportionally decreasing its intensity according to the user's posidonamenfo in relation to the sound emission.
PCT/BR2015/000128 2014-08-27 2015-08-26 System for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor WO2016029283A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
BR102014021182A BR102014021182A2 (en) 2014-08-27 2014-08-27 One-dimensional virtual environment imagery, video and sound system from real-world scenes with set of cameras and depth sensors, three-dimensional virtual image, video and sound reproduction with head mounted display and motion sensor
BRBR1020140211829 2014-08-27
BR102015020597 2015-08-26
BRBR1020150205970 2015-08-26

Publications (1)

Publication Number Publication Date
WO2016029283A1 true WO2016029283A1 (en) 2016-03-03

Family

ID=55398518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/BR2015/000128 WO2016029283A1 (en) 2014-08-27 2015-08-26 System for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor

Country Status (1)

Country Link
WO (1) WO2016029283A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301665A (en) * 2017-05-03 2017-10-27 中国科学院计算技术研究所 Depth camera and its control method with varifocal optical camera

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US7463280B2 (en) * 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US20140111608A1 (en) * 2011-05-05 2014-04-24 Panono Gmbh Camera system for recording images, and associated method
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20140146132A1 (en) * 2010-10-29 2014-05-29 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US7463280B2 (en) * 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US20140146132A1 (en) * 2010-10-29 2014-05-29 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system
US20140111608A1 (en) * 2011-05-05 2014-04-24 Panono Gmbh Camera system for recording images, and associated method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301665A (en) * 2017-05-03 2017-10-27 中国科学院计算技术研究所 Depth camera and its control method with varifocal optical camera

Similar Documents

Publication Publication Date Title
US11259009B2 (en) Modular configurable camera system
KR101986329B1 (en) General purpose spherical capture methods
US10218885B2 (en) Throwable cameras and network for operating the same
CN106662793B (en) Use the gimbal system of stable gimbal
US9479703B2 (en) Automatic object viewing methods and apparatus
US20160286119A1 (en) Mobile Device-Mountable Panoramic Camera System and Method of Displaying Images Captured Therefrom
US20130176403A1 (en) Heads up display (HUD) sensor system
CA2568617C (en) Digital 3d/360 degree camera system
US11212437B2 (en) Immersive capture and review
US10277890B2 (en) System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
US20170195568A1 (en) Modular Panoramic Camera Systems
US20150234156A1 (en) Apparatus and method for panoramic video imaging with mobile computing devices
KR102491749B1 (en) Panoramic 3D Imaging System
JP2005092121A (en) Photographing auxiliary device, image processing method, image processing device, computer program, and recording medium storing program
US9939843B2 (en) Apparel-mountable panoramic camera systems
WO2014162324A1 (en) Spherical omnidirectional video-shooting system
JP5407640B2 (en) Image compatible device, operation setting method, program
CN105794197A (en) Portable device capable of generating panoramic file
JP2004514951A (en) Spherical stereoscopic imaging system and method
US20170195563A1 (en) Body-mountable panoramic cameras with wide fields of view
US20180124374A1 (en) System and Method for Reducing System Requirements for a Virtual Reality 360 Display
WO2020000394A1 (en) Time-lapse photography control method and control device, imaging system, and storage medium
US20160316249A1 (en) System for providing a view of an event from a distance
WO2016029283A1 (en) System for creating images, videos and sounds in an omnidimensional virtual environment from real scenes using a set of cameras and depth sensors, and playback of images, videos and sounds in three-dimensional virtual environments using a head-mounted display and a movement sensor
US9160904B1 (en) Gantry observation feedback controller

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15836491

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15836491

Country of ref document: EP

Kind code of ref document: A1