WO2005095887A1 - 投影装置および3次元形状検出装置 - Google Patents

投影装置および3次元形状検出装置 Download PDF

Info

Publication number
WO2005095887A1
WO2005095887A1 PCT/JP2005/005862 JP2005005862W WO2005095887A1 WO 2005095887 A1 WO2005095887 A1 WO 2005095887A1 JP 2005005862 W JP2005005862 W JP 2005005862W WO 2005095887 A1 WO2005095887 A1 WO 2005095887A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
light
semiconductor light
image
projection device
Prior art date
Application number
PCT/JP2005/005862
Other languages
English (en)
French (fr)
Inventor
Takeo Iwasaki
Original Assignee
Brother Kogyo Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Kogyo Kabushiki Kaisha filed Critical Brother Kogyo Kabushiki Kaisha
Publication of WO2005095887A1 publication Critical patent/WO2005095887A1/ja
Priority to US11/535,457 priority Critical patent/US7845807B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21KNON-ELECTRIC LIGHT SOURCES USING LUMINESCENCE; LIGHT SOURCES USING ELECTROCHEMILUMINESCENCE; LIGHT SOURCES USING CHARGES OF COMBUSTIBLE MATERIAL; LIGHT SOURCES USING SEMICONDUCTOR DEVICES AS LIGHT-GENERATING ELEMENTS; LIGHT SOURCES NOT OTHERWISE PROVIDED FOR
    • F21K9/00Light sources using semiconductor devices as light-generating elements, e.g. using light-emitting diodes [LED] or lasers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7416Projection arrangements for image reproduction, e.g. using eidophor involving the use of a spatial light modulator, e.g. a light valve, controlled by a video signal

Definitions

  • the present invention relates to a projection device and a three-dimensional shape detection device that can suppress uneven illuminance of light emitted to a semiconductor light emitting element spatial modulation element and project a high-quality image on a projection surface.
  • a projection apparatus configured to project an arbitrary image on a projection surface by spatially modulating light having a light source power using a spatial modulation element.
  • a projection apparatus condenses light emitted from a light source with a condensing optical system, performs spatial modulation according to an image signal on the condensed light with a spatial modulation element, and performs The light subjected to the spatial modulation is projected as an image signal light on a projection surface via a projection means.
  • a light source of the projection device As a light source of the projection device, a xenon lamp, a halogen lamp, a metal halide lamp, or the like has been conventionally used. Since such a light source has a short life as a light source and cannot perform on-off modulation, it must be used continuously in a projection device, and therefore consumes a large amount of power in a conventional projection device! There was a problem.
  • Document 1 Japanese Patent Application Laid-Open No. 11-32278 (hereinafter, referred to as Document 1) and Japanese Patent Application Laid-Open No. 11-231316 (hereinafter, referred to as Document 2) disclose a projection device.
  • a technology using a semiconductor light emitting element, specifically, a light emitting diode (hereinafter, referred to as “LED”) as a light source has been disclosed.
  • the life of the light source can be extended and the power consumption can be reduced.
  • the output light of the LED has a strong directivity and a small light-emitting area, The light collection efficiency is increased, and as a result, the light use efficiency can be improved.
  • the present invention has been made to solve the problems described above. That is, the present invention provides a projection device and a three-dimensional shape detection device capable of suppressing unevenness in illuminance of light emitted to a semiconductor light emitting element and a spatial modulation element and projecting a high-quality image on a projection surface. It is aimed at.
  • a projection apparatus which includes a plurality of semiconductor light emitting devices that emit light, and a light emitting device that emits light by the semiconductor light emitting devices. And a projection means for projecting the image signal light output from the spatial modulation element onto a projection surface.
  • the plurality of semiconductor light emitting elements is a semiconductor light emitting element array in which at least two or more semiconductor elements are linearly arranged at a first pitch in a first direction on a substrate supporting the plurality of semiconductor light emitting elements.
  • the first pitch is equal to or less than the full width at half maximum of the illuminance distribution formed in the spatial light modulator by the light emitted from one of the semiconductor light emitting elements. It is arranged as follows.
  • the first pitch is one power of the semiconductor light emitting element.
  • the light is arranged below the full width at half maximum of the illuminance distribution formed in the spatial light modulator by the emitted light. Therefore, a decrease in illuminance between adjacent semiconductor light emitting elements can be suppressed. Therefore, illuminance unevenness in the spatial modulation element is suppressed, and substantially uniform light can be applied to the spatial modulation element. As a result, an effect that a high-quality image can be projected on the projection surface is obtained.
  • a projection device which includes a plurality of semiconductor light emitting elements that emit light, and performs spatial modulation on light emitted by the semiconductor light emitting elements.
  • a spatial modulation device that outputs image signal light, and a projection unit that projects the image signal light output from the spatial modulation device toward a projection surface.
  • the plurality of semiconductor light-emitting elements are arranged in a staggered manner on a substrate that supports the plurality of semiconductor light-emitting elements. According to such a configuration, since the plurality of semiconductor light emitting elements are arranged in a staggered manner on the substrate supporting the plurality of semiconductor light emitting elements, the illuminance between adjacent semiconductor light emitting elements can be reduced.
  • the front row or rear row semiconductor light emitting elements can be supplemented by the front row or rear row semiconductor light emitting elements. Therefore, illuminance unevenness in the spatial light modulator can be suppressed. Therefore, it is possible to irradiate substantially uniform light to the spatial modulation element, and to obtain an effect that a high-quality projected image can be projected.
  • a projection device having the above-described configuration and a projection direction in which image signal light output from projection means provided in the projection device is projected are arranged.
  • An imager that projects a pattern light as image signal light onto an object to be projected, and detects a three-dimensional shape of the object based on an image captured by the imager.
  • a three-dimensional shape detecting device provided with a three-dimensional shape detecting means.
  • FIG. 1 is an external perspective view of an image input / output device.
  • FIG. 2 is a diagram showing an internal configuration of an imaging head.
  • FIG. 3 (a) is an enlarged view of an image projection unit
  • FIG. 3 (b) is a plan view of a light source lens
  • FIG. 3 (c) is a front view of a projection LCD.
  • FIG. 4 (a) Force FIG. 4 (c) is a diagram for explaining the arrangement of LED arrays.
  • FIG. 5 is an electrical block diagram of the image input / output device.
  • FIG. 6 is a flowchart of a main process.
  • FIG. 7 is a flowchart of a digital camera process.
  • FIG. 8 is a flowchart of a webcam process.
  • FIG. 9 is a flowchart of a projection process.
  • FIG. 10 is a flowchart of stereoscopic image processing.
  • FIG. 11 (a) is a diagram for explaining the principle of the spatial code method
  • FIG. 11 (b) is a diagram for explaining the principle of the spatial code method
  • FIG. 4 is a diagram showing a mask pattern (gray code) different from 1 (a).
  • FIG. 12 (a) is a flowchart of a three-dimensional shape detection process.
  • FIG. 12B is a flowchart of the imaging process.
  • FIG. 12C is a flowchart of the three-dimensional measurement processing.
  • FIG. 13 is a diagram for explaining an outline of a code boundary coordinate detection process.
  • FIG. 14 is a flowchart of a code boundary coordinate detection process.
  • FIG. 15 is a flowchart of a process for obtaining code boundary coordinates with sub-pixel accuracy.
  • FIG. 16 is a flowchart of a process for calculating a CCDY value of a boundary for a luminance image having a mask pattern number of PatID [i].
  • 17 (a) to 17 (c) are diagrams for explaining a lens aberration correction process.
  • FIG. 18 (a) and FIG. 18 (b) are diagrams for explaining a method of calculating three-dimensional coordinates in a three-dimensional space from coordinates in a CCD space.
  • FIG. 19 is a flowchart of flattened image processing.
  • FIG. 20 (a) to FIG. 20 (c) are diagrams for explaining a document attitude calculation process.
  • FIG. 21 is a flowchart of a plane conversion process.
  • FIG. 22 (a) is a diagram for explaining the outline of a curvature calculation process
  • FIG. 22 (b) is a diagram showing a flattened image flattened by a plane conversion process.
  • FIG. 23 (a) is a side view showing another example of the light source lens
  • FIG. 23 (b) is a plan view showing the light source lens of FIG. 23 (a).
  • FIG. 24 (a) is a perspective view showing a state in which a light source lens is fixed
  • FIG. 24 (b) is a partial cross-sectional view thereof.
  • FIG. 25 is a diagram showing another example of the pattern light projected on the subject.
  • FIG. 1 is an external perspective view of the image input / output device 1.
  • FIG. The projection device and the three-dimensional shape detection device of the present invention are devices included in the image input / output device 1.
  • the image input / output device 1 includes a digital camera mode functioning as a digital camera, a webcam mode functioning as a web camera, a stereo image mode for detecting a three-dimensional shape to obtain a three-dimensional image, a curved document.
  • a digital camera mode functioning as a digital camera
  • a webcam mode functioning as a web camera
  • a stereo image mode for detecting a three-dimensional shape to obtain a three-dimensional image
  • a curved document includes a digital camera mode functioning as a digital camera, a webcam mode functioning as a web camera, a stereo image mode for detecting a three-dimensional shape to obtain a three-dimensional image, a curved document.
  • Various modes such as a flattened image mode for acquiring a flattened image obtained by flattening the image and the like are provided.
  • FIG. 1 in particular, in the stereoscopic image mode or the flattened image mode, in order to detect the three-dimensional shape of the original P as a subject, a stripe formed by alternately arranging light and dark from an image projection unit 13 described later. The shape of the pattern light is projected to show the shape of the shape.
  • the image input / output device 1 has an imaging head 2 formed in a substantially box shape, a pipe-shaped arm member 3 having one end connected to the imaging head 2, and an end connected to the other end of the arm member 3. And a base 4 formed in a substantially L-shape in plan view.
  • the imaging head 2 is a case in which an image projection unit 13 and an image imaging unit 14 described later are included.
  • a cylindrical lens barrel 5 is arranged at the center, a finder 6 is arranged diagonally above the lens barrel 5, and a flash 7 is arranged on the opposite side of the finder 6.
  • a part of a lens of an imaging optical system 21 which is a part of an image pickup unit 14 described later is exposed on the outer surface. The image of the subject is input with this exposed partial force of the imaging optical system.
  • the lens barrel 5 is formed so as to protrude from the front of the imaging head 2 and has an image inside.
  • the cover includes a projection optical system 20, which is a part of the projection unit 13.
  • the projection optical system 20 is held, the whole can be moved for focus adjustment, and the projection optical system 20 is prevented from being damaged.
  • a part of the lens of the projection optical system 20, which is a part of the image projection unit 13, is exposed to the outer surface from the end surface of the lens barrel 5, and the image signal light is also projected toward the projection surface with this exposed partial force. .
  • the finder 6 is composed of an optical lens disposed through the rear and front faces of the imaging head 2. When the user looks into the back surface of the imaging head 2, a range that substantially matches the range where the imaging optical system 21 forms an image on the CCD 22 can be seen.
  • the flash 7 is, for example, a light source for supplementing a required amount of light in the digital camera mode, and is configured by a discharge tube filled with xenon gas. Therefore, it can be used repeatedly by discharging from a capacitor (not shown) built in the imaging head 2.
  • a release button 8 is arranged on the near side, a mode switching switch 9 is arranged behind the release button 8, and a monitor LCD 10 is arranged on the opposite side of the mode switching switch 9. ing.
  • the release button 8 is composed of a two-stage push button switch that can be set to two states, a "half-pressed state” and a "fully-pressed state.”
  • the state of the release button 8 is managed by a processor 15 described later.
  • the well-known auto focus (AF) and automatic exposure (AF) functions are activated when the release button 8 is "half-pressed”, and the focus, aperture, and shirt speed are adjusted.
  • imaging is performed.
  • the mode switching switch 9 is a switch for setting various modes such as a digital camera mode, a webcam mode, a stereoscopic image mode, a flattened image mode, and an off mode.
  • the state of the mode switching switch 9 is managed by the processor 15, and the processing of each mode is executed when the state of the mode switching switch 9 is detected by the processor 15.
  • the monitor LCD 10 is configured by a liquid crystal display (Liquid Crystal Display), and receives an image signal from the processor 15 to display an image to a user.
  • the monitor LCD 10 displays captured images in the digital camera mode or webcam mode, 3D shape detection result image, flattened image in flattened image mode, etc. are displayed.
  • An antenna 11 as an RF (wireless) interface and a connecting member 12 for connecting the imaging head 2 and the arm member 3 are arranged above the side surface of the imaging head 2.
  • the antenna 11 is used to transmit captured image data acquired in a digital camera mode, stereoscopic image data acquired in a stereoscopic image mode, and the like via an RF driver 24 to be described later to an external interface by wireless communication.
  • the connecting member 12 is formed in a ring shape, and a female screw is formed on an inner peripheral surface thereof.
  • the connecting member 12 is rotatably fixed to a side surface of the imaging head 2.
  • a male screw is formed at one end of the arm member 3.
  • the arm member 3 is for holding the imaging head 2 at a predetermined imaging position so as to be changeable, and is constituted by a bellows-like pipe that can be bent into an arbitrary shape. Therefore, the imaging head 2 can be directed to an arbitrary position by the arm member 3.
  • the base 4 is mounted on a mounting table such as a desk, and supports the imaging head 2 and the arm member 3. Since the base 4 is formed in a substantially L-shape in plan view, the imaging head 2 and the like can be stably supported.
  • the base 4 and the arm member 3 are detachably connected to each other, which makes it easy to carry the image input device 1 and also makes it possible to store the image input device 1 in a small space.
  • FIG. 2 is a diagram schematically showing an internal configuration of the imaging head 2.
  • the imaging head 2 mainly includes an image projection unit 13, an image imaging unit 14, and a processor 15.
  • the image projection unit 13 is a unit for projecting an arbitrary projection image on a projection surface.
  • the image projection unit 13 includes a substrate 16, a plurality of LEDs 17 (hereinafter collectively referred to as “LED array 17 A”), a light source lens 18, a projection LCD 19, and a projection optical system 20 along the projection direction. It has.
  • the image projection unit 13 will be described later in detail with reference to FIGS. 3 (a) to 3 (c).
  • the image capturing section 14 is a unit for capturing an image of a document P as a subject.
  • the image capturing section 14 includes an image capturing optical system 21 and a CCD 22 along the light input direction.
  • the imaging optical system 21 includes a plurality of lenses.
  • the imaging optical system 21 has a well-known autofocus function, and automatically adjusts the focal length and aperture to form an image of an external force on the CCD 22.
  • the CCD 22 has photoelectric conversion elements such as CCD (Charge Coupled Device) elements arranged in a matrix.
  • the CCD 22 generates a signal corresponding to the color and intensity of light of an image formed on the surface of the CCD 22 via the imaging optical system 21, converts the signal into digital data, and outputs the digital data to the processor 15.
  • a flash 7, a release button 8, a mode switching switch 9, an external memory 27, and a cache memory 28 are electrically connected. Further, the processor 15 is connected to the monitor LCD 10 via the monitor LCD driver 23, the antenna 11 via the RF driver 24, the battery 26 via the power supply interface 25, and the light source driver 29 via the light source driver 29.
  • the LED array 17A is connected, the projection LCD 19 is connected via the projection LCD driver 30, and the CCD 22 is connected via the CCD interface 31.
  • the external memory 27 is a detachable flash ROM, which is used for a digital camera mode, a webcam mode, and a stereoscopic image mode!
  • the stored image and three-dimensional information are stored.
  • an SD card, a CompactFlash (registered trademark) card, or the like can be used as the external memory 27.
  • the cache memory 28 is a high-speed storage device. For example, in the digital camera mode, the captured image is transferred to the cache memory 28 at a high speed, processed by the processor 15, and then stored in the external memory 27. Specifically, SDRAM, DDRR AM, or the like can be used.
  • Power supply interface 25, light source driver 29, projection LCD driver 30, CCD interface The case 31 is configured by an IC (Integrated Circuit).
  • the power supply interface 25, the light source driver 29, the projection LCD driver 30, and the CCD interface 31 control the notch 26, the LED array 17A, the projection LCD 19, and the CCD 22, respectively.
  • FIG. 3A is an enlarged view of the image projection unit 13
  • FIG. 3B is a plan view of the light source lens 18, and
  • FIG. 3C shows an arrangement relationship between the projection LCD 19 and the CCD 22.
  • the image projection unit 13 includes the substrate 16, the LED array 17A, the light source lens 18, the projection LCD 19, and the projection optical system 20 along the projection direction.
  • the substrate 16 is for mounting the LED array 17A and for performing electrical wiring with the LED array 17A.
  • a substrate formed by applying an insulating resin to an aluminum substrate and forming a pattern by a capillary electroless plating, or a substrate having a single layer or a multilayer structure having a core of a force epoch substrate. can be used.
  • the LED array 17 A is a light source that emits radial light toward the projection LCD 19.
  • the LED array 17A is composed of a plurality of LEDs 17 (light emitting diodes) arranged in a staggered manner on the substrate 16.
  • the plurality of LEDs 17 are bonded to the substrate 16 via a silver paste, and are electrically connected to the substrate 16 via bonding wires.
  • the efficiency of converting electricity into light is increased as compared with a case where an incandescent light bulb, a nitrogen lamp, or the like is used as a light source.
  • generation of infrared rays and ultraviolet rays can be suppressed. Therefore, according to the present embodiment, the light source can be driven with low power consumption, and power saving and long life can be achieved. Further, the temperature rise of the device can be reduced.
  • the LED 17 since the LED 17 generates extremely low heat rays as compared with a halogen lamp or the like, a resin lens can be used as the light source lens 18 and the projection optical system 20 described later. Therefore, the light source lens 18 and the projection optical system 20 can be configured inexpensively and lightly in comparison with the case where a glass lens is employed.
  • Each LED 17 constituting the LED array 17A emits the same emission color.
  • Each of the LEDs 17 uses four elements of Al, In, Ga, and P as materials, and emits an amber color. Therefore, it is not necessary to consider the correction of chromatic aberration that occurs when emitting a plurality of emission colors. It is not necessary to use an achromatic lens as the projection optical system 20 to correct chromatic aberration. It is effective to provide a simple surface configuration and an inexpensive material projection means!
  • the LED array 17A is composed of 59 LEDs 17, and each LED 17 is driven at 50mW (20 mA, 2.5V). Therefore, all 59 LEDs 17 are driven with approximately 3W of power consumption.
  • the luminous power emitted from each LED 17 The brightness as the luminous flux when illuminated from the projection optical system 20 through the light source lens 18 and the projection LCD 19 is set to about 25 ANSI lumens even in the case of full illumination. T!
  • the light source lens 18 is a lens as a condensing optical system for condensing light emitted radially from the LED array 17A, and is made of an optical resin represented by acrylic.
  • the light source lens 18 projects at a position facing each LED 17 of the LED array 17A, and supports the convex lens portion 18a protruding toward the LCD 19 side, and the lens portion 18a.
  • Epoxy sealing material for the purpose of sealing the LED 17 filled in the opening inside the base portion 18b and the base portion 18b and enclosing the LED array 17A and bonding the substrate 16 to the light source lens 18 18c, and positioning pins 18d projecting from the base portion 18b to the substrate 16 side and connecting the light source lens 18 and the substrate 16 to each other.
  • the light source lens 18 is fixed on the substrate 16 by inserting the positioning pins 18 d into the long holes 16 formed in the substrate 16 while enclosing the LED array 17 A inside the opening.
  • the light source lens 18 can be arranged in a small space. Also, by providing a function of supporting the light source lens 18 in addition to the function of mounting the LED array 17A on the substrate 16, it is not necessary to separately provide a component for supporting the light source lens 18, and the part is not required. The number of parts can be reduced.
  • Each lens portion 18a is arranged at a position facing each LED 17 of the LED array 17A in a one-to-one relationship.
  • each LED 17 is efficiently condensed by each lens section 18a facing each LED 17, and projected as highly directional radiation light as shown in FIG. 3 (a). Irradiated on LCD19.
  • the reason why the directivity is increased in this way is that by making light incident on the projection LCD 19 substantially perpendicularly, in-plane transmittance unevenness can be suppressed.
  • the reason why the directivity is improved is that the projection optical system 20 has telecentric characteristics and its incident NA is about 0.1, so that only light within vertical ⁇ 5 ° can pass through the internal aperture. This is because it is regulated.
  • the emission angle of the light from the LED 17 is set to be perpendicular to the projection LCD 19 and that almost all the light flux of ⁇ 5 ° is introduced. This is because, when light with a perpendicular force deviating from the projection LCD 19 is incident, the transmittance changes depending on the incident angle due to the optical rotation of the liquid crystal, and this is a force that causes transmittance unevenness.
  • the projection LCD 19 is a spatial modulation element that performs spatial modulation on light condensed through the light source lens 18 and outputs image signal light to the projection optical system 20.
  • the projection LCD 19 is composed of a plate-like liquid crystal display (Liquid Crystal Display) having different vertical and horizontal sizes.
  • each pixel constituting the projection LCD 19 has one pixel column linearly arranged along the longitudinal direction of the projection LCD 19, and the one pixel column. Is arranged so that another pixel row shifted by a predetermined distance in the longitudinal direction of the projection LCD 19 is alternately arranged in parallel.
  • the front side of the drawing corresponds to the front side of the imaging head 2, and light is emitted toward the projection LCD 19 from the back side of the drawing.
  • the light of the subject power goes from the troublesome side of the paper to the back side, and the subject image is formed on the CCD 22.
  • the projection pattern can be controlled with a fine pitch, and the three-dimensional shape can be detected with high accuracy by increasing the resolution.
  • a stereoscopic image mode or a flattened image mode to be described later when projecting a striped pattern light in which light and dark are alternately arranged toward an object to detect a three-dimensional shape of the object, By making the stripe direction coincide with the short direction of the projection LCD 19, the boundary between light and dark can be controlled at 1Z2 pitch. Therefore, a three-dimensional shape can be detected with high accuracy.
  • the projection LCD 19 and the CCD 22 are arranged in a relationship as shown in Fig. 3 (c). More specifically, since the wide surface of the projection LCD 19 and the wide surface of the CCD 22 are arranged so as to face in substantially the same direction, an image projected from the projection LCD 19 onto the projection surface is formed on the CCD 22. When forming an image, it is possible to form the projected image as it is without bending the projected image with a nope mirror or the like.
  • the CCD 22 is disposed on the longitudinal direction side of the projection LCD 19 (the direction in which the pixel columns extend).
  • the inclination between the CCD 22 and the subject should be controlled at a 1Z2 pitch. This makes it possible to detect three-dimensional shapes with high accuracy.
  • the projection optical system 20 includes a plurality of lenses that project the image signal light that has passed through the projection LCD 19 toward a projection surface.
  • the projection optical system 20 is composed of a telecentric lens made of a combination of glass and resin. Telecentric refers to a configuration in which the principal ray passing through the projection optical system 20 is parallel to the optical axis in the space on the incident side, and the position of the exit pupil is infinite. By making it telecentric in this way, it is possible to project only the light that passes through the projection LCD 19 at a vertical angle of 5 ° as described above, so that the image quality can be improved.
  • FIGS. 4 (a) to 4 (c) are views for explaining the arrangement of the LED array 17A.
  • FIG. 4A is a diagram showing an illuminance distribution of light passing through the light source lens 18
  • FIG. 4B is a plan view showing an arrangement state of the LED array 17A
  • FIG. 5 is a diagram showing a composite illuminance distribution in the example.
  • the light that has passed through the light source lens 18 is a light having an illuminance distribution as shown on the left side of FIG.
  • the projection is designed to reach the surface of LCD19.
  • the plurality of LEDs 17 are arranged in a staggered pattern on the substrate 16. Specifically, a plurality of LEDs 17 are arranged in series at a d pitch, and a plurality of LEDs are arranged in parallel at a 3Z2d pitch.Furthermore, in the plurality of LED strings arranged in parallel in this manner, Every other row is moved lZ2d in the same direction with respect to the adjacent row.
  • the distance between one LED 17 and the LEDs 17 around the one LED 17 is set to be d (that is, the LEDs 17 are arranged in a triangular lattice).
  • the length of d is determined so as to be equal to or less than a full width half maximum (FWHM) of an illuminance distribution formed on the projection LCD 19 by light emitted from one of the LEDs 17. .
  • FWHM full width half maximum
  • the combined illuminance distribution of light that reaches the surface of the projection LCD 19 through the light source lens 18 becomes a substantially linear shape including a small ripple as shown in FIG.
  • Light can be applied to the surface substantially uniformly. Therefore, illuminance unevenness in the projection LCD 19 can be suppressed, and as a result, a high-quality image can be projected.
  • FIG. 5 is an electrical block diagram of the image input / output device 1. The description of the configuration already described above is omitted.
  • the processor 15 includes a CPU 35, a ROM 36, and a RAM 37.
  • the CPU 35 performs various kinds of processing by using the program stored in the ROM 36 and the RAM 37.
  • the processing performed under the control of the CPU 35 includes detection of a pressing operation of the release button 8, capture of image data from the CCD 22, transfer and storage of the image data, detection of the state of the mode switch 9, and the like.
  • the ROM 36 includes a camera control program 36a, a pattern light photographing program 36b, a luminance image generation program 36c, a code image generation program 36d, a code boundary extraction program 36e, a lens aberration correction program 36f, and a triangle.
  • a survey calculation program 36g, a document attitude calculation program 36h, and a plane conversion program 36i are stored.
  • the camera control program 36a is a program relating to control of the entire image input / output device 1 including the main processing shown in FIG.
  • the Noturn light photography program 36b is used to detect the three-dimensional shape of the document P This is a program for imaging a state in which the pattern light is projected and a state in which the pattern is projected.
  • the luminance image generation program 36c includes a pattern light image captured in a state where the pattern light is projected by the pattern light imaging program 36b, and a pattern light image captured in a state where the pattern light is projected in a normal state. This is a program that calculates the difference from the image and generates a luminance image of the projected pattern light.
  • a plurality of types of pattern light are projected in time series and imaged for each pattern light, and the difference between each of the plurality of captured images with pattern light and the image without pattern light is calculated. , A plurality of types of luminance images are generated.
  • the code image generation program 36d is a program that superimposes a plurality of luminance images generated by the luminance image generation program 36c and generates a code image in which a predetermined code is assigned to each pixel.
  • the code boundary extraction program 36e uses the code image generated by the code image generation program 36d and the luminance image generated by the luminance image generation program 36c to determine the code boundary coordinates with sub-pixel accuracy. It is a program.
  • the lens aberration correction program 36f is a program for correcting the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with the sub-pixel accuracy by the code boundary extraction program 36e.
  • the triangulation calculation program 36g is a program for calculating, from the boundary coordinates of the code corrected for aberration by the lens aberration correction program 36f, the three-dimensional coordinates in the real space related to the boundary coordinates.
  • the document attitude calculation program 36h is a program for estimating and obtaining the three-dimensional shape of the document P from the three-dimensional coordinates calculated by the triangulation calculation program 36g.
  • the plane conversion program 36i is a program that generates a flattened image that also captures the frontal force of the document P based on the three-dimensional shape of the document P calculated by the document attitude calculation program 36h.
  • the RAM 37 has an image storage unit 37a with pattern light, an image storage unit 37b without pattern light, a luminance image storage unit 37c, a code image storage unit 37d, a code boundary coordinate storage unit 37e, and an ID storage unit. 37f, an aberration correction coordinate storage unit 37g, a three-dimensional coordinate storage unit 37h, The calculation result storage unit 37i, the plane conversion result storage unit 37j, the projection image storage unit 37k, and the marking area 371 are allocated as storage areas.
  • the pattern light-equipped image storage section 37a stores a pattern light-equipped image obtained by capturing an image of a state in which the no-turn light is projected on the document P by the pattern light photographing program 36b.
  • the pattern light absence image storage unit 37b projects the pattern light onto the document P by the pattern light photographing program 36b, and stores the pattern light absence image obtained by capturing the state.
  • the luminance image storage unit 37c stores the luminance image generated by the luminance image generation program 36c.
  • the code image storage unit 37d stores a code image generated by the code image generation program 36d.
  • the code boundary coordinate storage unit 37e stores the boundary coordinates of each code obtained with the sub-pixel accuracy to be extracted by the code boundary extraction program 36e.
  • the ID storage unit 37f stores an ID or the like assigned to a luminance image having a change in brightness at a pixel position having a boundary.
  • the aberration correction coordinate storage unit 37g stores the boundary coordinates of the code whose aberration has been corrected by the lens aberration correction program 36f.
  • the three-dimensional shape coordinate storage unit 37h stores the three-dimensional coordinates of the real space calculated by the triangulation calculation program 36g.
  • the document orientation calculation result storage unit 37i stores parameters relating to the three-dimensional shape of the document P calculated by the document orientation calculation program 36h.
  • the plane conversion result storage unit 37j stores the plane conversion result generated by the plane conversion program 36.
  • the projection image storage section 37k stores image information projected from the image projection section 13.
  • the working area 371 stores data temporarily used for the operation in the CPU 15.
  • FIG. 6 is a flowchart of a main process executed under the control of the CPU 35. Note that digital camera processing (S605), webcam processing (S607), stereoscopic image processing (S607), and flattened image processing (S611) in the main processing. Details will be described later.
  • a key scan for determining the state of the mode switching switch 9 is performed (S603), and it is determined whether or not the setting of the mode switching switch 9 is the digital camera mode (S604). (S604: Yes), the process proceeds to the digital camera process described below (S605). On the other hand, if the mode is not the digital camera mode (S604: No), it is determined whether or not the setting of the mode switching switch 9 is the webcam mode (S606). If the mode is the webcam mode (S606: Yes), it is described later. The process shifts to webcam processing (S607).
  • the mode is not the webcam mode (S605: No)
  • the mode switch 9 is the planar image mode (S610). If the mode switch 9 is the planar image mode (S610: Ye) s), the process proceeds to flattened image processing described below (S611).
  • step S612 If it is determined in step S612 that the mode is the off mode (S612: Yes), the process ends.
  • FIG. 7 is a flowchart of the digital camera process (S605 in FIG. 6).
  • the digital camera process is a process of acquiring an image captured by the image capturing unit 14.
  • a high resolution setting signal is transmitted to the CCD 22 (S701).
  • a high quality captured image can be provided to the user.
  • a finder image (an image in a range visible through finder 6) is displayed on monitor LCD 10 (S702). Therefore, the user should be able to monitor the LCD without using the viewfinder 6.
  • the image displayed in 10 allows the user to confirm the captured image (imaging range) before actual imaging.
  • the release button 8 is scanned (S703a), and it is determined whether or not the release button 8 is half-pressed (S703b). If it is half-pressed (S703b: Yes), the auto focus (AF) and automatic exposure (AE) functions are activated, and the focus, aperture, and shutter speed are adjusted (S703c). If it is not half-pressed (S703b: No), the processing from S703a is repeated.
  • the release button 8 is scanned again (S703d), and it is determined whether or not the release button 8 is fully pressed (S703e). If it is fully pressed (S703e: Yes), it is determined whether or not the flash mode is set (S704). [0100] As a result, in the flash mode (S704: Yes), the flash 7 is emitted (S705).
  • S706 shooting is performed (S706). If the mode is not the flash mode (S704: No), shooting is performed without emitting the flash 7 (S706). If it is determined in S703e that the button has not been fully pressed (S703e: No), the processing of S703a is repeated.
  • the captured image is transferred from the CCD 22 to the cache memory 28 (S707), and the captured image stored in the cache memory 28 is displayed on the monitor LCD 10 (S708).
  • the captured image can be displayed on the monitor LCD 10 at a higher speed than when the captured image is transferred to the main memory.
  • the captured image is stored in the external memory 27 (S709).
  • FIG. 8 is a flowchart of the webcam process (S607 in FIG. 6).
  • the webcam process is a process of transmitting a captured image (including a still image and a moving image) captured by the image capturing unit 14 to an external network.
  • a captured image including a still image and a moving image
  • FIG. 8 it is assumed that a moving image is transmitted to an external network as a captured image.
  • a low-resolution setting signal is transmitted to the CCD 22 (S801), the well-known auto focus and automatic exposure functions are activated, and after adjusting the focus, aperture, and shutter speed (S802). Then, shooting is started (S803).
  • the captured image is displayed on the monitor LCD 10 (S804), the finder image is stored in the projection image storage 37k (S805), and a projection process described later is performed (S806).
  • the image stored in 37k is projected on the projection plane.
  • the captured image is transferred from the CCD 22 to the cache memory 28 (S807), and the captured image transferred to the cache memory 28 is transmitted to the external network via the RF interface (S808).
  • FIG. 9 is a flowchart of the projection process (S806 in FIG. 8). This process is a process of projecting an image stored in the projection image storage unit 37k from the projection image projection unit 13 onto a projection plane. In this processing, first, it is checked whether or not the image is stored in the projection image storage unit 37k (S901).
  • the image stored in the projection image storage unit 37k is transferred to the projection LCD driver 30 (S902), and an image signal corresponding to the image is transmitted from the projection LCD driver 30 to the projection LCD 19. And display the image on the projection LCD (S903)
  • the light source driver 29 is driven (S904), the LED array 17A is turned on by the electric signal from the light source driver 29 (S905), and the process is terminated.
  • the LED array 17A when the LED array 17A is turned on, the light emitted from the LED array 17A reaches the projection LCD 19 via the light source lens 18, where the image signal transmitted from the projection LCD driver 30 is transmitted. Is subjected to spatial modulation in accordance with, and is output as image signal light. Then, the image signal light output from the projection LCD 19 is projected as a projection image on a projection plane via the projection optical system 20.
  • FIG. 10 is a flowchart of the stereoscopic image processing (S609 in FIG. 6).
  • the stereoscopic image processing is a process of detecting a three-dimensional shape of a subject, acquiring, displaying, and projecting a three-dimensional shape detection result image as the stereoscopic image.
  • a high resolution setting signal is transmitted to the CCD 22 (S1001), and a finder image is displayed on the monitor LCD10 (S1002).
  • the release button 8 is scanned (S1003a), and it is determined whether or not the release button 8 is half-pressed (S1003b). If it is half-pressed (S1003b: Yes), the auto focus (AF) and auto exposure (AE) functions are activated, and the focus, aperture, and shutter speed are adjusted (S1003c). If not half-pressed (S1003b: No), the process from S1003a is repeated.
  • the release button 8 is scanned again (S1003d), and it is determined whether or not the release button 8 is fully pressed (S1003e). If it is fully pressed (S1003e: Yes), it is determined whether or not the flash mode power is on (S1003f).
  • the three-dimensional shape detection result in the three-dimensional shape detection processing (S1006) is stored in the external memory 27 (S1007), and the three-dimensional shape detection result is displayed on the monitor LCD 10 (S1008).
  • the three-dimensional shape detection result is displayed as a set of three-dimensional coordinates (XYZ) in the real space of each measurement vertex.
  • the 3D shape detection result image as a 3D image (3D CG image) displaying the surface by connecting measurement vertices as a 3D shape detection result with a polygon is stored in the projection image storage unit 37k.
  • a projection process similar to the projection process of S806 in FIG. 8 is performed (S1010).
  • the three-dimensional coordinates obtained by using the inverse function of the equation for converting the coordinates on the projection LCD 19 into three-dimensional space coordinates described with reference to FIGS. 18 (a) and 18 (b) are used.
  • By calculating the coordinates on the projection LCD 19 it is possible to project the three-dimensional shape result coordinates on the projection plane.
  • FIG. 11A is a diagram for explaining the principle of the spatial code method used to detect a three-dimensional shape in the above-described three-dimensional shape detection processing (S1006 in FIG. 10).
  • (b) is a diagram showing pattern light different from (a). Any of these (a) and (b) may be used for the pattern light, and a gray level code which is a multi-tone code may be used.
  • FIG. 11A is a diagram for explaining the principle of the space code method used for detecting a three-dimensional shape in the above-described three-dimensional shape detection processing (S1006 in FIG. 10).
  • FIG. 11 (b) is a diagram showing a pattern light different from FIG. 11 (a). Any of the patterns shown in FIGS.
  • 11A and 11B may be used as the pattern light, and a gray level code which is a multi-tone code may be used.
  • a gray level code which is a multi-tone code.
  • the spatial code method is one type of a method of detecting the three-dimensional shape of a subject based on triangulation between the projected light and the observed image. As shown in FIG. It is characterized in that it is set apart from the container O by a distance D, and the space is elongated and divided into fan-shaped areas and encoded.
  • each fan-shaped region is coded by the mask into a bright “1” and a dark “0”.
  • a code corresponding to the direction ⁇ is assigned to each fan-shaped area, and the boundary of each code can be regarded as one slit light beam. Therefore, the scene is photographed by a camera as an observation device for each mask, and each bit plane of the memory is configured by converting the light and dark pattern into a binary image.
  • the contents of the memory at this address give the projected light code, ie, ⁇ .
  • the coordinates of the point of interest are determined from ⁇ and ⁇ .
  • mask pattern A As the mask pattern used in this method, mask pattern A, mask pattern A in FIG.
  • point Q in Fig. 11 (a) is a force indicating the boundary between region 3 (011) and region 4 (100). If 1 of mask A is shifted, a code in region 7 (111) can be generated. There is. In other words, a large error may occur when the hamming distance between adjacent regions is 2 or more.
  • FIG. 12A is a flowchart of the three-dimensional shape detection processing (S1006 in FIG. 10).
  • This imaging process uses a plurality of pure binary code mask patterns shown in FIG. 11 (a) to generate striped pattern light (see FIG. 1) from the image projection unit 13 in which light and dark are alternately arranged.
  • This is a process of acquiring a pattern light presence image that captures the state where each pattern light is projected onto the subject in a time series manner, and a pattern light absence image that captures the state where the no-turn light is projected. is there.
  • the three-dimensional measurement process is a process of actually measuring the three-dimensional shape of the subject using the image with pattern light and the image without pattern light acquired by the imaging process.
  • the processing ends.
  • FIG. 12B is a flowchart of the imaging process (S1210 in FIG. 12A). This processing is executed based on the No-turn light photographing program 36a.
  • the acquired pattern light non-image is stored in the pattern light non-image storage unit 37b.
  • the counter i is initialized (S1212), and it is determined whether or not the value of the counter i is the maximum value imax (S1213).
  • the i-th mask pattern among the mask patterns to be used is displayed on the projection LCD 19, and The i-th pattern light projected by the i-th mask pattern is projected onto the projection surface (S1214), and the state where the pattern light is projected is photographed by the image pickup section 14 (S1215).
  • FIG. 12 (c) is a flowchart of the three-dimensional measurement process (S1220 in FIG. 12 (a)). This processing is executed based on the luminance image generation program 36c.
  • a luminance image is generated (S1221).
  • a luminance image for each pattern light presence / absence image is generated.
  • the generated luminance image is stored in the luminance image storage unit 37c. Also, a number corresponding to the number of the pattern light is assigned to each luminance image.
  • the code image generation program 36d generates a code image coded for each pixel by combining the generated luminance images using the above-described spatial coding method (S1222).
  • This code image is generated by comparing each pixel of the brightness image related to the pattern light image stored in the brightness image storage unit 37c with the previously set brightness threshold, and combining the results. be able to.
  • the generated code image is stored in the code image storage unit 37d.
  • lens aberration correction processing is performed by the lens aberration correction program 36f (S1224).
  • the real space conversion processing based on the triangulation principle is performed by the triangulation calculation program 36g (S1225).
  • the code boundary coordinates in the CCD space after the aberration correction is performed by this process are converted into three-dimensional coordinates in the real space, and the three-dimensional coordinates as a three-dimensional shape detection result are obtained.
  • FIG. 13 is a diagram for explaining the outline of the code boundary coordinate detection process (S1223 in FIG. 12). is there.
  • the boundary between the actual pattern light and dark in the CCD space is indicated by a boundary line K, and the pattern light is coded by the above-mentioned space code method, and the boundary between the code 1 and other codes is shown in the figure. It is the figure shown by the thick line.
  • this code boundary coordinate detection processing is to detect code boundary coordinates with subpixel accuracy.
  • the curCode changes at the next pixel of the force boundary, that is, the first pixel G, up to the boundary (thick line), which is a pixel having a curCode. Therefore, this is detected as the first pixel G.
  • the detection position is moved to the left by “2” in order to specify a pixel area to be used for approximation, and at the position of the detection position curCCDX-2, the code image of interest is referenced by referring to the code image.
  • CurCode force Searches for a pixel that changes to another code (boundary pixel (pixel H at the detection position of curCCDX-2)) and a predetermined range centered on that pixel (3 pixels in the Y-axis direction in this embodiment) And a range of +2 pixels) (part of the pixel region specifying means).
  • the luminance threshold value bTh may be a fixed value given in advance, which may be calculated from within a predetermined range (for example, half the average of the luminance of each pixel). Thus, the boundary between light and dark can be detected with sub-pixel accuracy. [0151] Next, the detection position is moved to the right side of "1" from curCCDX-2, and the same processing as described above is performed for curCCDX-1 to obtain a representative value in curCCDX-1 (boundary coordinate detection Part of the process).
  • the boundary coordinates of the code can be detected with high accuracy and sub-pixel accuracy, and the real space conversion process (S1225 in FIG. 12) based on the above-described triangulation principle is performed using the boundary coordinates. This makes it possible to detect the three-dimensional shape of the subject with high accuracy.
  • the boundary coordinates can be detected with sub-pixel accuracy using the approximate expression calculated based on the luminance image, the number of images to be taken can be increased without increasing the number of images as in the related art.
  • a gray code which is a special pattern light that can be used even if the pattern light is shaded with a pure binary code.
  • the region constituted by the range of 2 has been described as a pixel region for obtaining an approximation, the range of the Y axis and the X axis of this pixel region is not limited to these. For example, only a predetermined range in the Y-axis direction around the boundary pixel at the curC CDX detection position may be set as the pixel region.
  • FIG. 14 is a flowchart of the code boundary coordinate detection process (S1223 in FIG. 12C). This processing is executed based on the code boundary extraction program 36e. In this process, first, each element of the code boundary coordinate sequence in the CCD space is initialized (S1401), and curCCDX is set as a start coordinate (S1402).
  • curCode is set to “0” (S1404). That is, curCode is initially , Set to the minimum value.
  • curCode is smaller than the maximum code (S1405). If curCode is smaller than the maximum code (S1405: Yes), the code image is searched for in curCCDX by searching for a pixel of curCode (S1406), and it is determined whether or not a pixel of curCode exists (S1407).
  • the boundary is provisionally set to the curCode larger than the curCode.
  • the processing proceeds assuming that the pixel is located at the pixel position of the pixel.
  • curCode does not exist (S1407: No), or if there is a pixel of Code larger than curCode! / ⁇ (S1409: No), the next curCode Calculate “1” to the curCode to obtain the boundary coordinates (S1411), and repeat the processing from S1405.
  • curCode from 0 to the maximum code the processing from S1405 to S1411 is repeated, and when the curCode becomes larger than the maximum code (S1405: No), curCCDX, which needs to change the detection position, displays "dCCDX Is added (S1412), and the process from S1403 is repeated at the new detection position in the same manner as described above.
  • curCCDX is changed, and when curCCDX finally becomes larger than the end coordinate (S1403), that is, when the detection of the start coordinate force to the end coordinate is completed, the process is terminated.
  • FIG. 15 is a flowchart of a process (S1410 in FIG. 14) for obtaining code boundary coordinates with subpixel accuracy.
  • this process first, from among the luminance images stored in the luminance image storage unit 37c in S1221 in FIG. 12C, pixels having a Code larger than the curCode detected in S1409 in FIG. At the pixel position, all the luminance images having a change in brightness are extracted (S1501).
  • the mask pattern number of the extracted luminance image is stored in array PatID []
  • the number of extracted luminance images is stored in noPatID (S1502).
  • the arrays PatID [] and noPatID are stored in the ID storage unit 37f.
  • the counter i is initialized (S1503), and it is determined whether or not the value of the counter i is smaller than oPatID (S1504). As a result, if it is determined that the brightness is small (S1504: Yes), the counter calculates the CCDY value of the boundary for the luminance image having the corresponding mask pattern number of PatID [i], and transfers the value to f CCDY [i]. It is stored (S1505).
  • the median value of fCCDY [i] obtained in the process of S1505 is calculated, and the result is used as a boundary value, or the boundary value is calculated by statistical calculation.
  • the boundary coordinates are represented by the coordinates of curCCDX and the weighted average value obtained in S1507, the boundary coordinates are stored in the code boundary coordinate storage unit 37e, and the process ends.
  • Fig. 16 shows the boundary CCD for the luminance image with the mask pattern number of PatID [i].
  • 16 is a flowchart of a process for obtaining a Y value (S1505 in FIG. 15).
  • pixel I is detected as a pixel candidate having a boundary, and an eCCDY value is obtained at the position of pixel I.
  • FIGS. 17 (a) to 17 (c) are diagrams for explaining the lens aberration correction processing (S1224 in FIG. 12 (c)).
  • the lens aberration correction processing as shown in FIG. 17A, the image was taken in response to the fact that the incident light flux was displaced by the ideal lens due to the difference of the imaging optical system 21, and the position was changed. This is a process of correcting the position of a pixel to a position where an image should be originally formed.
  • This aberration correction is performed, for example, by calculating the aberration of the optical system in the imaging range of the imaging optical system 21 using the half angle of view Ma, which is the angle of the incident light, as shown in FIG. 17 (b). Correct based on the data obtained.
  • This aberration correction processing is executed based on the lens aberration correction program 36f, is stored in the code boundary coordinate storage unit 37e, is performed according to the code boundary coordinates, and the data subjected to the aberration correction processing is Stored in the aberration correction coordinate storage unit 37g.
  • the camera calibration (approximation) of the following (1) to (3) for converting arbitrary point coordinates (ccdx, ccdy) in the real image to coordinates (ccdcx, ccdcy) in the ideal camera image Equation) is used for correction.
  • the focal length of the imaging optical system 21 is focal length (mm)
  • the ccd pixel length is pixel length (mm)
  • FIGS. 18 (a) and 18 (b) show three-dimensional coordinates in a three-dimensional space calculated from coordinates in a CCD space in a real space conversion process based on the principle of triangulation (S1225 in FIG. 12 (c)). It is a figure for explaining a method.
  • the three-dimensional coordinates in the three-dimensional space of the aberration-corrected code boundary coordinates stored in the aberration-corrected coordinate storage unit 37g are calculated by the triangulation operation program 36g. Is calculated.
  • the three-dimensional coordinates calculated in this way are stored in the three-dimensional coordinate storage unit 37h.
  • the optical axis direction of the imaging optical system 21 is the Z axis, and the imaging optical system is along the Z axis.
  • Principal point position force 1 The point away from VPZ is the origin, the horizontal direction to image input / output device 1 is the X axis, and the vertical direction is the Y axis.
  • the projection angle ⁇ p from the image projection unit 13 to the three-dimensional space (X, ⁇ , Z) and the distance between the optical axis of the imaging lens optical system 20 and the optical axis of the image projection unit 13 are represented by D .
  • the field of view in the Y direction of the imaging optical system 21 from Yftop to Yfbottom, the field of view in the X direction from Xfstart to Xfend, the length (height) of the CCD 22 in the Y axis direction is Hc, and the length (width) in the X axis direction. Is Wc.
  • the projection angle ⁇ p is given based on a code assigned to each pixel.
  • the three-dimensional space position (X, Y, Z) corresponding to the arbitrary coordinates (ccdx, ccdy) of the CCD 22 is a point on the imaging plane of the CCD 22, a projection point of the pattern light, It can be obtained by solving five equations for the triangle formed by and the point that intersects the Y plane.
  • (l) Y -(ta ⁇ ⁇ p) Z + PPZ + tan ⁇ p — D + cmp (Xtarget) (2)
  • Y -(Ytarget / VPZ) Z + Yt arget
  • the principal point position (0, 0, PPZ) of the image projection unit 13 the field of view in the Y direction of the image projection unit 13 is Ypf bottom from Ypftop, the field of view in the X direction is Xpfstart to Xpfend,
  • the length (height) of the projection LCD 19 in the Y-axis direction is Hp, and the length (width) in the X-axis direction is Wp.
  • FIG. 19 is a flowchart of the flattened image processing (S611 in FIG. 6).
  • the flattened image processing is performed, for example, when capturing an image of a document P in a curved state as shown in FIG. 1 or capturing an image of a rectangular document obliquely (the captured image has a trapezoidal shape).
  • This is also a process of acquiring and displaying a flattened image that is flattened in a state where the original is not curved or captured in a vertical direction.
  • a high resolution setting signal is transmitted to the CCD 22 (S1901), and a finder image is displayed on the monitor LCD10 (S1902).
  • the release button 8 is scanned (S1903a), and it is determined whether or not the release button 8 is half-pressed (S1903b). If it is half-pressed (SI 903b: Yes), it activates the auto focus (AF) and auto exposure (AE) functions and adjusts the focus, aperture, and shutter speed (S1903c). If it is not half-pressed (S1903b: No), the process of S1903a is repeated. Return.
  • the release button 8 is scanned again (S1903d), and it is determined whether or not the release button 8 is fully pressed (S1903e). If it is fully pressed (SI 903e: Yes), it is determined whether or not the flash mode power is available (S1903f).
  • a three-dimensional shape detection process which is the same process as the above-described three-dimensional shape detection process (S1006 in FIG. 10), is performed to detect the three-dimensional shape of the subject (S1906).
  • a document posture calculation process of calculating the posture of the document P is performed (S1907).
  • the position L, angle ⁇ ⁇ ⁇ ⁇ , and curvature ⁇ (X) of the document P with respect to the image input device 1 are calculated as the posture parameters of the document P.
  • a plane conversion process described below is performed (S 1908).
  • the original P is curved, if at all, curved, and is flattened into a state. Generate an image.
  • the flattened image obtained by the plane change process (S 1908) is stored in the external memory 27 (S 1909), and the flattened image is displayed on the monitor LCD 10 (S 1910).
  • FIGS. 20 (a) to 20 (c) are diagrams for explaining the original posture calculation process (S1907 in FIG. 19). It is assumed that the curvature of the document P is uniform in the y direction as a precondition for a document such as a book.
  • the original posture calculation process first, as shown in FIG. 20 (a), points arranged in two columns in a three-dimensional space position are determined by regression curve approximation from coordinate data on code boundaries stored in a three-dimensional coordinate storage unit 37h. Find the two curves.
  • FIG. 21 is a flowchart of the plane conversion process (S1908 in FIG. 19).
  • the pattern light stored in the pattern lightless image storage unit 37b is stored.
  • the four corner points of the image are moved L in the Z direction, rotated ⁇ in the X axis direction, and rotated by ⁇ ⁇ , and then inversely transformed into ⁇ (X) (equivalent to the “bending process” described later) (I.e., a rectangular area in which the surface of the document P on which characters and the like are written is an image as viewed from a substantially orthogonal direction), and is included in this rectangular area.
  • the number of pixels a to be obtained is determined (S2102).
  • the counter b determines whether or not the counter b has reached the number of pixels a (S2103). If the counter b does not reach the number of pixels a (S2103: No), a curvature calculation process is performed for one pixel constituting the rectangular area to be rotated by a curvature ⁇ (X) about the Y axis (S2104). ), Tilt around the X axis ⁇ Rotate and move (S2105), and shift by the distance L in the Z axis direction ( S2106).
  • the coordinates (ccdcx, ccdcy) on the CCD image captured by the ideal camera are obtained from the obtained three-dimensional space position by the inverse function of the previous triangulation (S2107) and used.
  • the coordinates (ccdx, ccdy) on the CCD image captured by the actual camera are obtained by the inverse function of the camera calibration according to the aberration characteristics of the imaging optical system 20 (S2108), and the pattern corresponding to this position is obtained.
  • the state of the pixel of the lightless image is obtained and stored in the working area 371 of the RAM 37 (S2109).
  • FIG. 22 (a) is a diagram for explaining the outline of the bending process (S2104 in FIG. 21), and FIG. 22 (b) shows the flattening process performed by the plane conversion process (S1908 in FIG. 19). The original P is shown. The details of this curving process are disclosed in detail in IEICE Transactions DII Vol.J86-D2 No.3 p409 “Burning Document Shooting with Eye Scanner”.
  • the curvature ⁇ ⁇ (X) is the three-dimensional shape composed of the calculated code boundary coordinate sequence (real space), and the cross-sectional shape parallel to the XZ plane at an arbitrary Y value. It is represented by an equation approximated by a polynomial using the least squares method.
  • Figs. 23 (a) and 23 (b) are diagrams for explaining a group of light source lenses 50 as another example of the light source lens 18 in the embodiment described above.
  • FIG. 23B is a side view showing the light source lens 50
  • FIG. 23B is a plan view showing the light source lens 50.
  • the light source lens 18 in the above-described embodiment is configured such that the lens portions 18a are integrally arranged on the base 18b from a convex aspherical shape corresponding to each LED 17, whereas In the example shown in FIGS. 23 (a) and 23 (b), a resin lens formed in a shell shape enclosing each of the LEDs 17 is formed separately.
  • the position of each LED 17 and the corresponding light source lens 50 can be determined on a one-to-one basis.
  • the relative position accuracy can be improved, and the light emitting directions are aligned.
  • the surface of the projection LCD 19 is irradiated with light whose incident direction from the LED 17 is perpendicular to the surface of the projection LCD 19, and can uniformly pass through the stop of the projection optical system 20. Therefore, illuminance unevenness of the projected image can be suppressed, and as a result, a high-quality image can be projected.
  • the LED 17 included in the light source lens 50 is mounted on the substrate 16 via electrodes 51 serving as leads and reflectors.
  • a frame-shaped elastic fixing member 52 that bundles the light source lenses 50 and regulates them in a predetermined direction is arranged on the outer peripheral surface of the group of light source lenses 50.
  • the fixing member 52 is made of a resin material such as rubber or plastic.
  • each light source lens 50 Since the light source lens 50 is formed separately from each LED 17, the angle of the optical axis formed by the convex tip of each light source lens 50 is correctly aligned so as to face the projection LCD 19. It is difficult to install in
  • one group of light source lenses 50 is surrounded by the fixing member 52, and the outer peripheral surfaces of the light source lenses 50 are brought into contact with each other, and Lens 50
  • the position of each light source lens 50 is regulated so that the optical axis of the light source faces the projection LCD 19 at a correct angle.
  • the fixing member 52 is made of a material having an elastic force that is good even if it has rigidity specified in a predetermined size in advance, and the position of each light source lens 50 is determined by the elastic force. It may be restricted to a predetermined position.
  • FIGS. 24 (a) and 24 (b) show another example of a fixing member 52 for fixing the light source lens 50 to a predetermined position described in FIGS. 23 (a) and 23 (b).
  • 60 is a diagram for explaining FIG. FIG. 24 (a) is a perspective view showing a state where the light source lens 50 is fixed, and FIG. 24 (b) is a partial sectional view thereof.
  • the same members as described above are denoted by the same reference numerals, and description thereof will be omitted.
  • the fixing member 60 is formed in a plate shape having a conical through hole 60a having a cross section along the outer peripheral surface of each light source lens 50 in a sectional view. Each light source lens 50 is inserted and fixed in each through hole 60a.
  • a biasing plate 61 having elasticity is interposed between the fixing member 60 and the substrate 16, and further, an electrode is provided between the biasing plate 61 and the lower surface of each light source lens 50.
  • An annular O-ring 62 having elasticity is arranged so as to surround 51.
  • the LED 17 included in the light source lens 50 is mounted on the substrate 16 via the urging plate 61 and the electrode 51 penetrating through holes formed in the substrate 16.
  • each light source lens 50 is fixed by penetrating through each through hole 60a having a cross section along the outer peripheral surface of the lens.
  • the optical axis of the light source lens 50 can be more reliably fixed so as to face the projection LCD 19 at a correct angle.
  • the LED 17 can be urged to the correct position by the urging force of the O-ring 62 and fixed.
  • the impact force that may be generated when the device 1 is carried is reduced by the impact of the O-ring 62. It is possible to prevent the problem that the light source lens 50 is displaced by the influence of the impact and the position of the light source lens 50 is displaced, so that light cannot be irradiated from the light source lens 50 to the projection LCD 19 vertically.
  • the processing of S1211 and S1215 in Fig. 12 (b) is regarded as an imaging means.
  • the process of S1006 in FIG. 10 is regarded as a three-dimensional shape detection unit.
  • the process of acquiring and displaying a flattened image has been described as the flattened image mode.
  • a well-known OCR function is mounted, and the flattened planar image is displayed in the OCR function. May be configured to be read.
  • the text written on the original can be read with higher accuracy than when the original that is curved by the OCR function is read.
  • a striped pattern light in which a plurality of types of light and dark are alternately arranged.
  • the light for detecting the three-dimensional shape is not limited to the powerful pattern light.
  • two band-shaped slit lights 70, 71 may be projected from the image projection unit 13. good. In this case, it is possible to detect the three-dimensional shape at a higher speed with only two captured images than when eight pattern lights are projected.
  • the plurality of semiconductor light emitting elements are arranged in parallel in at least two rows at a second pitch in a second direction intersecting the semiconductor light emitting element row, and the second pitch May be set substantially the same as the first pitch.
  • the semiconductor light emitting element row has a second pitch substantially equal to the first pitch (the pitch of the light emitting elements arranged linearly in the first direction in the semiconductor light emitting element row). Since at least two rows are arranged side by side in a pitch, it is possible to suppress a decrease in the illuminance between the semiconductor light emitting elements in the direction in which the semiconductor light emitting elements are arranged in parallel. Therefore, the decrease in illuminance between adjacent semiconductor elements can be entirely suppressed in two directions that alternately intersect, that is, in a plane including these two directions.
  • the semiconductor light emitting element rows are composed of a plurality of rows, and each semiconductor light emitting element of two adjacent semiconductor light emitting element rows may be arranged in a staggered manner.
  • the plurality of semiconductor light emitting elements are shifted by one half of the first pitch in a direction in which the one semiconductor light emitting element row extends in the one semiconductor light emitting element row.
  • the other semiconductor light-emitting element rows are alternately arranged in parallel at a pitch of approximately 3Z2 times the first pitch!
  • the distance between the one semiconductor light emitting element and the semiconductor light emitting element around the one semiconductor light emitting element is determined by light emitted from one of the semiconductor light emitting elements.
  • the illuminance distribution formed in the spatial modulation element may be arranged to be equal to or less than the full width at half maximum. According to such a configuration, it is possible to suppress a decrease in illuminance between one semiconductor light emitting element and the semiconductor light emitting elements around it.
  • the projection device is disposed between the semiconductor light emitting device and the spatial modulation device, and condenses the light emitted from the semiconductor light emitting device as highly directional radiation light.
  • the spatial light modulator may be provided with a condensing optical system for emitting the condensed light.
  • the condensing optical system may be formed by integrally forming a plurality of lens surfaces corresponding to each of the plurality of semiconductor light emitting elements.
  • the number of components can be reduced, and as a result, the manufacturing cost of the device can be reduced.
  • the condensing optical system may be configured such that each of the lenses formed in a shell shape enclosing each of the plurality of semiconductor light emitting elements is formed separately. No.
  • the projection device may include a frame-shaped fixing member surrounding the plurality of lenses in order to make each of the lenses constituting the light-collecting optical system adhere to each other.
  • the posture of each lens can be regulated such that the optical axes of the lenses are aligned in parallel and face the spatial light modulator. Therefore, light can be guided to the spatial modulation element and the projection unit with high efficiency.
  • the projection device is drilled at a position corresponding to the predetermined position of each lens in order to arrange each of the lenses constituting the condensing optical system at the predetermined position.
  • a plate-shaped fixing member having a fixing hole may be provided.
  • the cross-sectional shape of the fixing hole may be formed along at least a part of the outer peripheral surface of each lens constituting the condensing optical system.
  • the inner surface of the fixing hole is brought into close contact with the outer peripheral surface of each lens, so that the direction of each lens can be regulated. That is, the posture of each lens can be regulated so that the optical axes of the lenses are aligned in parallel and face the spatial modulation element side. Therefore, light can be guided to the spatial light modulator and the imaging means with high efficiency.
  • the projection device may include an elastic body that comes into contact with the outer peripheral surface of the light collecting optical system.
  • each of the plurality of semiconductor light emitting elements may be configured to emit the same color.
  • the plurality of semiconductor light-emitting elements are light-emitting diodes, and the light emission color of each of them may be amber.
  • the efficiency of converting electricity into light (electro-optical conversion efficiency) can be increased as compared with the case of emitting other colors. Therefore, it can be driven with low power, save power, The service life can be extended.
  • the projection means may be configured to include a resin lens.
  • a lighter and cheaper optical system can be configured as compared with the case where all the light from the semiconductor light emitting element is configured by a projection unit that also has glass power.
  • the projection means may be constituted by a telecentric lens.
  • the position of the pupil is infinite, and it is possible to couple and project only light that has passed through the spatial light modulator approximately vertically. Therefore, it is possible to project the spatial modulation element without uneven illuminance.
  • the projection device captures an image of a state where pattern light as image signal light output from the projection unit is projected on a subject arranged in the projection direction.
  • the spatial modulation element is configured by a plate-shaped display, and the plurality of pixels configuring the display may be arranged in a staggered manner.
  • a plurality of pixels constituting a display which is a spatial modulation element are arranged in a staggered pattern, for example, light and dark are alternately arranged toward an object to detect a three-dimensional shape of the object.
  • the boundary between light and dark can be controlled at 1Z2 pitch by matching the direction of the stripe with the short direction of the projection LCD19. Therefore, a three-dimensional shape can be detected with high accuracy.
  • the wide surface of the imaging means and the wide surface of the display are oriented in substantially the same direction!
  • a plurality of pixels constituting a display are composed of one pixel column arranged in a straight line along the longitudinal direction of the display, and one pixel column being a display device. Other pixel rows shifted by a predetermined distance in the longitudinal direction may be alternately arranged in parallel.
  • the imaging means may be arranged on the longitudinal direction side of the display at a predetermined interval from the display.
  • the inclination of the trajectory of the pattern light projected from the projection means onto the subject is determined by the display. It can be controlled with 1Z2 pitch of pixels. Therefore, a three-dimensional shape can be detected with high accuracy.

Abstract

 投影装置であって、光を出射する複数の半導体発光素子と、その半導体発光素子により出射された光に対して空間変調を施して画像信号光を出力する空間変調素子と、その空間変調素子から出力される画像信号光を投影面に向けて投影する投影手段とを備える。この構成において、複数の半導体発光素子は、その複数の半導体発光素子を支持する基板上に少なくとも2つ以上の半導体素子を第1の方向において第1ピッチで一直線状に並べてなる半導体発光素子列を、少なくとも1列以上並列に並べて配置されており、記第1ピッチは、半導体発光素子の1つから出射された光によって前記空間変調素子において形成される照度分布の半値全幅以下となるように配設されている。

Description

明 細 書
投影装置および 3次元形状検出装置
技術分野
[0001] 本発明は、半導体発光素子力 空間変調素子に照射される光の照度ムラを抑制し 、投影面に高品質の画像を投影することができる投影装置および 3次元形状検出装 置に関する。
背景技術
[0002] 従来より、空間変調素子を用いて光源力 の光に空間変調を施すことで任意の画 像を投影面に投影するよう構成された投影装置が知られている。詳細には、このよう な投影装置は、光源力 出射される光を集光光学系によって集光し、その集光され た光に空間変調素子によって画像信号に応じた空間変調を施して、その空間変調を 施した光を画像信号光として投影手段を介して投影面に投影する。
[0003] この投影装置の光源としては、従来、キセノンランプ、ハロゲンランプ、メタルノヽライ ドランプ等が使用されていた。このような光源は、光源としての寿命が短い上オンオフ 変調ができないので、投影装置では連続点灯して用いることを余儀なくされ、したが つて従来の投影装置にお!、ては消費電力が大き!、と 、う問題点があった。
[0004] そこで、このような問題を解決すベぐ特開 11— 32278号公報(以下、文献 1と記す )ゃ特開 11— 231316号公報 (以下、文献 2と記す)には投影装置の光源として半導 体発光素子、具体的には、発光ダイオード (以下「LED」と称す)を用いる技術が開 示されている。
[0005] 投影装置の光源として LEDを用いることにより、光源の長寿命化、低消費電力化を 図ることができることに加え、 LEDの出力光は、指向性が強ぐ発光面積も小さいた め、集光効率が高まり、結果的に光利用効率を向上させることができる。
発明の開示
[0006] し力しながら、上述した投影装置の光源として LEDを用いた場合であっても、その L EDの配列、配置の仕方によっては、空間変調素子に対して略均一に光を発光する ことができず、照度ムラが生じ、結果的に投影面に投影される画像の品質が低下する という問題点があった。
[0007] 本発明は、上述した問題点を解決するためになされたものである。すなわち、本発 明は、半導体発光素子力 空間変調素子に照射される光の照度ムラを抑制し、投影 面に高品質の画像を投影することができる投影装置および 3次元形状検出装置を提 供することを目的としている。
[0008] 上記目的を達成する為、本発明の一つの側面により提供されるのは投影装置であ つて、光を出射する複数の半導体発光素子と、その半導体発光素子により出射され た光に対して空間変調を施して画像信号光を出力する空間変調素子と、その空間変 調素子カゝら出力される画像信号光を投影面に向けて投影する投影手段とを備える。 この構成において、複数の半導体発光素子は、その複数の半導体発光素子を支持 する基板上に少なくとも 2つ以上の半導体素子を第 1の方向において第 1ピッチで一 直線状に並べてなる半導体発光素子列を、少なくとも 1列以上並列に並べて配置さ れており、記第 1ピッチは、半導体発光素子の 1つから出射された光によって前記空 間変調素子において形成される照度分布の半値全幅以下となるように配設されてい る。
[0009] このような構成によれば、少なくとも 2つ以上の半導体素子を略同一の第 1ピッチで 一直線状に並べてなる半導体発光素子列において、その第 1ピッチは半導体発光 素子の 1つ力 出射された光によって空間変調素子において形成される照度分布の 半値全幅以下に配設されている。したがって、隣接する半導体発光素子間における 照度の低下を抑制することができる。よって、空間変調素子における照度ムラは抑制 され、略均一な光を空間変調素子に照射することができる。結果的に高品質な画像 を投影面に投影することができるという効果が得られる。
[0010] 本発明の別の側面により提供されるのは投影装置であって、光を出射する複数の 半導体発光素子と、その半導体発光素子により出射された光に対して空間変調を施 して画像信号光を出力する空間変調素子と、その空間変調素子から出力される画像 信号光を投影面に向けて投影する投影手段とを備える。この構成において、複数の 半導体発光素子は、その複数の半導体発光素子を支持する基板上に千鳥状に配 置されている。 [0011] このような構成によれば、複数の半導体発光素子は、その複数の半導体発光素子 を支持する基板上に千鳥状に配置されているので、隣接する半導体発光素子間の 照度を、その前列又は後列の半導体発光素子によって補うことができる。よって、空 間変調素子における照度ムラを抑制することができる。従って、略均一な光を空間変 調素子に照射することができ、高品質な投影画像を投影することができるという効果 が得られる。
[0012] また、本発明の別の側面によれば、上記のような構成の投影装置と、その投影装置 に備えられた投影手段から出力される画像信号光が投影される投影方向に配置され る被写体に対して、投影手段力 画像信号光としてのパターン光が投影されて 、る 状態を撮像する撮像手段と、その撮像手段によって撮像された撮像画像に基づき、 前記被写体の 3次元形状を検出する 3次元形状検出手段とを備えた 3次元形状検出 装置が提供される。
[0013] このような 3次元形状検出装置によれば、略均一な光を空間変調素子に照射するこ とができ、高品質な投影画像を投影することにより、高精度に 3次元の形状を検出す ることができると!/、う効果が得られる。
図面の簡単な説明
[0014] [図 1]画像入出力装置の外観斜視図である。
[図 2]撮像ヘッドの内部構成を示す図である。
[図 3]図 3 (a)は画像投影部の拡大図であり、図 3 (b)は光源レンズの平面図であり、 図 3 (c)は投影 LCDの正面図である。
[図 4]図 4 (a)力 図 4 (c)は、 LEDアレイの配列に関する説明をするための図である。
[図 5]画像入出力装置の電気的なブロック図である。
[図 6]メイン処理のフローチャートである。
[図 7]デジカメ処理のフローチャートである。
[図 8]webcam処理のフローチャートである。
[図 9]投影処理のフローチャートである。
[図 10]立体画像処理のフローチャートである。
[図 11]図 11 (a)は、空間コード法の原理を説明するための図であり、図 11 (b)は図 1 1 (a )とは異なるマスクパターン (グレイコード)を示す図である。
[図 12]図 12 (a)は 3次元形状検出処理のフローチャートである。図 12 (b)は撮像処 理のフローチャートである。図 12 (c)は 3次元計測処理のフローチャートである。
[図 13]コード境界座標検出処理の概略を説明するための図である。
[図 14]コード境界座標検出処理のフローチャートである。
[図 15]コード境界座標をサブピクセル精度で求める処理のフローチャートである。
[図 16]PatID[i]のマスクパターン番号を持つ輝度画像について、境界の CCDY値 を求める処理のフローチャートである。
[図 17]図 17 (a)から図 17 (c)は、レンズ収差補正処理を説明するための図である。
[図 18]図 18 (a)及び図 18 (b)は、 CCD空間における座標から 3次元空間における 3 次元座標を算出する法を説明するための図である。
[図 19]平面化画像処理のフローチャートである。
[図 20]図 20 (a)から図 20 (c)は、原稿姿勢演算処理を説明するための図である。
[図 21]平面変換処理のフローチャートである。
[図 22]図 22 (a)は、湾曲計算処理についての大略を説明するための図であり、図 22 (b)は平面変換処理によって平面化された平面化画像を示す図である。
[図 23]図 23 (a)は光源レンズの他の例を示す側面図であり、図 23 (b)は図 23 (a)の 光源レンズを示す平面図である。
[図 24]図 24 (a)は、光源レンズを固定した状態を示す斜視図であり、図 24 (b)はその 部分的な断面図である。
[図 25]被写体に投影するパターン光としての他の例を示す図である。
符号の説明
画像入出力装置
13 画像投影部
14 撮像光学系
17 LED
18, 50 光源レンズ
19 投影 LCD 20 投影光学系
21 撮像光学系
22 CCD
52, 60 固定咅附
60a 固定孔
61 付勢プレート
62 Oリング
発明を実施するための最良の形態
[0016] 以下、本発明の好ましい実施例について、添付図面を参照して説明する。図 1は、 画像入出力装置 1の外観斜視図である。尚、本発明の投影装置および 3次元形状検 出装置は、この画像入出力装置 1に含まれる装置である。
[0017] 画像入出力装置 1は、デジタルカメラとして機能するデジカメモード、ウェブカメラと して機能する webcamモード、 3次元形状を検出して立体画像を取得するための立 体画像モード、湾曲した原稿等を平面化した平面化画像を取得するための平面化 画像モード等の種々のモードを備えて 、る。
[0018] 図 1では、特に、立体画像モードや平面化画像モードにおいて、被写体としての原 稿 Pの 3次元形状を検出するために、後述する画像投影部 13から明暗を交互に並べ てなる縞状のパターン光を投影して 、る様子を図示して 、る。
[0019] 画像入出力装置 1は、略箱状に形成された撮像ヘッド 2と、その撮像ヘッド 2と一端 が連結されたパイプ状のアーム部材 3と、そのアーム部材 3の他端と連結され、平面 視略 L型に形成されたベース 4とを備えて 、る。
[0020] 撮像ヘッド 2は、その内部に後述する画像投影部 13や画像撮像部 14を内包する ケースである。撮像ヘッド 2の正面において、中央部には筒状の鏡筒 5が配置され、 鏡筒 5の斜め上方にファインダ 6が配置され、さらに、ファインダ 6の反対側にフラッシ ュ 7が配置されている。ファインダ 6とフラッシュ 7との間には、後述する画像撮像部 14 の一部である撮像光学系 21のレンズの一部が外面に露出している。撮像光学系の この露出部分力 被写体の画像が入力される。
[0021] 鏡筒 5は、撮像ヘッド 2の正面カゝら突出するよう形成されるとともに、その内部に画像 投影部 13の一部である投影光学系 20を内包するカバーである。この鏡筒 5によって 、投影光学系 20が保持され、全体を焦点調節のため移動可能とされ、且つ、投影光 学系 20が傷つくのが防止されている。鏡筒 5端面からは、画像投影部 13の一部であ る投影光学系 20のレンズの一部が外面に露出しており、この露出部分力も投影面に 向かって画像信号光が投影される。
[0022] ファインダ 6は、撮像ヘッド 2の背面カゝら正面を通して配設される光学レンズで構成 されている。撮像ヘッド 2の背面力も使用者がのぞき込んだ時に、撮像光学系 21が C CD22上に結像する範囲とほぼ一致する範囲が見えるようになつている。
[0023] フラッシュ 7は、例えば、デジカメモードにぉ 、て、必要な光量を補足するための光 源であり、キセノンガスが充填された放電管で構成されている。よって、撮像ヘッド 2 に内蔵されているコンデンサ(図示せず)からの放電により繰り返し使用することがで きる。
[0024] 撮像ヘッド 2の上面において、手前側にはレリーズボタン 8が配置され、レリーズボ タン 8の奥方にモード切替スィッチ 9が配置され、さらに、モード切替スィッチ 9の反対 側にモニタ LCD10が配置されている。
[0025] レリーズボタン 8は、「半押し状態」と「全押し状態」との 2種類の状態に設定可能な 2 段階の押しボタン式のスィッチで構成されて 、る。レリーズボタン 8の状態は後述する プロセッサ 15に管理されている。プロセッサ 15の制御の下、レリーズボタン 8の「半押 し状態」で周知のオートフォーカス (AF)および自動露出 (AF)機能が起動され、ピン ト、絞り、シャツタスピードが調節される。レリーズボタン 8の「全押し状態」では、撮像 等が行われる。
[0026] モード切替スィッチ 9は、デジカメモード、 webcamモード、立体画像モード、平面 化画像モード、オフモード等の種々のモードに設定する為のスィッチである。モード 切替スィッチ 9の状態はプロセッサ 15に管理されており、モード切替スィッチ 9の状態 がプロセッサ 15によって検出されることで各モードの処理が実行される。
[0027] モニタ LCD10は、液晶ディスプレイ(Liquid Crystal Display)で構成されてお り、プロセッサ 15からの画像信号を受けて画像を使用者に表示する。例えば、モニタ LCD10には、デジカメモードや webcamモードにおける撮像画像や、立体画像モー ドにおける 3次元形状検出結果画像、平面化画像モードにおける平面化画像等が表 示される。
[0028] 撮像ヘッド 2の側面において、その上方には、 RF (無線)インターフェイスとしてのァ ンテナ 11と、撮像ヘッド 2とアーム部材 3とを連結する連結部材 12とが配置されてい る。
[0029] アンテナ 11は、後述する RFドライバ 24を介してデジカメモードで取得した撮像画 像データや立体画像モードで取得した立体画像データ等を外部インターフェイスに 無線通信によって送信する為に用いられる。
[0030] 連結部材 12は、リング状に形成され、かつその内周面には雌ねじが形成されてい る。連結部材 12は、撮像ヘッド 2の側面に回動可能に固定されている。アーム部材 3 の一端側には雄ねじが形成されている。連結部材 12の雌ねじとアーム部材 3の雄ね じとを嵌合させることで、撮像ヘッド 2とアーム部材 3とを着脱自在に連結することがで きると共に、撮像ヘッド 2を任意の角度で固定することができるようになつている。従つ て、撮像ヘッド 2をアーム部材 3から取り外すことで、撮像ヘッド 2を通常のデジタル力 メラとして使用できる。
[0031] アーム部材 3は、撮像ヘッド 2を所定の撮像位置に変化可能に保持するためのもの であり、任意の形状に屈曲可能な蛇腹状のパイプで構成されている。よって、アーム 部材 3によって、撮像ヘッド 2を任意の位置に向けることができる。
[0032] ベース 4は、机上等の載置台に載置され、撮像ヘッド 2とアーム部材 3とを支持する 。ベース 4は平面視略 L字型に形成されているので、安定して撮像ヘッド 2等を支持 することができる。ベース 4とアーム部材 3とは着脱自在に連結されており、このことが 画像入力装置 1の持ち運びに便利にし、また、画像入力装置 1を省スペースで収納 することも可會 にする。
[0033] 図 2は、撮像ヘッド 2の内部構成を模式的に示す図である。撮像ヘッド 2の内部には 、主に、画像投影部 13と、画像撮像部 14と、プロセッサ 15とが内蔵されている。
[0034] 画像投影部 13は、投影面に任意の投影画像を投影するためのユニットである。画 像投影部 13は、投影方向に沿って、基板 16と、複数個の LED17 (その総称として 以下「LEDアレイ 17A」という)と、光源レンズ 18と、投影 LCD19と、投影光学系 20と を備えている。尚、この画像投影部 13については、図 3 (a)から図 3 (c)を参照して後 に詳細に説明する。
[0035] 画像撮像部 14は、被写体としての原稿 Pを撮像するためのユニットである。画像撮 像部 14は、光の入力方向に沿って、撮像光学系 21と、 CCD22とを備えている。
[0036] 撮像光学系 21は、複数枚のレンズで構成されている。撮像光学系 21は、周知のォ 一トフォーカス機能を有し、自動で焦点距離及び絞りを調整して外部力もの光を CC D22上に結像する。
[0037] CCD22は、マトリクス状に配列された CCD (Charge Coupled Device)素子な ど光電変換素子を有する。 CCD22は、撮像光学系 21を介して CCD22の表面に結 像される画像の光の色及び強さに応じた信号を生成し、これをデジタルデータに変 換してプロセッサ 15に出力する。
[0038] プロセッサ 15には、フラッシュ 7、レリーズボタン 8、モード切替スィッチ 9、外部メモリ 27、およびキャッシュメモリ 28が電気的に接続されている。さらに、プロセッサ 15には 、モニタ LCDドライバ 23を介してモニタ LCD10が接続され、 RFドライバ 24を介して アンテナ 11が接続され、電源インターフェイス 25を介してバッテリ 26が接続され、光 源ドライバ 29を介して LEDアレイ 17Aが接続され、投影 LCDドライバ 30を介して投 影 LCD19が接続され、さらに、 CCDインターフェイス 31を介して CCD22が接続さ れている。プロセッサ 15に接続されたこれらの構成部品は、プロセッサ 15によって管 理される。
[0039] 外部メモリ 27は、着脱自在なフラッシュ ROMであり、デジカメモードや webcamモ ード、そして立体画像モードにお!ヽて撮像された撮像画像や 3次元情報を記憶する 。具体的には、外部メモリ 27として、 SDカード、コンパクトフラッシュ (登録商標)カー ド等を使用することができる。
[0040] キャッシュメモリ 28は、高速な記憶装置である。例えば、デジカメモードにぉ 、て撮 像した撮像画像を高速でキャッシュメモリ 28に転送し、プロセッサ 15で画像処理を行 つてから外部メモリ 27に格納されるように使われる。具体的には、 SDRAM, DDRR AM等を使用することができる。
[0041] 電源インターフェイス 25、光源ドライバ 29、投影 LCDドライバ 30、 CCDインターフ ェイス 31は、 IC (Integrated Circuit:集積回路)によって構成されている。電源インタ 一フェイス 25、光源ドライバ 29、投景 LCDドライバ 30、 CCDインターフェイス 31は、 それぞれ、ノ ッテリ 26、 LEDアレイ 17A、投景 LCD19、 CCD22を制御する。
[0042] 図 3 (a)は画像投影部 13の拡大図であり、図 3 (b)は光源レンズ 18の平面図であり 、図 3 (c)は投影 LCD19と CCD22との配置関係を示す図である。上述した通り、画 像投影部 13は、投影方向に沿って、基板 16と、 LEDアレイ 17Aと、光源レンズ 18と 、投影 LCD19と、投影光学系 20とを備えている。
[0043] 基板 16は、 LEDアレイ 17Aを実装すると共に、 LEDアレイ 17Aとの電気的な配線 をするためのものである。具体的には、基板 16として、アルミ製基板に絶縁榭脂を塗 布してカゝら無電解メツキにてパターンを形成したものや力ラエポ基材をコアとする単層 または多層構造の基板を使用することができる。
[0044] LEDアレイ 17Aは、投影 LCD19に向けて放射状の光を発光する光源である。 LE Dアレイ 17Aは、基板 16上に千鳥状に配列された複数個の LED17 (発光ダイォー ド)からなる。これらの複数の LED17は、銀ペーストを介して基板 16に接着され、ボ ンデイングワイヤを介して基板 16に電気的に結線されて 、る。
[0045] このように光源として複数個の LED17を使用することで、光源として白熱電球、ノヽ ロゲンランプ等を使用する場合に比べて、電気を光に変換する効率 (電気光変換効 率)を高め、同時に赤外線や紫外線の発生を抑えることができる。よって、本実施形 態によれば、光源を省電力で駆動でき、節電化、長寿命化を図ることができる。また、 装置の温度上昇を低減させることができる。
[0046] この様に、 LED17はハロゲンランプ等に比べて熱線の発生が極めて低いので、後 述する光源レンズ 18や投影光学系 20として、榭脂製のレンズを採用することができ る。よって、ガラス製のレンズを採用する場合に比べて、光源レンズ 18,投影光学系 20を安価で軽量に構成することができる。
[0047] LEDアレイ 17Aを構成する各 LED17は、各々同じ発光色を発光する。各 LED17 は、材料に Al、 In、 Ga、 Pの 4元素が用いられており、アンバー色を発光する。よって 、複数色の発光色を発光させる場合に生ずる色収差の補正を考慮する必要はなぐ 色収差を補正するために投影光学系 20として色消しレンズを採用する必要はないの で、簡単な面構成および安価な材料の投影手段を提供すると!、う効果がある。
[0048] また、他の発光色に比べて電気光変換率が約 801umenZWと高い 4元素材料の アンバー色 LEDを採用することで、一層、高輝度、節電、長寿命化を図ることができ る。尚、各 LED17を千鳥状に配置する事に関する効果については、図 4 (a)から図 4 (c)を参照して説明する。
[0049] 具体的には、 LEDアレイ 17Aは 59個の LED17からなり、各 LED17は 50mW(20 mA, 2. 5V)で駆動される。したがって、全 59個の LED17は略 3Wの消費電力で駆 動される。各 LED17から発光される光力 光源レンズ 18、投影 LCD19を通過して 投影光学系 20から照射される場合の光束値としての明るさは、全面照射の場合であ つても 25ANSIルーメン程度に設定されて!、る。
[0050] この明るさを採用することで、例えば、立体画像モードにおいて、人や動物の顔面 等の被写体の 3次元形状を検出する場合に、人や動物に眩しさを与えず、人や動物 が目をつぶっていない状態の 3次元形状を検出することができる。
[0051] 光源レンズ 18は、 LEDアレイ 17Aから放射状に発光される光を集光する集光光学 系としてのレンズであり、その材質はアクリルに代表される光学樹脂で構成されている
[0052] 具体的には、光源レンズ 18は、 LEDアレイ 17Aの各 LED17に対向する位置に投 影 LCD19側に向けて凸設された凸状のレンズ部 18aと、そのレンズ部 18aを支持す るベース部 18bと、そのベース部 18bの内部空間であって LEDアレイ 17Aを内包す る開口に充填される LED17の封止および基板 16と光源レンズ 18との接着を目的と したエポキシ封止材 18cと、ベース部 18bから基板 16側に突設され、光源レンズ 18と 基板 16とを接続する位置決めピン 18dとを備えている。
[0053] 光源レンズ 18は、開口の内部に LEDアレイ 17Aを内包させつつ、基板 16に穿設 されている長孔 16に位置決めピン 18dを差し込むことによって、基板 16上に固定さ れる。
[0054] よって、省スペースで光源レンズ 18を配置することができる。また、基板 16に LED アレイ 17Aを実装するという機能の他に、光源レンズ 18を支持するという機能をも備 えさせることによって、光源レンズ 18を支持する部品を別途設ける必要がなくなり、部 品点数を削減することができる。
[0055] 各レンズ部 18aは、 LEDアレイ 17Aの各 LED17と 1対 1の関係で対向する位置に 配置されている。
[0056] よって、各 LED17から発光される放射状の光は、各 LED17に対向する各レンズ部 18aによって効率良く集光され、図 3 (a)に示すような指向性の高い放射光として投 影 LCD19に照射される。この様に指向性を高めたのは、投影 LCD19に略垂直に 光を入射させることによって、面内の透過率ムラが抑制され得るためである。また、指 向性を高めた理由は、投影光学系 20はテレセントリック特性を持ち、その入射 NAが 0. 1程度であるため、垂直 ± 5° 以内の光のみが内部の絞りを通過できるように規制 されているためである。従って、 LED17からの光を出射角度を投影 LCD19に対し 垂直に揃え、且つ、 ± 5° にほどんどの光束を入れることが画質向上の要点となる。 なぜなら投影 LCD19に垂直力も外れた光を入射すると、液晶の旋光性により、透過 率が入射角度に依存して変わってしまい、透過率ムラとなる力もである。
[0057] 投影 LCD19は、光源レンズ 18を通過して集光された光に空間変調を施して、投影 光学系 20に向けて画像信号光を出力する空間変調素子である。具体的には、投影 LCD 19は、縦横のサイズの異なる板状の液晶ディスプレイ(Liquid Crystal Disp lay)で構成されている。
[0058] 図 3 (c)に示すように、投影 LCD 19を構成する各画素は、投影 LCD 19の長手方 向に沿って一直線状に並べられた 1の画素列と、その 1の画素列とは投影 LCD19の 長手方向において所定間隔ずれた他の画素列とが交互に並列に並べられた状態と なるように配置されている。
[0059] 尚、図 3 (c)にお 、て、紙面手前側が撮像ヘッド 2の正面側に対応し、紙面裏側か ら光が投影 LCD19に向けて照射される。また、図 3 (c)では、被写体力もの光は紙面 手間側から奥側に向か 、、 CCD22上に被写体像が結像される。
[0060] このように、投影 LCD19を構成する画素を長手方向において千鳥状に配置するこ とで、長手方向と直交する方向(短手方向)において、投影 LCD19によって空間変 調が施される光を 1Z2ピッチで制御することができる。従って、細いピッチで投影パ ターンを制御でき、分解能を上げて高精度に 3次元の形状を検出することができる。 [0061] 特に、後述する立体画像モードや平面化画像モードにおいて、被写体の 3次元形 状を検出すベぐ被写体に向けて明暗を交互に並べてなる縞状のパターン光を投光 する場合に、その縞方向を投影 LCD19の短手方向に一致させることで、明暗の境 界を 1Z2ピッチで制御することができる。したがって、高精度に 3次元の形状を検出 することができる。
[0062] 撮像ヘッド 2の内部において、投影 LCD19と CCD22とは、図 3 (c)に示すような関 係で配置される。具体的には、投影 LCD19の幅広面と CCD22の幅広面とは略同 一の方向に向 、て配置されて 、るので、投影 LCD 19から投影面に投影されて 、る 画像を CCD22に結像させる場合に、投影画像をノヽーフミラー等で屈曲させることな ぐそのままの状態で投影画像を結像させることができる。
[0063] CCD22は、投影 LCD19の長手方向側(画素列が延びる方向側)に配置されてい る。この場合、特に、立体画像モードや平面化画像モードにおいて、三角測量の原 理を利用して被写体の 3次元形状を検出する場合には、 CCD22と被写体とのなす 傾きを 1Z2ピッチで制御することができるので、高精度に 3次元の形状を検出するこ とが可能になる。
[0064] 投影光学系 20は、投影 LCD 19を通過した画像信号光を投影面に向けて投影す る複数のレンズからなる。投影光学系 20は、ガラス及び榭脂の組み合わせカゝらなる テレセントリックレンズで構成されている。テレセントリックとは、投影光学系 20を通過 する主光線は、入射側の空間では光軸に平行になり、射出瞳の位置は無限になる構 成をいう。このようにテレセントリックにすることで、前述のように投影 LCD19を垂直士 5° で通過する光のみを投影し得るので、画質を向上させることができる。
[0065] 図 4 (a)から図 4 (c)は、 LEDアレイ 17Aの配列に関する説明をするための図である 。図 4 (a)は光源レンズ 18を通過した光の照度分布を示す図であり、図 4 (b)は LED アレイ 17Aの配列状態を示す平面図であり、図 4 (c)は投影 LCD19面における合成 照度分布を示す図である。
[0066] 図 4 (a)に示すように、光源レンズ 18を通過した光は、半値拡がり半角 Θ (=略 5° )で、図 4 (a)左側に図示するような照度分布を有する光として投影 LCD19の表面に 到達するように設計されて 、る。 [0067] 図 4 (b)に示すように、複数の LED17は基板上 16に千鳥状に配列されている。具 体的には、複数個の LED17を dピッチで直列に並べた LED列力 3Z2dピッチ で並列に複数並べられており、更に、このように並列に並べられた複数の LED列に おいて、 1列おきの列は隣の列に対して同じ方向に lZ2d移動された状態になって いる。
[0068] 換言すれば、 1の LED17と、その 1の LED17の周辺の LED17との間隔は dになる ように設定されて 、る(すなわち、 LED17は三角格子配列となって 、る)。
[0069] この dの長さは、 LED17の 1つから出射された光によって投影 LCD19において形 成される照度分布の半値全幅(FWHM (Full Width Half Maximum) )以下となる 様に決定されている。
[0070] よって、光源レンズ 18を通過して投影 LCD19の表面に到達する光の合成照度分 布は、図 4 (c)に示すように小さなリップルを含んだ略直線状になり、投影 LCD19の 面に略均一に光を照射することができる。従って、投影 LCD19における照度ムラを 抑制することができ、結果的に、高品質な画像を投影することができる。
[0071] 図 5は、画像入出力装置 1の電気的なブロック図である。尚、既に上述した構成つ いては、その説明を省略する。プロセッサ 15は、 CPU35と、 ROM36と、 RAM37と を備えている。
[0072] CPU35は、 ROM36に記憶されたプログラムにした力^、、 RAM37を利用して各 種の処理を行う。 CPU35の制御の下で行われる処理には、レリーズボタン 8の押下 げ操作の検知、 CCD22から画像データの取り込み、その画像データの転送、格納、 モード切替スィッチ 9の状態の検出等が含まれる。
[0073] ROM36には、カメラ制御プログラム 36aと、パターン光撮影プログラム 36bと、輝度 画像生成プログラム 36cと、コード画像生成プログラム 36dと、コード境界抽出プログ ラム 36eと、レンズ収差補正プログラム 36fと、三角測量演算プログラム 36gと、原稿 姿勢演算プログラム 36hと、平面変換プログラム 36iとが格納されて 、る。
[0074] カメラ制御プログラム 36aは、図 6に示すメイン処理を含む画像入出力装置 1全体の 制御に関するプログラムである。
[0075] ノターン光撮影プログラム 36bは、原稿 Pの 3次元形状を検出するために被写体に ノ ターン光を投影した状態と、投影して 、な 、状態とを撮像するプログラムである。
[0076] 輝度画像生成プログラム 36cは、パターン光撮影プログラム 36bによってパターン 光を投影した状態で撮像されたパターン光有画像と、ノ ターン光を投影して 、な ヽ 状態で撮像されたパターン光無画像との差分をとり、投影されたパターン光の輝度画 像を生成するプログラムである。
[0077] また、パターン光は複数種類のものが時系列に投影され各パターン光毎に撮像さ れ、撮像された複数枚のパターン光有画像の各々とパターン光無画像との差分がと られ、複数種類の輝度画像が生成される。
[0078] コード画像生成プログラム 36dは、輝度画像生成プログラム 36cによって生成される 複数枚の輝度画像を重ね合わせ、各画素毎に所定のコードを割り当てたコード画像 を生成するプログラムである。
[0079] コード境界抽出プログラム 36eは、コード画像生成プログラム 36dによって生成され るコード画像と、輝度画像生成プログラム 36cによって生成される輝度画像とを利用 して、コードの境界座標をサブピクセル精度で求めるプログラムである。
[0080] レンズ収差補正プログラム 36fは、コード境界抽出プログラム 36eによってサブピク セル精度で求められて ヽるコードの境界座標に対して、撮像光学系 20の収差補正 を行うプログラムである。
[0081] 三角測量演算プログラム 36gは、レンズ収差補正プログラム 36fによって収差補正 がなされたコードの境界座標から、その境界座標に関する実空間の 3次元座標を演 算するプログラムである。
[0082] 原稿姿勢演算プログラム 36hは、三角測量演算プログラム 36gで演算された 3次元 座標から原稿 Pの 3次元形状を推定して求めるプログラムである。
[0083] 平面変換プログラム 36iは、原稿姿勢演算プログラム 36hで演算される原稿 Pの 3次 元形状に基づき、原稿 Pの正面力も撮像したような平面化画像を生成するプログラム である。
[0084] RAM37には、パターン光有画像格納部 37aと、パターン光無画像格納部 37bと、 輝度画像格納部 37cと、コード画像格納部 37dと、コード境界座標格納部 37eと、 ID 格納部 37fと、収差補正座標格納部 37gと、 3次元座標格納部 37hと、原稿姿勢演 算結果格納部 37iと、平面変換結果格納部 37jと、投影画像格納部 37kと、ヮーキン グエリア 371とが記憶領域として割り当てられて 、る。
[0085] パターン光有画像格納部 37aは、パターン光撮影プログラム 36bによって原稿 Pに ノターン光を投影した状態を撮像したパターン光有画像を格納する。パターン光無 画像格納部 37bは、パターン光撮影プログラム 36bによって原稿 Pにパターン光を投 影して 、な 、状態を撮像したパターン光無画像を格納する。
[0086] 輝度画像格納部 37cは、輝度画像生成プログラム 36cによって生成される輝度画 像を格納する。コード画像格納部 37dは、コード画像生成プログラム 36dによって生 成されるコード画像を格納する。コード境界座標格納部 37eは、コード境界抽出プロ グラム 36eによって、抽出されるサブピクセル精度で求められた各コードの境界座標 を格納する。 ID格納部 37fは、境界を有する画素位置において明暗の変化を有する 輝度画像に割り当てられる ID等を格納する。収差補正座標格納部 37gは、レンズ収 差補正プログラム 36fによって収差補正がなされたコードの境界座標を格納する。 3 次元形状座標格納部 37hは、三角測量演算プログラム 36gによって演算される実空 間の 3次元座標を格納する。
[0087] 原稿姿勢演算結果格納部 37iは、原稿姿勢演算プログラム 36hによって演算される 原稿 Pの 3次元形状に関するパラメータを格納する。平面変換結果格納部 37jは、平 面変換プログラム 36はって生成される平面変換結果を格納する。投影画像格納部 3 7kは、画像投影部 13から投影する画像情報を格納する。ワーキングエリア 371は、 C PU15での演算のために一時的に使用するデータを格納する。
[0088] 図 6は、 CPU35による制御の下で実行されるメイン処理のフローチャートである。尚 、このメイン処理におけるデジカメ処理(S605)、 webcam処理(S607)、立体画像 処理(S607)、平面化画像処理(S611)
Figure imgf000017_0001
、ての詳細は後述する。
[0089] メイン処理では、まず、電源が起動されると(S601)、プロセッサ 15やその他のイン ターフェイス等が初期化される (S602)。
[0090] そして、モード切替スィッチ 9の状態を判別するキースキャンが行われ(S603)、モ ード切替スィッチ 9の設定がデジカメモードか否かが判断され(S604)、デジカメモー ドであれば(S604 : Yes)、後述するデジカメ処理に移行する(S605)。 [0091] 一方、デジカメモードでなければ(S604 : No)、モード切替スィッチ 9の設定が web camモードか否かが判断され(S606)、 webcamモードであれば(S606 : Yes)、後 述する webcam処理に移行する(S607)。
[0092] 一方、 webcamモードでなければ(S605 : No)、モード切替スィッチ 9の設定が立 体画像モードか否かが判断され(S608)、立体画像モードであれば(S608 : Yes)、 後述する立体画像処理に移行する(S609)。
[0093] 一方、立体画像モードでなければ(S608 : No)、モード切替スィッチ 9の設定が平 面化画像モードか否かが判断され (S610)、平面化画像モードであれば (S610 : Ye s)、後述する平面化画像処理に移行する(S611)。
[0094] 一方、平面化画像モードでなければ(S610 : No)、モード切替スィッチ 9がオフモ ードか否かが判断され(S612)、オフモードでなければ(S612 : No)、 S603からの 処理が繰り返される。ステップ S612において、オフモードであれると判定された場合 には(S612 :Yes)、当該処理を終了する。
[0095] 図 7は、デジカメ処理(図 6の S605)のフローチャートである。デジカメ処理は、画像 撮像部 14によって撮像した画像を取得する処理である。
[0096] この処理では、まず、 CCD22に高解像度設定信号が送信される(S701)。これに より高品質の撮像画像を使用者に提供することができる。
[0097] 次に、モニタ LCD10にファインダ画像 (ファインダ 6を介して見える範囲の画像)が 表示される(S702)。よって、使用者は、ファインダ 6を覼き込むことなぐモニタ LCD
10に表示された画像によって実際の撮像の前に、撮像画像 (撮像範囲)を確認する ことができる。
[0098] 次に、レリーズボタン 8をスキャンし(S703a)、レリーズボタン 8が半押しされたか否 かを判断する(S703b)。半押しされていれば(S703b : Yes)、オートフォーカス (AF )および自動露出 (AE)機能を起動し、ピント、絞り、シャツタスピードを調節する(S7 03c)。半押しされていなければ(S703b :No)、 S703aからの処理を繰り返す。
[0099] 次に、再び、レリーズボタン 8をスキャンし(S703d)、レリーズボタン 8が全押しされ たか否かを判断する(S703e)。全押しされていれば(S703e : Yes)、フラッシュモー ドか否かを判断する(S704)。 [0100] その結果、フラッシュモードであれば(S704 : Yes)、フラッシュ 7を投光して(S705)
、撮影が行われる(S706)。フラッシュモードでなければ(S704 : No)、フラッシュ 7を 投光することなく撮影する(S706)。尚、 S703eの判断において、全押しされていな ければ (S703e: No)、 S703a力らの処理を繰り返す。
[0101] 次に、撮影した撮像画像を CCD22からキャッシュメモリ 28に転送し(S707)、キヤ ッシュメモリ 28に記憶された撮像画像をモニタ LCD10に表示する(S708)。このよう に、撮像画像をキャッシュメモリ 28に転送することでメインメモリに転送する場合に比 較して、撮像画像を高速にモニタ LCD10に表示させることができる。そして、その撮 像画像を外部メモリ 27に格納する(S709)。
[0102] 最後に、モード切替スィッチ 9に変化が無いか否かを判断し (S710)、変化が無け れば(S710 :Yes)、 S702からの処理を繰り返す。ステップ S710において変化があ ると判定された場合には(S710 :No)、当該処理を終了する。
[0103] 図 8は、 webcam処理(図 6の S607)のフローチャートである。 webcam処理は、画 像撮像部 14で撮像した撮像画像 (静止画および動画を含む)を外部ネットワークに 送信する処理である。尚、本実施形態では、撮像画像として動画を外部ネットワーク に送信する場合を想定して 、る。
[0104] この処理では、ます、 CCD22に低解像度設定信号を送信し (S801)、周知のォー トフォーカス及び自動露出機能を起動して、ピント、絞り、シャッター速度を調節した 後に(S802)、撮影を開始する(S803)。
[0105] そして、撮影された撮像画像をモニタ LCD10に表示し (S804)、ファインダ画像を 投影画像格納部 37kに格納し (S805)、後述する投影処理を行い(S806)、投影画 像格納部 37kに格納されている画像を投影面に投影する。
[0106] また、撮像画像を CCD22からキャッシュメモリ 28に転送し(S807)、キャッシュメモ リ 28に転送された撮像画像を RFインターフェイスを介して外部ネットワークに送信す る(S808)。
[0107] そして、最後に、モード切替スィッチ 9に変化が無いか否かを判断し (S809)、変化 が無ければ(S809 :Yes)、 S802からの処理を繰り返し、変化があれば(S809 :No) 、当該処理を終了する。 [0108] 図 9は投影処理(図 8の S806)のフローチャートである。この処理は、投画像投影部 13から投影画像格納部 37kに格納されている画像を投影面に投影する処理である 。この処理では、まず、投影画像格納部 37kに画像が格納されているカゝ否かを確認 する(S901)。格納されていれば(S901 : Yes)、投影画像格納部 37kに格納されて いる画像を投影 LCDドライバ 30に転送し(S902)、投影 LCDドライバ 30から、その 画像に応じた画像信号を投影 LCD19に送り、投影 LCDに画像を表示する(S903)
[0109] 次に、光源ドライバ 29を駆動し (S904)、その光源ドライバ 29からの電気信号によ つて LEDアレイ 17Aを点灯し(S905)、当該処理を終了する。
[0110] こうして、 LEDアレイ 17Aが点灯すると、 LEDアレイ 17Aから発光する光は、光源レ ンズ 18を介して投影 LCD 19に到達し、投影 LCD19において、投影 LCDドライバ 3 0から送信される画像信号に応じた空間変調が施され、画像信号光として出力される 。そして、その投影 LCD19から出力される画像信号光は、投影光学系 20を介して投 影面に投影画像として投影される。
[0111] 図 10は立体画像処理(図 6の S609)のフローチャートである。立体画像処理は、被 写体の 3次元形状を検出し、その立体画像としての 3次元形状検出結果画像を取得 、表示、投影する処理である。
[0112] この処理では、まず、 CCD22に高解像度設定信号を送信し (S1001)、モニタ LC D10にファインダ画像を表示する(S 1002)。
[0113] 次に、レリーズボタン 8をスキャンし(S1003a)、レリーズボタン 8が半押しされたか 否かを判断する(S 1003b)。半押しされていれば(S 1003b : Yes)、オートフォーカス (AF)および自動露出 (AE)機能を起動し、ピント、絞り、シャツタスピードを調節する (S 1003c)。半押しされていなければ(S 1003b : No)、 S 1003aからの処理を繰り返 す。
[0114] 次に、再び、レリーズボタン 8をスキャンし(S1003d)、レリーズボタン 8が全押しされ たか否かを判断する(S1003e)。全押しされていれば(S1003e : Yes)、フラッシュモ ード力否かを判断する(S1003f)。
[0115] その結果、フラッシュモードであれば(S1003f : Yes)、フラッシュ 7を投光して(S 10 03g)、撮影が行われる(S1003h)。フラッシュモードでなければ(S1003f :No)、フ ラッシュ 7を投光することなく撮影する(S1003h)。 S1003eの判断において、全押し されて ヽなければ (S1003e: No)、 S 1003aからの処理を繰り返す。
[0116] 次に、後述する 3次元形状検出処理を行い、被写体の 3次元形状を検出する(S10 06)。
[0117] 次に、 3次元形状検出処理 (S1006)における 3次元形状検出結果を外部メモリ 27 に格納し(S1007)、 3次元形状検出結果をモニタ LCD10に表示する(S1008)。尚 、この 3次元形状検出結果とは、各計測頂点の実空間における 3次元座標 (XYZ)の 集合体として表示する。
[0118] 次に、 3次元形状検出結果としての計測頂点をポリゴンで結んでそのサーフェスを 表示した立体画像(3Dの CG画像)としての 3次元形状検出結果画像を投影画像格 納部 37kに格納し (S1009)、図 8の S806の投影処理と同様な投影処理を行う(S10 10)。尚、この場合には、図 18 (a)及び図 18 (b)に関して説明する投影 LCD19上の 座標を 3次元空間座標に変換する式の逆関数を利用して、求められた 3次元座標に 対する投影 LCD19上の座標を求めることで、 3次元形状結果座標を投影面に投影 させることがでさる。
[0119] そして、モード切替スィッチ 9に変化が無いか否かを判断し(S1011)、変化が無け れば(S1011 :Yes)、 S702からの処理を繰り返す。変化があれば(S1011 :No)、 当該処理を終了する。
[0120] 図 11 (a)は、上述した 3次元形状検出処理(図 10の S1006)において、 3次元形状 を検出するために利用する空間コード法の原理を説明するための図であり、(b)は (a )とは異なるパターン光を示す図である。パターン光にはこれら (a)または (b)の ヽず れを用いても良ぐ更には、多階調コードであるグレイレベルコードを用いても良い。 図 11 (a)は、上述した 3次元形状検出処理(図 10の S1006)において、 3次元形状 を検出するために利用する空間コード法の原理を説明するための図である。図 11 (b )は、図 11 (a)とは異なるパターン光を示す図である。パターン光にはこれら図 11 (a) 、図 11 (b)に示されるいずれのものが用いられても良ぐ更には、多階調コードである グレイレベルコードが用いられても良 、。 [0121] 尚、この空間コード法につての詳細は、佐藤宏介、他 1名、「空間コードィ匕による距 離画像入力」、電子通信学会論文誌、 85Z3Vol. J 68— D No3 p369〜375に 詳細に開示されている。
[0122] 空間コード法は、投影光と観測画像間の三角測量に基づいて被写体の 3次元形状 を検出する方法の 1種であり、図 11 (a)に示すように、投影光源 Lと観測器 Oとを距離 Dだけ離して設置し、空間を細長!/ヽ扇状領域に分割しコード化することを特徴とする
[0123] 図中の 3枚のマスクパターン A, B, Cを MSB力 順番に投影すると、各扇状領域は マスクによって明「1」と暗「0」とにコード化される。例えば、点 Pを含む領域は、マスク
A, Bでは光が当たらず、マスク Cでは明になるので、 001 (A=0、 B = 0、 C= l)とコ ード化される。
[0124] 各扇状の領域には、その方向 φに相当するコードが割り当てられ、それぞれのコー ドの境界を 1本のスリット光線とみなすことができる。そこで各マスクごとに情景を観測 機器としてのカメラで撮影し、明暗パターンを 2値ィ匕してメモリの各ビットプレーンを構 成していく。
[0125] こうして、得られた多重ビットプレーン画像の横方向の位置 (アドレス)は、観測方向
Θに相当し、このアドレスのメモリの内容は投影光コード、即ち、 φを与える。この Θと Φとから注目点の座標を決定する。
[0126] また、この方法で使用するマスクパターンとしては、図 11 (a)ではマスクパターン A,
B, Cのような純 2進コードを用いる場合を図示している力 マスクの位置ズレが起こる と領域の境界で大きな誤差が生ずる危険性がある。
[0127] 例えば、図 11 (a)の点 Qは領域 3 (011)と領域 4 (100)の境界を示している力 もし マスク Aの 1がずれ込むと領域 7 (111)のコードが生ずる可能性がある。換言すれば 、隣接する領域間でハミング距離が 2以上のところで、大きな誤差が発生する可能性 がある。
[0128] そこで、この方法で使用するマスクパターンとしては、図 11 (b)に示すように、隣接 する領域間でハミング距離が常に 1であるコードを使うことで、上述したようなコードィ匕 誤差を避けることができるとされて 、る。 [0129] 図 12 (a)は、 3次元形状検出処理(図 10の S1006)のフローチャートである。この処 理では、まず、撮像処理を行う(S1210)。この撮像処理は、図 11 (a)に示す複数枚 の純 2進コードのマスクパターンを利用して画像投影部 13から、明暗を交互に並べ てなる縞状のパターン光(図 1参照)を時系列的に被写体に投影し、各パターン光が 投影されて ヽる状態を撮像したパターン光有画像と、ノターン光が投影されて ヽな 状態を撮像したパターン光無画像とを取得する処理である。
[0130] 撮像処理を終了すると(S1210)、 3次元計測処理を行う(S1220)。 3次元計測処 理は、撮像処理によって取得したパターン光有画像とパターン光無画像とを利用し て、実際に被写体の 3次元形状を計測する処理である。こうして、 3次元計測処理を 終了すると(S1220)、当該処理を終了する。
[0131] 図 12 (b)は、撮像処理(図 12 (a)の S1210)のフローチャートである。この処理は、 ノターン光撮影プログラム 36aに基づき実行され、まず、画像投影部 13からパターン 光を投影することなぐ画像撮像部 14によって被写体を撮像することで、パターン光 無画像を取得する(S1211)。尚、取得したパターン光無画像はパターン光無画像 格納部 37bに格納される。
[0132] 次に、カウンタ iを初期化し(S1212)、そのカウンタ iの値が最大値 imaxか否かを判 断する(S1213)。尚、最大値 imaxは使用するマスクパターンの数によって決定され る。例えば、 8種類のマスクパターンを使用する場合には、最大 imax ( = 8)となる。
[0133] そして、判断の結果、カウンタ iの値が最大値 imaxより小さい場合には(S1213 : Ye s)、使用するマスクパターンの内、 i番のマスクパターンを投影 LCD 19に表示し、そ の i番のマスクパターンによって投影される i番のパターン光を投影面に投影し(S121 4)、そのパターン光が投影されている状態を画像撮像部 14によって撮影する(S12 15)。
[0134] こうして、被写体に i番のパターン光が投影された状態を撮像したパターン光有画像 を取得する。尚、取得したパターン光有画像は、パターン光有画像格納部 37aに格 納される。
[0135] 撮影を終了すると、 i番のパターン光の投影を終了し (S1216)、次のパターン光を 投影すべく、カウンタ iに「 1」を加算して(S1217)、 S1213からの処理を繰り返す。 [0136] そして、カウンタ iの値が最大値 imaxより大きいと判断すると(S1213 :No)、当該処 理を終了する。即ち、この撮像処理においては、 1枚のパターン光無画像と、最大値 i max枚のパターン光有画像とを取得することになる。
[0137] 図 12 (c)は、 3次元計測処理(図 12 (a)の S1220)のフローチャートである。この処 理は、輝度画像生成プログラム 36cに基づき実行される。この処理では、まず、輝度 画像を生成する(S1221)。ここで、輝度は、 YCbCr空間における Y値であり、各画 素の RGB値より Y=0. 2989 -R+O. 5866 -G + 0. 1145 · Βから計算される値であ る。各画素について Υ値を求めることにより、各パターン光有及び無し画像に関する 輝度画像を生成する。生成した輝度画像は、輝度画像格納部 37cに格納される。ま た、パターン光の番号に対応した番号を各輝度画像に割り付けておく。
[0138] 次に、コード画像生成プログラム 36dにより、上述した空間コード法を利用して、生 成した輝度画像を組み合わせることで、各画素毎にコード化されたコード画像を生成 する(S1222)。
[0139] このコード画像は、輝度画像格納部 37cに格納したパターン光有画像に関する輝 度画像の各画素について、あら力じめ設定した輝度閾値と比較し、その結果を結合 させることで生成することができる。生成されたコード画像はコード画像格納部 37dに 格納される。
[0140] 次に、コード境界抽出プログラム 36eにより、後述するコード境界座標検出処理を 行い(S1223)、各画素毎に割り当てられたコードの境界座標をサブピクセル精度で 検出する。
[0141] 次に、レンズ収差補正プログラム 36fにより、レンズ収差補正処理を行う(S1224)。
この処理によって、撮像光学系 21の歪みなどの影響で誤差を含んでいる S1223で 検出されるコード境界座標の誤差を補正することができる。
[0142] 次に、三角測量演算プログラム 36gにより、三角測量原理による実空間変換処理を 行う(S1225)。この処理によって収差補正が施された後の CCD空間上のコード境 界座標は、実空間における 3次元座標に変換され、 3次元形状検出結果としての 3次 元座標が求められる。
[0143] 図 13は、コード境界座標検出処理(図 12の S1223)の概略を説明するための図で ある。上側の図は、 CCD空間において実際のパターン光の明暗の境界を境界線 K で示し、そのパターン光を上述した空間コード法でコード化し、 1のコードと他のコー ドとの境界を図中太線で示した図である。
[0144] 即ち、上述した空間コード法におけるコードィ匕は、各画素単位で行われるため、実 際のパターン光の境界線 Kと、コード化された境界(図中太線)とではサブピクセル精 度の誤差が生ずる。そこで、このコード境界座標検出処理は、コードの境界座標をサ ブピクセル精度で検出することを目的とする。
[0145] この処理では、まず、ある検出位置(以下「curCCDX」と称す)にお 、て、ある着目 コード (以下「curCode」 t 、う)力も他のコードに変化する第 1画素 Gを検出する(第 1 画素検出工程)。
[0146] 例えば、 curCCDXにおいて、上から順番に各画素を検出すると、境界 (太線)まで は curCodeを有する画素である力 境界の次の画素、即ち、第 1画素 Gにおいて、 c urCodeは変化して!/、るので、これを第 1画素 Gとして検出する。
[0147] 次に、その第 1画素 Gの画素位置において、図 12の S1221において輝度画像格 納部 37cに格納された輝度画像の内から、明暗の変化を持つ輝度画像の全部を抽 出する (輝度画像抽出工程)。
[0148] 次に、近似に利用するための画素領域を特定するために検出位置を「2」左側に移 動させ、検出位置 curCCDX— 2の位置において、コード画像を参照して、着目コー ド(curCode)力 他のコードに変化する画素(境界画素(curCCDX— 2の検出位置 では画素 H) )を探し、その画素を中心に予め定めた範囲 (本実施例の場合 Y軸方向 に 3画素と + 2画素の範囲)の画素範囲を特定する(画素領域特定手段の一部)。
[0149] 次に、その予め定めた範囲内において、図中の下側の左側のグラフに示すように、 Y方向の画素位置と輝度とに関する近似式(図中実線で示す)を求め、その近似式 における輝度閾値 bThとの交点における Y座標 Y1を求める(境界座標検出工程の 一部)。
[0150] 尚、輝度閾値 bThは、予め定められた範囲内から算出(例えば、各画素の輝度の 平均の 2分の 1)しても良ぐ予め与えられた固定値であっても良い。これにより、明と 暗との境界をサブピクセル精度で検出することができる。 [0151] 次に、検出位置を curCCDX—2から「1」右側に移動させ、 curCCDX—lにおい て上述したのと同様な処理を行 、、 curCCDX- 1における代表値を求める(境界座 標検出工程の一部)。
[0152] このように、境界画素を中心に Y軸方向に予め定めた範囲と、 X軸方向における cu rCCDX- 2から curCCDX+ 2の範囲とで構成される画素領域(図中右下がり斜線 部参照)において、各検出位置における代表値を求める。
[0153] これまでの処理を curCodeから他のコードへ変化する画素を持つ輝度画像の全て に行い、各輝度画像についての代表値の加重平均値を最終的に curCodeにおける 境界座標として採用する (境界座標検出工程の一部)。
[0154] これにより、コードの境界座標を高精度にサブピクセル精度で検出することができ、 この境界座標を利用して上述した三角測量原理による実空間変換処理 (図 12の S1 225)を行うことで、高精度に被写体の 3次元形状を検出することができる。
[0155] また、このように輝度画像に基づき算出される近似式を利用して境界座標をサブピ クセル精度で検出することができるため、従来のように撮像枚数を増カロさせることもな ぐまた、純 2進コードで明暗付けられたパターン光であっても良ぐ特殊なパターン 光であるグレイコードを用いる必要はな 、。
[0156] 尚、本実施例では、各検出位置において境界画素を中心に Y軸方向に「一 3」から 「 + 2」の範囲と、 X軸方向における検出位置としての curCCDX— 2から curCCDX + 2の範囲とで構成される領域を、近似を求めるための画素領域として説明したが、 この画素領域の Y軸、 X軸の範囲はこれらに限定されるものではない。例えば、 curC CDXの検出位置における境界画素を中心とした Y軸方向への所定範囲だけを画素 領域としても良い。
[0157] 図 14は、コード境界座標検出処理(図 12 (c)の S1223)のフローチャートである。こ の処理は、コード境界抽出プログラム 36eに基づき実行される。この処理では、まず、 CCD空間におけるコード境界座標列の各要素を初期化し (S 1401)、 curCCDXを 開始座標に設定する(S1402)。
[0158] 次に、 curCCDXが終了座標以下力否かを判断し(S 1403)、終了座標以下であ れば(S 1403 : Yes)、 curCodeを「0」に設定する(S1404)。即ち、 curCodeは当初 、最小値に設定される。
[0159] 次に、 curCodeが最大コードより小さいか否かを判断する(S1405)。 curCodeが 最大コードより小さければ(S 1405 :Yes)、 curCCDXにおいてコード画像を参照し て、 curCodeの画素を探し(S 1406)、 curCodeの画素が存在するか否かを判断す る(S1407)。
[0160] その結果、 curCodeの画素が存在していれば(S 1407 : Yes)、 curCCDXにおい て、その curCodeよりも大きな Codeの画素をコード画像を参照して探し(S 1408)、 その curCodeよりも大きな curCodeの画素が存在するか否かを判断する(S 1409)。
[0161] その結果、 curCodeよりも大きな Codeの画素が存在していれば(S 1409 : Yes)、 後述する境界をサブピクセル精度で求める処理を行う(S1410)。そして、次の curC odeについて境界座標を求めるベぐ curCodeに「1」を加算して(S1411)、 S 1405 からの処理を繰り返す。
[0162] 即ち、境界は、 curCodeを有する画素の画素位置または curCodeよりも大きな Cod eの画素の画素位置に存在しているため、本実施例では、暫定的に境界は、 curCod eより大きな curCodeの画素の画素位置にあると仮定して処理を進めるものである。
[0163] また、 curCodeが存在していない場合や(S 1407 : No)、 curCodeよりも大きな Co deの画素が存在して!/ヽな 、場合には(S1409: No)、次の curCodeにつ!/、て境界座 標を求めるベぐ curCodeに「1」をカ卩算して(S1411)、 S1405からの処理を繰り返 す。
[0164] こうして、 0から最大コードまでの curCodeについて、 S1405力ら S1411までの処 理を繰り返し、 curCodeが最大コードより大きくなると(S 1405 : No)、検出位置を変 更すべぐ curCCDXに「dCCDX」を加算し(S 1412)、新たな検出位置において、 上述したのと同様に S1403からの処理を繰り返す。
[0165] そして、 curCCDXを変更してゆき、最終的に curCCDXが終了座標より大きくなる と(S1403)、即ち、開始座標力も終了座標までの検出が終了すると、当該処理を終 了する。
[0166] 図 15は、コード境界座標をサブピクセル精度で求める処理(図 14の S1410)のフロ 一チャートである。 [0167] この処理では、まず、図 12 (c)の S1221において輝度画像格納部 37cに格納され た輝度画像の内から、図 14の S1409において検出された curCodeよりも大きな Cod eを有する画素の画素位置において、明暗の変化を持つ輝度画像の全部を抽出す る(S1501)。
[0168] そして、その抽出した輝度画像のマスクパターン番号を配列 PatID[]へ格納し、そ の抽出した輝度画像の画像数を noPatIDへ格納する(S1502)。尚、配列 PatID[] と noPatIDとは ID格納部 37fに格納される。
[0169] 次に、カウンタ iを初期化し(S1503)、カウンタ iの値力 ¾oPatIDより小さいか否かを 判断する(S 1504)。その結果、小さいと判断されれば(S 1504 : Yes)、カウンタ こ 対応する PatID[i]のマスクパターン番号を持つ輝度画像について、境界の CCDY 値を求め、その値を f CCDY[i]へ格納する(S 1505)。
[0170] この S1505の処理を終了すると、カウンタ iに「1」をカロ算し(S1506)、 S1504力ら の処理を繰り返す。そして、 S1504において、カウンタ iの値力 oPatIDより大きいと 判断されると(S1504 :No)、即ち、 S1501で抽出された全部の輝度画像について S 1505の処理が終了すると、 S1505の処理で求めた fCCDY[i]の加重平均値を計 算し、その結果を境界値とする(S 1507)。
[0171] 尚、加重平均値に代えて、 S1505の処理で求めた fCCDY[i]の中央値を計算し、 その結果を境界値としたり、統計的な計算により境界値を計算したりすることもできる
[0172] 即ち、境界座標は、 curCCDXの座標と、 S 1507で求められる加重平均値とで表 現され、この境界座標をコード境界座標格納部 37eに格納して、当該処理を終了す る。
[0173] 図 16は、 PatID[i]のマスクパターン番号を持つ輝度画像について、境界の CCD
Y値を求める処理(図 15の S1505)のフローチャートである。
[0174] この処理では、まず、「curCCDX— dx」と「0」との内、大きい値を ccdxとして設定 する「ccdx=MAX(curCCDX—dx, 0)」で表される処理を行うと共に、カウンタ jを 初期化する(S1601)。
[0175] 具体的には、 S1601でいう「0」は CCDX値の最小値を意味し、例えば、今、検出 位置としての curCCDX値が「1」で、予め設定されている dx値が「2」であったとする と、「curCCDX— dx」は「一 1」となり、 CCDX値の最小値である「0」よりも小さくなる ため、「一 1」における以降の処理は、「ccdx=0」として設定する処理を行う。
[0176] 即ち、 CCDX値の最小値よりも小さい位置については、以降の処理を除外する処 理を行う。
[0177] 尚、この「dx」の値は、予め「0」を含む適当な整数に設定することができ、図 13で説 明した例では、この「dx」は「2」に設定されており、図 13の例に従えば、この ccdxは「 curCCDX- 2 Jに設定されること〖こなる。
[0178] 次に、 ccdx< = MIN (curCCDX + dx, ccdW—l)であるか否かを判断する(S16 02)。つまり、左辺の「MIN (curCCDX+dx, ccdW— 1)」は、「curCCDX+dx」と 、 CCDX値の最大値「ccdW」から「1」を減算した「ccdW— 1」との内、小さい値であ ることを意味して 、るので、その値と「ccdx」値との大小を比較する。
[0179] 即ち、 CCDX値の最大値よりも大きい位置については、以降の処理を除外する処 理を行う。
[0180] そして、判断の結果、 ccdxが MIN (curCCDX+dx, ccdW—l)よりも小さければ( S1602 :Yes)、 コード画像と PatID[i]が割り当てられた輝度画像とを参照して、境 界の存在する画素の画素位置の eCCDY値を求める(S 1603)。
[0181] 例えば、検出位置を図 13に示す curCCDX— 1であるとすると、画素 Iを境界が存 在する画素候補として検出し、画素 Iの位置において eCCDY値を求める。
[0182] 次に、 PatID[i]のマスクパターン番号を持つ輝度画像から、 MAX(eCCDY—dy , 0) < =ccdy< =MIN (eCCDY+dy - 1, ccdH—l)の範囲で、 ccdy方向にお ける輝度に関する近似多項式 Bt = fb (ccdy)を求める(S1604)。
[0183] 次に、その近似多項式 Btと輝度閾値 bThとの交差する ccdy値を求め、その値を ef CCDY [j]へ格納する(SI 605)。この S1604と S1605とによって、サブピクセル精 度の境界座標の検出をすることができる。
[0184] 次に、 ccdxとカウンタ jとに各々「1」を加算し(S1605)、 S1602からの処理を繰り返 す。即ち、 curCCDXを中心とした左右の所定範囲内における各検出位置において 、サブピクセル精度の境界を検出するのである。 [0185] そして、 S1602において、「ccdx」カ「MIN (curCCDX+dx, ccdW— 1)」より大き いと判断されると(S1602 : No)、 curCCDX—dxから curCCDX+dxの範囲で計算 された efCCDY[j]について、 ccdy=fy (ccdx)の近似多項式を求める(S 1606)。こ の処理によって S1605において検出された各値を用いるので、 1つの検出位置にお いて境界座標を検出しょうとする場合に比べて、境界座標の検出精度を向上させる ことができる。
[0186] こうして得られた近似多項式と curCCDXとの交点を、 PatID[i]のマスクパターン 番号を持つ輝度画像についての境界の CCDY値として(S 1607)、当該処理を終了 する。ここまでの処理を図 15のフローチャートに示すように、抽出した全部の輝度画 像の 1枚、 1枚に実行し、求められた境界座標について加重平均値を計算して、その 結果を最終的な境界座標としているので (S 1507)、更に、境界座標の検出精度を 向上させることができる。
[0187] 図 17 (a)から図 17 (c)は、レンズ収差補正処理(図 12 (c)の S 1224)を説明するた めの図である。レンズ収差補正処理は、図 17 (a)に示すように、撮像光学系 21の収 差により、入射した光束が理想レンズにより結像すべき位置力 ずれてしまうことに対 して、撮像された画素の位置を本来結像すべき位置へ補正する処理である。
[0188] この収差補正は、例えば、図 17 (b)に示すように、撮像光学系 21の撮像範囲にお いて、入射光の角度である半画角 Maをパラメータとして光学系の収差を計算して求 めたデータを基に補正する。
[0189] この収差補正処理では、レンズ収差補正プログラム 36fに基づき実行され、コード 境界座標格納部 37eに格納されて 、るコード境界座標にっ 、て行なわれ、収差補正 処理がなされたデータは、収差補正座標格納部 37gに格納される。
[0190] 具体的には、実画像における任意点座標(ccdx、 ccdy)を理想カメラ画像での座 標(ccdcx、 ccdcy)に変換する次の(1)から(3)のカメラキャリブレーション (近似式) を用いて補正する。
[0191] 本実施例では、収差量 dist (%)は、半画角 Ma (deg)を用いて dist=f (Ma)と記述 する。また、撮像光学系 21の焦点距離を focallength (mm)、 ccd画素長 pixelleng th (mm)、 CCD22におけるレンズの中心座標を(Centx、 Centv)とする。 [0192] (l) ccdcx= (ccdx - Centx) / ( 1 + dist/ 100) +Centx
(2) ccdcy= (ccdy - Centy) / ( 1 + dist/ 100) +Centy
(3) hfa=arctan[ ( ( (ccdx— Centx) 2 + (ccdy— Centy) 2) ) X pixellength Z focallength]
図 18 (a)及び図 18 (b)は、三角測量原理による実空間変換処理(図 12 (c)の S 12 25)において、 CCD空間における座標から、 3次元空間における 3次元座標を算出 する方法を説明するための図である。
[0193] 三角測量原理による実空間変換処理では、三角測量演算プログラム 36gによって、 収差補正座標格納部 37gに格納されている収差補正がなされたコード境界座標に ついての 3次元空間における 3次元座標が算出される。こうして算出される 3次元座 標は、 3次元座標格納部 37hに格納される。
[0194] 本実施形態では、撮像される横方向に湾曲した原稿 Pに対する画像入力出力装置 1の座標系として、撮像光学系 21の光軸方向を Z軸、その Z軸に沿って撮像光学系 2 1の主点位置力 VPZ離れた地点を原点、画像入出力装置 1に対して水平方向を X 軸、垂直方向を Y軸とする。
[0195] また、 3次元空間 (X, Υ, Z)への画像投影部 13からの投影角度 θ p、撮像レンズ光 学系 20の光軸と画像投影部 13の光軸との距離を D、撮像光学系 21の Y方向の視 野を Yftopから Yfbottom、 X方向の視野を Xfstartから Xfend、 CCD22の Y軸方 向の長さ(高さ)を Hc、 X軸方向の長さ(幅)を Wcとする。尚、投影角度 Θ pは、各画 素毎に割り当てられたコードに基づき与えられる。
[0196] この場合、 CCD22の任意座標 (ccdx, ccdy)に対応する 3次元空間位置 (X, Y, Z)は、 CCD22の結像面上の点と、パターン光の投影点と、 X— Y平面に交差する点 とで形成される三角形について 5つの式を解くことで得ることができる。 (l) Y= - (ta η Θ p) Z + PPZ+tan θ p— D + cmp (Xtarget) (2) Y = - (Ytarget/VPZ) Z+Yt arget
(3) X =— (Xtarget/ VP) Z+ Xtarget
(4) Ytarget = Yftop - (ccdcy/Hc) X (Yftop— Yf bottom)
(5) Xtarget = Xfstart + (ccdcx/Wc) X (Xf end—Xfstart) 尚、上記式(1)における cmp (Xtarget)は、撮像光学系 20と画像投影部 13とのズ レを補正する関数であり、ズレが無い理想的な場合には cmp (Xtarget) =0とみなす ことができる。
[0197] 一方、上述したのと同様に、画像投影部 13に含まれる投影 LCD19上の任意座標
(lcdcx、 lcdcy)と 3次元空間中の 3次元座標 (X, Υ, Z)との関係は次の(1)から (4) の式で表せる。
[0198] 尚、本実施例では、画像投影部 13の主点位置 (0, 0, PPZ)、画像投影部 13の Y 方向の視野を Ypftopから Ypf bottom, X方向の視野を Xpfstartから Xpfend、投景 LCD19の Y軸方向の長さ(高さ)を Hp、 X軸方向の長さ(幅) Wpとする。
(1) Y =— ( Yptarget/PPZ) Z + Yptarget
(2) X= - (Xptarget/PPZ) Z+Xptarget
(3) Yptarget = Ypftop - (lcdcy/Hp) X (Xpf top— Xpf bottom)
(4) Xptarget = Xpfstart + (lcdcx/Wp) X (Xpfend— Xpfstart)
この関係式を利用することで、 3次元空間座標 (X, Υ, Z)を上記(1)から (4)の式に 与えることで、 LCD空間座標を (lcdcx, lcdcy)を算出することができる。よって、例え ば、 3次元空間に任意の形状、文字を投影するための LCD素子パターンを算出する ことができる。
[0199] 図 19は、平面化画像処理(図 6の S611)のフローチャートである。平面化画像処理 は、例えば、図 1に示すような湾曲した状態の原稿 Pを撮像した場合や矩形状の原稿 を斜め方向から撮像した場合 (撮像された画像は台形状になる)であっても、その原 稿が湾曲していない状態や鉛直方向から撮像したような状態に平面化された平面化 画像を取得、表示する処理である。
[0200] この処理では、まず、 CCD22に高解像度設定信号を送信し(S1901)、モニタ LC D10にファインダ画像を表示する(S1902)。
[0201] 次に、レリーズボタン 8をスキャンし(S1903a)、レリーズボタン 8が半押しされたか 否かを判断する(S 1903b)。半押しされていれば(SI 903b : Yes)、オートフォーカス (AF)および自動露出 (AE)機能を起動し、ピント、絞り、シャツタスピードを調節する (S1903c)。尚、半押しされていなければ(S1903b :No)、 S1903a力らの処理を繰 り返す。
[0202] 次に、再び、レリーズボタン 8をスキャンし(S1903d)、レリーズボタン 8が全押しされ たか否かを判断する(S1903e)。全押しされていれば(SI 903e : Yes)、フラッシュモ ード力否かを判断する(S1903f)。
[0203] その結果、フラッシュモードであれば(S1903f : Yes)、フラッシュ 7を投光して(S 19 03g)、撮影が行われる(S1903h)。フラッシュモードでなければ(S1903f :No)、フ ラッシュ 7を投光することなく撮影する(S1903h)。尚、 S1903eの判断において、全 押しされて 、なければ(S 1903e: No)、 S 1903aからの処理を繰り返す。
[0204] 次に、上述した 3次元形状検出処理(図 10の S1006)と同一の処理である 3次元形 状検出処理を行い、被写体の 3次元形状を検出する(S1906)。
[0205] 次に、 3次元形状検出処理 (S1906)によって得られた 3次元形状検出結果に基づ き、原稿 Pの姿勢を演算する原稿姿勢演算処理を行う(S1907)。この処理によって 原稿 Pの姿勢パラメータとして、原稿 Pの画像入力装置 1に対する位置 Lや角度 Θ、 湾曲 φ (X)が演算される。
[0206] 次に、その演算結果に基づき、後述する平面変換処理を行い(S 1908)、たとえ、 原稿 Pが湾曲して 、たとしても湾曲して 、な 、状態に平面化された平面化画像を生 成する。
[0207] 次に、平面変化処理 (S 1908)によって得られた平面化画像を外部メモリ 27に格納 し(S1909)、平面化画像をモニタ LCD10に表示する(S1910)。
[0208] そして、モード切替スィッチ 9に変化が無いか否かを判断し(S1911)、その結果、 変化が無ければ(S1911 :Yes)、再び、 S702からの処理を繰り返す。変化があれば (S1911 :No)、当該処理を終了する。
[0209] 図 20 (a)から図 20 (c)は、原稿姿勢演算処理(図 19の S1907)を説明するための 図である。尚、本等の原稿の仮定条件として、原稿 Pの湾曲は y方向に一様であると する。この原稿姿勢演算処理では、まず、図 20 (a)に示すように、 3次元座標格納部 37hに格納されているコード境界に関する座標データから 3次元空間位置において 2列に並ぶ点を回帰曲線近似した 2本の曲線を求める。
[0210] 例えば、パターン光を投影した範囲の上下それぞれ 4分の 1の位置情報 (コード 63 とコード 64の境界と、コード 191とコード 192との境界とに関する境界)から求めること ができる。
[0211] その 2本の曲線の X軸方向の位置が「0」における点を結ぶ直線を想定し、この直線 が Z軸と交わる点、つまり、光軸が原稿 Pと交差する点を、原稿 Pの 3次元空間位置 (0 , 0,ひとし、この直線力 ¾—Y平面となす角を原稿 Pの X軸まわりの傾き Θとする。
[0212] 次に、図 20 (b)に示すように、原稿 Ρを、先に求めた X軸まわりの傾き Θ分だけ逆方 向に回転変換し、つまり、原稿 Ρを Χ—Υ平面に対して平行にした状態を想定する。
[0213] そして、図 20 (c)に示すように、 X— Ζ平面における原稿 Ρの断面にっ 、て、 Ζ軸方 向の変位を Xの関数として湾曲 φ (X)で表すことができる。こうして、原稿姿勢パラメ ータとして、原稿 Ρの位置 Lや角度 0、湾曲 φ (X)が演算され、当該処理を終了する
[0214] 図 21は、平面変換処理(図 19の S1908)のフローチャートである。この処理は、ま ず、 RAM37のワーキングエリア 371に当該処理の処理領域を割り当て、当該処理に 用いるカウンタ bの変数を初期値 (b = 0)に設定する(S2101)。
[0215] 次に、原稿姿勢演算プログラム 36hでの演算結果による原稿 Pの位置 Lと、傾き Θと 、湾曲 φ (X)とに基づき、パターン光無画像格納部 37bに格納されたパターン光無 画像の 4隅の点を、それぞれ、 Z方向に— L移動し、 X軸方向に— Θ回転し、更に φ ( X)にする湾曲の逆変換 (後述する「湾曲処理」と同等な処理)により求められる点で 構成される矩形領域 (つまり、原稿 Pの文字等が書かれた面が略直交方向から観察 されたような画像となる矩形領域)を設定すると共に、この矩形領域内に含まれる画 素数 aを求める(S2102)。
[0216] 次に、設定された矩形領域を構成する各画素に対応するパターン光無画像上の座 標を求めて、この座標周辺の画素情報から、平面化画像の各画素の画素情報を設 定する。
[0217] つまり、まず、カウンタ bが画素数 aに到達したか否かを判断する(S2103)。カウン タ bが画素数 aに到達していなければ (S2103 :No)、矩形領域を構成する 1つの画 素について、 Y軸を中心に湾曲 φ (X)回転移動させる湾曲計算処理を行い(S2104 )、 X軸を中心に傾き Θ回転移動させ (S2105)、 Z軸方向に距離 Lだけシフトさせる( S2106)。
[0218] 次に、求められた 3次元空間位置を、先の 3角測量の逆関数により理想カメラで写さ れた CCD画像上の座標 (ccdcx, ccdcy)を求め(S2107)、使用している撮像光学 系 20の収差特性に従って、先のカメラキャリブレーションの逆関数により、実際のカメ ラで写された CCD画像上の座標(ccdx, ccdy)を求め(S2108)、この位置に対応 するパターン光無画像の画素の状態を求めて、 RAM37のワーキングエリア 371に格 納する(S2109)。
[0219] そして、次の画素について上述した S2103から S2109までの処理を実行すベぐ カウンタ bに「1」を加算する(S2110)。
[0220] こうして、 S2104から S2110までの処理をカウンタ bが画素数 aになるまで繰り返す と(S2103 :Yes)、 S2101において、当該処理を実行するためにワーキングエリア 3 71に割り当てた処理領域を開放して(S2111)、当該処理を終了する。
[0221] 図 22 (a)は、湾曲処理(図 21の S2104)についての概略を説明するための図であ り、図 22 (b)は平面変換処理(図 19の S 1908)によって平面化された原稿 Pを示して いる。尚、この湾曲処理についての詳細については、電子情報通信学会論文誌 DII Vol.J86-D2 No.3 p409「アイスキャナによる湾曲ドキュメント撮影」に詳細に開 示されている。
[0222] 湾曲 Ζ= φ (X)は、求められたコード境界座標列(実空間)で構成される 3次元形状 を、任意の Y値における XZ平面に平行な平面切断された断面形状を、最小 2乗法に より多項式で近似した式で表現される。
[0223] 湾曲する曲面を平面化する場合、図 22 (a)に示すように、 Ζ= φ (χ)上の点に対応 する平面化された点は、 Ζ= φ (0)から Ζ= φ (X)までの曲線の長さによって対応付 けられることになる。
[0224] こうした湾曲処理を含む平面変換処理によって、例えば、図 1のように湾曲している 状態の原稿 Ρを撮像した場合であっても、図 22 (b)に示すように、平面化された平面 画像を取得することができ、このように平面化された画像を用いれば OCR処理の精 度を高めることができる。したがって、その画像によって、原稿に記載された文字や図 形等を明確に認識することができる。 [0225] 図 23 (a)及び図 23 (b)は、上述した実施形態における光源レンズ 18に関する別の 例としての一群の光源レンズ 50を説明するための図であり、図 23 (a)は光源レンズ 5 0を示す側面図であり、図 23 (b)は光源レンズ 50を示す平面図である。尚、上述した 実施形態における構成部品と同一な部材には、同一の符号を付し、その説明は省略 する。
[0226] 上述の実施形態における光源レンズ 18は、各 LED 17に対応する凸状の非球面形 状からレンズ部 18aをベース 18b上に一体的に並べて配置して構成されているのに 対し、図 23 (a)及び図 23 (b)に示す例では、 LED17の各々を内包する砲弾型に形 成された榭脂製レンズが各々別体に構成されて ヽる。
[0227] このように、各 LED17を内包する光源レンズ 50を各々別体に構成することで、各 々の LED17とそれに対応する各々の光源レンズ 50との位置が 1対 1で決められるの で、相対的な位置精度を高めることができ、光の出射方向が揃うという効果がある。
[0228] これに対し、基板 16上にレンズアレイをまとめて位置合わせをすると、各々の LED 17がダイボンディングされる際の位置決め誤差やレンズアレイと基板の線膨張係数 の違いから、光の出射方向がバラバラになってしまう恐れがある。
[0229] 従って、投影 LCD19の面には、 LED17からの光の入射方向が投影 LCD19の面 に垂直にそろった光が照射され、投影光学系 20の絞りを均一に通過できる様になる 。したがって、投影画像の照度ムラを抑えることができ、結果的に高品質な画像を投 影することができる。尚、光源レンズ 50に内包されている LED17はリードおよびリフ レクタカ なる電極 51を介して基板 16に実装されている。
[0230] 1群の光源レンズ 50の外周面には、各光源レンズ 50を束ねて所定の方向に規制 する枠状の弾性を有する固定部材 52が配置されている。この固定部材 52は、ゴム、 プラスチック等の榭脂製材料で構成されて 、る。
[0231] 光源レンズ 50は各 LED17に対して各々別体に構成されているので、各光源レン ズ 50の凸状の先端部が形成する光軸の角度を正しく揃えて投影 LCD19と対向する ように設置することが困難である。
[0232] そこで、図 23 (a)及び図 23 (b)に示す例では、この固定部材 52によって 1群の光 源レンズ 50を取り囲み、各光源レンズ 50の外周面同士を接触させ、各光源レンズ 50 の光軸が投影 LCD19と正しい角度で対向するように各光源レンズ 50の位置が規制 されている。このような構成によれば、各光源レンズ 50力 投影 LCD19に向けて光 を略垂直に照射させることができる。よって、投影 LCD19の面に垂直にそろった光 が照射され、投影レンズの絞りを均一に通過できる様になるため、投影画像の照度ム ラを抑えることができる。従って、一層、高品質な画像を投影することができる。
[0233] 尚、この固定部材 52は、予め所定の大きさに規定された剛性を有するものであって も良ぐ弾性力を有する材料で構成してその弾性力によって各光源レンズ 50の位置 を所定の位置に規制するようにしても良 、。
[0234] 図 24 (a)及び図 24 (b)は、図 23 (a)及び図 23 (b)で説明した光源レンズ 50を所定 位置に規制する固定部材 52に関する別の例としての固定部材 60を説明するための 図である。図 24 (a)は光源レンズ 50を固定した状態を示す斜視図であり、図 24 (b) はその部分的な断面図である。尚、上述したのと同一の部材には、同一の符号を付 し、その説明は省略する。
[0235] この固定部材 60は、各光源レンズ 50の外周面に沿った断面を有する断面視円錐 形状の貫通孔 60aが穿設された板状に形成されている。各光源レンズ 50は、この各 貫通孔 60aに差し込まれて固定される。
[0236] この固定部材 60と基板 16との間には弾性を有する付勢プレート 61が介装されて おり、更に、この付勢プレート 61と各光源レンズ 50の下面との間には、電極 51を囲 むように弾性を有する環状の Oリング 62が配置されて 、る。
[0237] 尚、光源レンズ 50に内包される LED17は、付勢プレート 61、基板 16に穿設された スルーホールを貫通する電極 51を介して基板 16に実装されている。
[0238] 上述した固定部材 60によれば、各光源レンズ 50を、そのレンズの外周面に沿った 断面を有する各貫通孔 60aに各々貫通させて固定するので、上述した固定部材 50 よりも、一層確実に光源レンズ 50の光軸を正しい角度で投影 LCD19に向くように固 定することができる。
[0239] また、組立時に、 Oリング 62の付勢力によって LED17を正しい位置に付勢して固 定することができる。
[0240] また、本装置 1を運搬する場合等に生ずる可能性のある衝撃力を、 Oリング 62の弾 性力によって吸収することができ、その衝撃の影響で光源レンズ 50の位置がずれて しまい、光源レンズ 50から垂直に投影 LCD19に向けて光を照射できないという不都 合を防止することができる。
[0241] 上記実施形態において、図 12 (b)の S1211、 S1215の処理は、撮像手段と位置 付けられる。図 10の S1006の処理は、 3次元形状検出手段と位置付けられる。
[0242] 以上実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定 されるものでなぐ本発明の主旨を逸脱しない範囲内で種々の改良変形が可能であ ることは容易に推察できるものである。
[0243] 例えば、上記実施形態では、平面化画像モードとして、平面化された画像を取得、 表示する処理を説明したが、周知の OCR機能を搭載させ、平面化された平面画像 をこの OCR機能によって読み取らせるように構成しても良い。この場合には、 OCR機 能によって湾曲した状態の原稿を読み取る場合に比べて高精度に原稿に記載され た文章を読み取ることができる。
[0244] また、上記実施形態における図 15の S1501においては、明暗の変化を持つ輝度 画像の全部を抽出し、その全部について暫定的な CCDY値を求める場合について 説明したが、抽出する輝度画像としては、全部である必要はなぐ 1枚以上であれば 、その枚数に限定されることはない。抽出する枚数を減らすことで境界座標を高速に 求めることができる。
[0245] また、上記実施形態における図 15の S1507では、 fCCDY[i]を加重平均し、図 1 6の S1607では efCCDY[j]を近似多項式として、各値を平均化する場合について 説明したが、各値を平均化する方法としては、これらに限定されるものではない。例 えば、各値の単純平均値を採る方法、各値の中央値を採用する方法、各値の近似 式を算出し、その近似式における検出位置を境界座標とする方法、統計的な演算に より求める方法等であっても良い。
[0246] また、例えば、上記実施形態における平面化画像モードにおける 3次元形状検出 処理においては、原稿 Pの 3次元形状を検出するために、複数種類の明暗を交互に 並べてなる縞状のパターン光を投影する場合について説明したが、 3次元形状を検 出するための光は、力かるパターン光に限定されるものではない。 [0247] 例えば、図 25に示すように、湾曲原稿の 3次元形状の検出を簡便に行う場合には、 画像投影部 13から 2本の帯状のスリット光 70, 71を投影するようにしても良い。この 場合には、 8枚のパターン光を投影する場合にくらべ、僅か 2枚の撮像画像カゝら高速 に 3次元形状の検出をすることができる。
[0248] 本発明の一つの実施形態において、複数の半導体発光素子は、半導体発光素子 列と交わる第 2の方向において第 2ピッチで少なくとも 2列以上並列に並べて配置さ れており、第 2ピッチは、第 1ピッチと略同一に設定されていても良い。
[0249] このような構成によれば、半導体発光素子列は、第 1ピッチ(半導体発光素子列中 で第 1の方向に一直線上に並べられる発光素子の配置のピッチ)と略同一の第 2ピッ チで少なくとも 2列以上並列に並べて配置されているので、並列に並ぶ方向における 半導体発光素子間における照度の低下をも抑制することができる。よって、隣接する 半導体素子間における照度の低下を、交互に交わる 2方向つまりこれらを含む平面 内において全面的に抑制することができる。
[0250] 本発明の一つの実施形態において、半導体発光素子列は複数列からなり、互いに 隣り合う 2列の半導体発光素子列の各々の半導体発光素子は、千鳥状に配置されて いても良い。
[0251] このような構成によれば、 1の半導体発光素子とその周りの半導体発光素子との間 における照度の低下をも抑制することができる。
[0252] 本発明の一つの実施形態において、複数の半導体発光素子は、 1の前記半導体 発光素子列と、その 1の半導体発光素子列の延びる方向に前記第 1ピッチの略半分 の距離だけずらした他の半導体発光素子列とを交互に、第 1ピッチの略 3Z2倍 のピッチで並列に並べて配置されて!、ても良!、。
[0253] このような構成によれば、 1の半導体発光素子とその周りの半導体発光素子との間 における照度の低下をも抑制することができる。
[0254] 本発明の一つの実施形態において、 1の前記半導体発光素子と、その 1の半導体 発光素子の周辺の半導体発光素子との間隔は、半導体発光素子の 1つから出射さ れた光によって空間変調素子において形成される照度分布の半値全幅以下となるよ うに配設されていても良い。 [0255] このような構成によれば、 1の半導体発光素子と、その周りの半導体発光素子との 間の照度の低下を抑制することができる。
[0256] 本発明の一つの実施形態において、投影装置は、半導体発光素子と空間変調素 子との間に配置され、半導体発光素子力 出射される光を高指向性の放射光として 集光して、空間変調素子にその集光した光を出射する集光光学系を備えていても良 い。
[0257] このような構成によれば、半導体発光素子から出射される光を効率良く空間変調素 子に照射することができる。よって、省電力で駆動させることができ、節電化、ランニン グコストの減少化を図ることができる。
[0258] 本発明の一つの実施形態において、集光光学系は、複数の半導体発光素子の各 々と対応する複数のレンズ面を一体に形成されて 、ても良 、。
[0259] このような構成によれば、部品の点数を削減することができ、結果的に装置の製造 コストを低減することができる。
[0260] 本発明の一つの実施形態において、集光光学系は、複数の半導体発光素子の各 々を内包する砲弾型に形成されたレンズの各々を、別体にして構成されていても良 い。
[0261] このような構成によれば、半導体発光素子力 出射される光の集光性を向上させる ことができる。また、各半導体発光素子と対応するレンズの位置決め精度を高めるこ とがでさる。
[0262] 本発明の一つの実施形態において、投影装置は、集光光学系を構成するレンズの 各々を密着させるために、その複数のレンズを取り囲む枠状の固定部材を備えて ヽ ても良い。
[0263] このような構成によれば、各レンズの光軸が平行に揃って空間変調素子側に向くよ うに各レンズの姿勢を規制することができる。よって、高い効率で光を空間変調素子 および投影手段に導くことができる。
[0264] 本発明の一つの実施形態において、投影装置は、集光光学系を構成するレンズの 各々を所定位置に配置させるために、各レンズの所定位置と対応する位置に穿設さ れた固定孔を有する板状の固定部材を備えて 、ても良 、。 [0265] このような構成によれば、個々のレンズ毎にレンズの向きを規制することができる。 即ち、各レンズの光軸が平行に揃って空間変調素子側に向くように各レンズの姿勢 を規制することができる。よって、高い効率で光を空間変調素子および投影手段に導 くことができる。
[0266] 本発明の一つの実施形態において、固定孔の断面形状は、集光光学系を構成す る各レンズの外周面の少なくとも一部に沿って形成されていても良い。
[0267] このような構成によれば、固定孔の内面と各レンズの外周面とを密着させて、各レン ズの向きを規制することができる。即ち、各レンズの光軸が平行に揃って空間変調素 子側に向くように各レンズの姿勢を規制することができる。よって、高い効率で光を空 間変調素子および撮像手段に導くことができる。
[0268] 本発明の一つの実施形態において、投影装置は、集光光学系の外周面と接触す る弾性体を備えて 、ても良 、。
[0269] このような構成によれば、組立時や運搬時における衝撃等を弾性体によって吸収 することができる。また、半導体発光素子を正しい位置に配設されるように付勢するこ とができる。よって、組立時や運搬時の衝撃の影響で集光光学系の位置が正規の位 置からズレて、空間変調手段に対して垂直な方向に光が出射されない為に、投影光 学系へ高い効率でカップリングできなくなるという不具合が生ずるのを防止することが できる。
[0270] 本発明の一つの実施形態において、複数の半導体発光素子の各々は、同一色を 発光するよう構成されて 、ても良 ヽ。
[0271] このような構成によれば、投影手段において複数色の発光色を発光させる場合に 生ずる色収差の補正を考慮する必要はなぐ色収差を補正するために複雑な色消し レンズを採用する必要がない。よって、簡単な面構成および安価な材料の投影手段 を提供することができる。
[0272] 本発明の一つの実施形態において、複数の半導体発光素子は発光ダイオードで あり、その各々力 発光される発光色は、アンバー色であっても良い。
[0273] このような構成によれば、他の色を発光させる場合に比べて、電気を光に変換する 効率 (電気光変換効率)を高めることができる。よって、省電力で駆動でき、節電化、 長寿命化を図ることができる。
[0274] 本発明の一つの実施形態にお!、て、投影手段は、榭脂製のレンズを含んでで構成 されていても良い。
[0275] このような構成によれば、半導体発光素子からの光を、全てガラス力もなる投影手 段で構成した場合と比較して、軽量で、安価な光学系を構成することができる。
[0276] 本発明の一つの実施形態において、投影手段は、テレセントリックレンズで構成さ れていても良い。
[0277] このような構成によれば、その瞳の位置は無限にあり、空間変調素子を略垂直に透 過した光のみをカップリングして投影することができる。よって、空間変調素子を照度 ムラなく投影することができる。
[0278] 本発明の一つの実施形態において、投影装置は、投影方向に配置される被写体 に対して、投影手段から出力される画像信号光としてのパターン光が投影されている 状態を撮像する撮像手段と、その撮像手段によって撮像された撮像画像に基づき、 被写体の 3次元形状を検出する 3次元形状検出手段とを備えていても良い。この場 合、空間変調素子は、板状のディスプレイによって構成され、そのディスプレイを構成 する複数の画素は、千鳥状に配置されていても良い。
[0279] このような構成によれば、投影装置としての機能のみならず、被写体の 3次元形状 をち検出することができる。
[0280] また、空間変調素子であるディスプレイを構成する複数の画素は、千鳥状に配置さ れているので、例えば、被写体の 3次元形状を検出すベぐ被写体に向けて明暗を 交互に並べてなる縞状のパターン光を投光する場合に、その縞方向を投影 LCD19 の短手方向に一致させることで、明暗の境界を 1Z2ピッチで制御することができる。 よって、高精度に 3次元の形状を検出することができる。
[0281] 本発明の一つの実施形態において、撮像手段の幅広面と前記ディスプレイの幅広 面とは略同一の方向に向!、て配置されて!、ても良!、。
[0282] このような構成によれば、ディスプレイカゝら投影面に投影されている画像を撮像手 段に結像させる場合に、その投影画像の全容を効率良ぐそして高解像度で撮像手 段〖こ結像させることができる。 [0283] 本発明の一つの実施形態において、ディスプレイを構成する複数の画素は、その ディスプレイの長手方向に沿って一直線状に並べられた 1の画素列と、その 1の画素 列とはディスプレイの長手方向に所定間隔ずれた他の画素列とを交互に並列に並べ て配置されていても良い。撮像手段は、そのディスプレイとは所定間隔を開けて、そ の長手方向側に配置されていても良い。
[0284] このような構成によれば、例えば、三角測量の原理を利用して被写体の 3次元形状 を検出する場合には、投影手段から被写体へ投影するパターン光の軌跡の傾きをデ イスプレイの画素の 1Z2ピッチで制御することができる。よって、高精度に 3次元の形 状を検出することができる。

Claims

請求の範囲
[1] 光を出射する複数の半導体発光素子と、その半導体発光素子により出射された光 に対して空間変調を施して画像信号光を出力する空間変調素子と、その空間変調 素子カゝら出力される画像信号光を投影面に向けて投影する投影手段とを備えた投 影装置であって、
前記複数の半導体発光素子は、その複数の半導体発光素子を支持する基板上に 少なくとも 2つ以上の半導体素子を第 1の方向において第 1ピッチで一直線状に並べ てなる半導体発光素子列を、少なくとも 1列以上並列に並べて配置されており、 前記第 1ピッチは、半導体発光素子の 1つから出射された光によって前記空間変調 素子にお ヽて形成される照度分布の半値全幅以下となるように配設されて ヽることを 特徴とする投影装置。
[2] 前記複数の半導体発光素子は、前記半導体発光素子列と交わる第 2の方向にお いて第 2ピッチで少なくとも 2列以上並列に並べて配置されており、
前記第 2ピッチは、前記第 1ピッチと略同一に設定されていることを特徴とする請求 項 1に記載の投影装置。
[3] 前記半導体発光素子列は複数列力 なり、互いに隣り合う 2列の半導体発光素子 列の各々の半導体発光素子は、千鳥状に配置されていることを特徴とする請求項 1 に記載の投影装置。
[4] 前記複数の半導体発光素子は、 1の前記半導体発光素子列と、その 1の半導体発 光素子列の延びる方向に前記第 1ピッチの略半分の距離だけずらした他の半導体 発光素子列とを交互に、前記第 1ピッチの略 3Z2倍のピッチで並列に並べて配置 されて 、ることを特徴とする請求項 1に記載の投影装置。
[5] 前記半導体発光素子と前記空間変調素子との間に配置され、前記半導体発光素 子から出射される光を集光して、前記空間変調素子にその集光した光を高指向性の 放射光として出射する集光光学系を備えていることを特徴する請求項 1に記載の投 影装置。
[6] 投影方向に配置される被写体に対して、前記投影手段から出力される画像信号光 としてのパターン光が投影されている状態を撮像する撮像手段と、 その撮像手段によって撮像された撮像画像に基づき、前記被写体の 3次元形状を 検出する 3次元形状検出手段とを備え、
前記空間変調素子は、板状のディスプレイによって構成され、そのディスプレイを構 成する複数の画素は、千鳥状に配置されて 、ることを特徴とする請求項 1に記載の 投影装置。
[7] 請求項 1に記載の投影装置と、その投影装置に備えられた前記投影手段から出力 される画像信号光が投影される投影方向に配置される被写体に対して、前記投影手 段カゝら画像信号光としてのパターン光が投影されている状態を撮像する撮像手段と 、その撮像手段によって撮像された撮像画像に基づき、前記被写体の 3次元形状を 検出する 3次元形状検出手段とを備えていることを特徴とする 3次元形状検出装置。
[8] 光を出射する複数の半導体発光素子と、その半導体発光素子により出射された光 に対して空間変調を施して画像信号光を出力する空間変調素子と、その空間変調 素子カゝら出力される画像信号光を投影面に向けて投影する投影手段とを備えた投 影装置であって、
前記複数の半導体発光素子は、その複数の半導体発光素子を支持する基板上に 千鳥状に配置されて!ヽることを特徴とする投影装置。
[9] 1の前記半導体発光素子と、その 1の半導体発光素子の周辺の半導体発光素子と の間隔は、前記半導体発光素子の 1つから出射された光によって空間変調素子にお
V、て形成される照度分布の半値全幅以下となるように配設されて 、ることを特徴とす る請求項 8に記載の投影装置。
[10] 前記半導体発光素子と前記空間変調素子との間に配置され、前記半導体発光素 子から出射される光を集光して、前記空間変調素子にその集光した光を出射する集 光光学系を備えていることを特徴する請求項 8に記載の投影装置。
[11] 前記集光光学系は、前記複数の半導体発光素子の各々と対応する複数のレンズ 面を一体に形成されていることを特徴とする請求項 10に記載の投影装置。
[12] 前記集光光学系は、前記複数の半導体発光素子の各々を内包する砲弾型に形成 されたレンズの各々を、別体にして構成されていることを特徴とする請求項 10に記載 の投影装置。
[13] 前記集光光学系を構成するレンズの各々を密着させるために、その複数のレンズ を取り囲む枠状の固定部材を備えていることを特徴とする請求項 12に記載の投影装 置。
[14] 前記集光光学系を構成するレンズの各々を所定位置に配置させるために、各レン ズの所定位置と対応する位置に穿設された固定孔を有する板状の固定部材を備え ていることを特徴とする請求項 12に記載の投影装置。
[15] 前記固定孔の断面形状は、前記集光光学系を構成する各レンズの外周面の少なく とも一部に沿って形成されていることを特徴とする請求項 14に記載の投影装置。
[16] 前記集光光学系の外周面と接触する弾性体を備えていることを特徴とする請求項 1
0に記載の投影装置。
[17] 前記複数の半導体発光素子の各々は、同一色を発光することを特徴とする請求項 8に記載の投影装置。
[18] 前記半導体発光素子は発光ダイオードであり、その各々力 発光される発光色は、 アンバー色であることを特徴とする請求項 17に記載の投影装置。
[19] 前記投影手段は、榭脂製のレンズを含んで構成されて!ヽることを特徴とする請求項 10に記載の投影装置。
[20] 前記投影手段は、テレセントリックレンズで構成されていることを特徴とする請求項 8 に記載の投影装置。
[21] 投影方向に配置される被写体に対して、前記投影手段力 出力される画像信号光 としてのパターン光が投影されている状態を撮像する撮像手段と、
その撮像手段によって撮像された撮像画像に基づき、前記被写体の 3次元形状を 検出する 3次元形状検出手段とを備え、
前記空間変調素子は、板状のディスプレイによって構成され、そのディスプレイを構 成する複数の画素は、千鳥状に配置されていることを特徴とする請求項 8に記載の 投影装置。
[22] 前記撮像手段の幅広面と前記ディスプレイの幅広面とは略同一の方向に向いて配 置されて!ヽることを特徴とする請求項 21に記載の投影装置。
[23] 前記ディスプレイを構成する複数の画素は、そのディスプレイの長手方向に沿って 一直線状に並べられた 1の画素列と、その 1の画素列とはディスプレイの長手方向に 所定間隔ずれた他の画素列とを交互に並列に並べて配置されており、
前記撮像手段は、そのディスプレイとは所定間隔を開けて、その長手方向側に配 置されて!ヽることを特徴とする請求項 21に記載の投影装置。
[24] 請求項 8に記載の投影装置と、その投影装置に備えられた前記投影手段から出力 される画像信号光が投影される投影方向に配置される被写体に対して、前記投影手 段カゝら画像信号光としてのパターン光が投影されている状態を撮像する撮像手段と 、その撮像手段によって撮像された撮像画像に基づき、前記被写体の 3次元形状を 検出する 3次元形状検出手段とを備えていることを特徴とする 3次元形状検出装置。
[25] 前記空間変調素子は、板状のディスプレイによって構成されると共にそのディスプ レイを構成する複数の画素は千鳥状に配置され、前記撮像手段の幅広面と前記ディ スプレイの幅広面とは略同一な方向に向 、て配置されて 、ることを特徴とする請求項 24に記載の 3次元形状検出装置。
[26] 前記ディスプレイを構成する複数の画素は、そのディスプレイの長手方向に沿って 一直線状に並べられた 1の画素列と、その 1の画素列とはディスプレイの長手方向に 所定間隔ずれた他の画素列とを交互に並列に並べて配置されており、
前記撮像手段は、そのディスプレイとは所定間隔を開けて、その長手方向側に配 置されていることを特徴とする請求項 24に記載の 3次元形状検出装置。
PCT/JP2005/005862 2004-03-31 2005-03-29 投影装置および3次元形状検出装置 WO2005095887A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/535,457 US7845807B2 (en) 2004-03-31 2006-09-26 Projection apparatus and three-dimensional-shape detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-105427 2004-03-31
JP2004105427A JP4734843B2 (ja) 2004-03-31 2004-03-31 3次元形状検出装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/535,457 Continuation-In-Part US7845807B2 (en) 2004-03-31 2006-09-26 Projection apparatus and three-dimensional-shape detection apparatus

Publications (1)

Publication Number Publication Date
WO2005095887A1 true WO2005095887A1 (ja) 2005-10-13

Family

ID=35063877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/005862 WO2005095887A1 (ja) 2004-03-31 2005-03-29 投影装置および3次元形状検出装置

Country Status (3)

Country Link
US (1) US7845807B2 (ja)
JP (1) JP4734843B2 (ja)
WO (1) WO2005095887A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7845807B2 (en) 2004-03-31 2010-12-07 Brother Kogyo Kabushiki Kaisha Projection apparatus and three-dimensional-shape detection apparatus

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007087405A2 (en) * 2006-01-24 2007-08-02 The Trustees Of Columbia University In The City Of New York Capturing scene images and depth geometry and generating a compensation image
US7940341B2 (en) * 2007-08-23 2011-05-10 Philips Lumileds Lighting Company Light source for a projector
US8330771B2 (en) * 2008-09-10 2012-12-11 Kabushiki Kaisha Toshiba Projection display device and control method thereof
US8113668B2 (en) * 2009-03-18 2012-02-14 Dexin Corporation Extendable real object projector
JP5311674B2 (ja) * 2010-01-14 2013-10-09 パナソニック株式会社 発光装置
US8733951B2 (en) * 2010-04-26 2014-05-27 Microsoft Corporation Projected image enhancement
JP5479232B2 (ja) * 2010-06-03 2014-04-23 シャープ株式会社 表示装置および表示装置の製造方法
US8936406B2 (en) * 2012-03-14 2015-01-20 Intel-Ge Care Innovations Llc Camera reading apparatus with document alignment guide
JP5795431B2 (ja) * 2012-04-13 2015-10-14 パイオニア株式会社 三次元計測装置、三次元計測システム、制御方法、プログラム、及び記憶媒体
US9341927B1 (en) * 2013-01-09 2016-05-17 Orili Ventures Ltd. Slide projector housing with mount for detachable lens and strobe
US9524059B2 (en) * 2013-03-15 2016-12-20 Texas Instruments Incorporated Interaction detection using structured light images
US10032279B2 (en) * 2015-02-23 2018-07-24 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP6834543B2 (ja) * 2017-02-01 2021-02-24 セイコーエプソン株式会社 画像表示装置およびその調整方法
JP6990694B2 (ja) * 2017-03-16 2022-01-12 シャープNecディスプレイソリューションズ株式会社 プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
KR102464368B1 (ko) * 2017-11-07 2022-11-07 삼성전자주식회사 메타 프로젝터 및 이를 포함하는 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152903A (ja) * 1984-01-21 1985-08-12 Kosuke Sato 位置計測方法
JPS63155782A (ja) * 1986-12-19 1988-06-28 Omron Tateisi Electronics Co 光源装置
JPH01296764A (ja) * 1988-05-24 1989-11-30 Matsushita Electric Ind Co Ltd Ledアレイ光源
JP2002303988A (ja) * 2001-04-03 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 露光装置
JP2004095655A (ja) * 2002-08-29 2004-03-25 Toshiba Lighting & Technology Corp Led装置およびled照明装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3905686A (en) * 1974-10-18 1975-09-16 Eastman Kodak Co Three element projection lens
JPS62229703A (ja) * 1986-03-31 1987-10-08 株式会社小糸製作所 照明装置
JPH1132278A (ja) 1997-07-10 1999-02-02 Fuji Xerox Co Ltd プロジェクタ装置
JP3717654B2 (ja) 1998-02-17 2005-11-16 株式会社リコー カラー画像表示装置
JP3585097B2 (ja) * 1998-06-04 2004-11-04 セイコーエプソン株式会社 光源装置,光学装置および液晶表示装置
JP2001091877A (ja) * 1999-07-21 2001-04-06 Fuji Photo Film Co Ltd 露光ヘッド
US6462891B1 (en) * 2000-04-20 2002-10-08 Raytheon Company Shaping optic for diode light sheets
US7019376B2 (en) * 2000-08-11 2006-03-28 Reflectivity, Inc Micromirror array device with a small pitch size
JP4012710B2 (ja) * 2001-02-14 2007-11-21 株式会社リコー 画像入力装置
US7088321B1 (en) * 2001-03-30 2006-08-08 Infocus Corporation Method and apparatus for driving LED light sources for a projection display
US7125121B2 (en) * 2002-02-25 2006-10-24 Ricoh Company, Ltd. Image display apparatus
JP4055610B2 (ja) * 2002-03-22 2008-03-05 セイコーエプソン株式会社 画像表示デバイス及びプロジェクタ
JP2004177654A (ja) * 2002-11-27 2004-06-24 Fuji Photo Optical Co Ltd 投写型画像表示装置
JP4016876B2 (ja) * 2003-04-23 2007-12-05 セイコーエプソン株式会社 プロジェクタ
JP4734843B2 (ja) 2004-03-31 2011-07-27 ブラザー工業株式会社 3次元形状検出装置
KR100644632B1 (ko) * 2004-10-01 2006-11-10 삼성전자주식회사 Led를 채용한 조명유닛 및 이를 채용한 화상투사장치
US7636190B2 (en) * 2005-05-05 2009-12-22 Texas Instruments Incorporated Method of projecting an image from a reflective light valve

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152903A (ja) * 1984-01-21 1985-08-12 Kosuke Sato 位置計測方法
JPS63155782A (ja) * 1986-12-19 1988-06-28 Omron Tateisi Electronics Co 光源装置
JPH01296764A (ja) * 1988-05-24 1989-11-30 Matsushita Electric Ind Co Ltd Ledアレイ光源
JP2002303988A (ja) * 2001-04-03 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 露光装置
JP2004095655A (ja) * 2002-08-29 2004-03-25 Toshiba Lighting & Technology Corp Led装置およびled照明装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7845807B2 (en) 2004-03-31 2010-12-07 Brother Kogyo Kabushiki Kaisha Projection apparatus and three-dimensional-shape detection apparatus

Also Published As

Publication number Publication date
JP2005291839A (ja) 2005-10-20
JP4734843B2 (ja) 2011-07-27
US20070019166A1 (en) 2007-01-25
US7845807B2 (en) 2010-12-07

Similar Documents

Publication Publication Date Title
WO2005095886A1 (ja) 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
WO2005095887A1 (ja) 投影装置および3次元形状検出装置
JP2005293075A5 (ja)
JP2007271395A (ja) 3次元色形状計測装置
TWI668997B (zh) 產生全景深度影像的影像裝置及相關影像裝置
JP2005291839A5 (ja)
US20070177160A1 (en) Three-dimensional object information acquisition using patterned light projection with optimized image-thresholding
JP2007271530A (ja) 3次元形状検出装置及び3次元形状検出方法
CN110716381B (zh) 转光三维成像装置和投射装置及其应用
CN108718406B (zh) 一种可变焦3d深度相机及其成像方法
JP2004132829A (ja) 3次元撮影装置と3次元撮影方法及びステレオアダプタ
WO2006112297A1 (ja) 3次元形状測定装置
JP4552485B2 (ja) 画像入出力装置
CN208434044U (zh) 滤光组件、相机模组、图像撷取装置及电子装置
JP2005352835A (ja) 画像入出力装置
WO2005122553A1 (ja) 画像入出力装置
US11326874B2 (en) Structured light projection optical system for obtaining 3D data of object surface
CN112074772A (zh) 用于供闪光装置使用的透镜
JP2006031506A (ja) 画像入出力装置
JP4552484B2 (ja) 画像入出力装置
US20130222569A1 (en) Imaging apparatus
JP4896183B2 (ja) 原稿照明装置、及び画像読取装置
JP2005293290A5 (ja)
JP2006277023A (ja) 3次元情報取得装置、パターン光生成方法、3次元情報取得方法、プログラム及び記録媒体
JP2006004010A (ja) 画像入出力装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11535457

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 11535457

Country of ref document: US

122 Ep: pct application non-entry in european phase