WO2007110551A1 - System for hearing-impaired people - Google Patents

System for hearing-impaired people Download PDF

Info

Publication number
WO2007110551A1
WO2007110551A1 PCT/FR2007/051031 FR2007051031W WO2007110551A1 WO 2007110551 A1 WO2007110551 A1 WO 2007110551A1 FR 2007051031 W FR2007051031 W FR 2007051031W WO 2007110551 A1 WO2007110551 A1 WO 2007110551A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
person
noises
hearing
transcription
Prior art date
Application number
PCT/FR2007/051031
Other languages
French (fr)
Inventor
Panagiotis Pavlopoulos
Samuel Deberles
Konstantin-Léo PAVLOPOULOS
Original Assignee
Panagiotis Pavlopoulos
Samuel Deberles
Pavlopoulos Konstantin-Leo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panagiotis Pavlopoulos, Samuel Deberles, Pavlopoulos Konstantin-Leo filed Critical Panagiotis Pavlopoulos
Priority to EP07731837A priority Critical patent/EP1998729A1/en
Publication of WO2007110551A1 publication Critical patent/WO2007110551A1/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/06Hearing aids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • A61F11/04Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense, e.g. through the touch sense
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception

Definitions

  • the present invention relates to hearing aid systems for persons with hearing loss and especially those which can advantageously come in addition to the medical aids already provided to these persons (prostheses, implants.) Which, sometimes, do not allow a complete reception of speech.
  • US Pat. No. 5,029,216 discloses an aid system comprising spectacles intended to be worn by the hearing-impaired person, provided with microphones and a processing system making it possible to indicate to the person the direction from which the sounds are heard. captured emanate.
  • the processing system is also arranged to indicate the intensity of the sounds emitted.
  • US Patent 6,975,991 discloses a help system for enabling a hearing-impaired person to receive information regarding the location of a speaker in an assembly.
  • the patent application US 2002/0101537 discloses an assistance system comprising glasses intended to be worn by the hearing-impaired person, and a processing system for displaying on these subtitle glasses corresponding for example to a television program watched. by the person with hearing loss.
  • Patent Application JP 08-160366 discloses a similar aid system.
  • aid system according to the patent application US 2002/0101537 is not intended to help a hearing-impaired person face any interlocutor that may be in a relatively noisy environment and initiate a spontaneous dialogue.
  • No. 4,972,486 discloses a device for transcription into visual symbols of sound information, in which each symbol is associated with a particular group of consonants.
  • the invention aims to meet all or part of these needs.
  • the subject of the invention is a hearing aid system, comprising: a device for acquiring sounds emitted by an interlocutor of the hearing-impaired person, which can be with or without integrated pretreatment in order to take account of the environment sound to reduce background noise, a head-up display device,
  • a processing system for analyzing, in real time, sound data transmitted by the acquisition device and for transmitting to the display device at least a partial phonetic transcription of these sound data, to be displayed in the person's field of vision, in such a way as to to allow him to observe both the movement of the lips and / or the gestures of the interlocutor, in particular facial, and the phonetic transcription.
  • Head-up display device means a device having at least one transparent surface through which the hearing-impaired person can observe, and on or in the vicinity of which the information may be displayed, to enable the person to observe both the displayed information and the scene behind the transparent surface.
  • the latter can be defined by a mineral or organic glass, possibly corrector or tinted, fixed or worn by the user.
  • the display device can be worn by the hearing-impaired person in certain embodiments of the invention, the help system can be used very easily in many situations.
  • the phonetic transcription of the sound data can be complete.
  • the phonetic transcription, partial or complete, of the sound data can be performed in phonemes.
  • a phoneme is a sound element of a given language, determined by the relationships it has with other sounds of that language. For example, the word “neck” is composed of the phonemes “keu” and "or".
  • the French includes 36, including 16 vowels and 20 consonants.
  • the help system allows the user to disable the display of phonetic transcription based on, for example, user preference or the quality of speech recognition, which may be dependent on the sound environment.
  • the display of an at least partial phonetic transcription does not require a grammatical analysis of a complete sentence by the processing system and makes it possible to gain in speed, which allows the phonetic transcription to be displayed almost simultaneously with the movement of the lips.
  • the hearing-impaired person does not suffer from any excessive sensory shift with respect to the observed scene, the display of the phonetic transcription being able to be performed with a delay in relation to remission of the sound data that can be less than 100 ms.
  • the phonetic transcription may be carried out with various signs, which may include images, pictograms, photographs or representations of gestures of hands and / or facial expressions, including a hand and / or virtual face, alphanumeric characters or special, phonemes, graphemes, or even possibly personalized signs whose appearance is decided at TSA by the user.
  • the phonetic transcription can not involve any grammar and do not contain any alphanumeric characters, in order to be easily apprehendable by a child who can not read.
  • the signs that can be displayed can be selected in a database of images stored by the processing system.
  • a hand which can be virtual, is displayed, it can take a configuration selected from those of the LPC.
  • the hard-of-hearing person may interpret the phonetic transcription himself to reconstruct the word and sentence, and possibly correct for himself phonetic transcriptions that would be erroneous depending on the context.
  • the displayed signs make it possible to remove the ambiguity existing between several phonemes corresponding to the same movement of the lips. It may be advantageous if the signs displayed for the phonetic transcription are international and independent of a particular language.
  • the invention may facilitate the integration of the deaf into hearing classes and / or the intervention of untrained teachers in classes with deaf pupils, and avoid the presence of "coders".
  • the processing system can be arranged to parameterize the speech signal of the speaker, segment the sound data into elementary linguistic segments, and identify them.
  • the parameterization can consist in obtaining a characteristic "imprint" of the sound by successively applying to its electrical signal a mathematical treatment, based on the frequency decomposition of the signal, for example the Fourier transform, without prior knowledge of its fine structure.
  • This characteristic imprint of the sound can be represented by a "spectrogram", i.e. a graph giving rise to amplitude and frequency as a function of time.
  • the acoustophonetic decoding implemented by the processing system can make it possible to describe the acoustic signal in terms of discrete linguistic units and aims at segmenting the signal into elementary segments. If these linguistic units are long, such as syllables, words or a sentence, the recognition itself will be facilitated, but their identification is difficult. If short linguistic units are chosen, such as "phones”, localization would be easier, but the hard-of-hearing effort will be more important to exploit them. "Phonemes” can be a good compromise, as their number is limited.
  • the sound data, after parameterization, can be compared to reference data in terms of tempo-frequency acoustic images.
  • a database containing average phonetic fingerprints may be used to allow the recognition of multiple voices independently of the speaker and to make the help system "multilocutor".
  • the processing system can then accept and understand different voices, accents, etc., and be robust to possible noise.
  • the treatment system can, in an example of implementation of
  • Tinvention do not require training before the voice of the interlocutor, which facilitates the use of the help system.
  • the manufacture of the models of the words to be recognized can be done thanks to the arrangement of previously manufactured models of phonemes and not from numerous recordings of the words. Their identification can be done according to articulatory and phonetic data. Layout instructions may imply the phonemization of the words to be recognized.
  • Stochastic modeling in the form of Markovian models and / or neuromimic models, can be used to choose the most resembling sound, regardless of the durations and rhythms pronounced. Examples of modeling include: - Y. Laprie and Ch. Cerisara, "Towards Success in Speech Recognition", Project
  • Modeling can use acoustic models of phones and other types of segments, such as breaths, hesitations, and various environmental noise frequently observed.
  • a better prediction of the models of phones can be obtained by distinguishing, for a given phone, different models according to the phonemic context.
  • a phonemic decision tree can share the same number of Gaussians between a large number of contexts and thus reduce the number of hypotheses to be evaluated and the overall cost of decoding in computing time.
  • small mobile processing systems such as PDAs may be sufficient to achieve a high performance and robust level of phonetic transcription.
  • the subject of the invention is a hearing aid system comprising: an acquisition device, with or without integrated pretreatment, of the sounds emitted by an interlocutor; of the person, comprising:
  • At least one microphone arranged to be worn by the interlocutor, or
  • a head-up display device preferably for integrating the microphones
  • a processing system for analyzing, in real time, sound data transmitted by the acquisition device and transmitting to the display device an at least partial phonetic transcription of this sound data, to be displayed in the person's field of vision so as to to allow him to observe simultaneously, that is to say, without sensible sensory shift, both the movement of the lips and / or the gestures of the speaker and the phonetic transcription.
  • the presence of at least one directional microphone, integrated or not in the head-up display device, or a microphone worn by the person increases the signal-to-noise ratio and facilitates speech recognition even in an environment sound relatively noisy.
  • the invention further relates to a hearing aid system comprising:
  • a head-up display device a processing system for analyzing, in real time, sound data transmitted by the acquisition device, arranged to recognize noises other than speech, and to transmit to the display device at least a partial phonetic transcription of these noises for its display in the field of vision of the person with hearing loss.
  • the hearing-impaired person can be informed about the sound environment and be warned of the presence of a danger, for example.
  • the noises recognized by the treatment system may include: horn, alarm, traffic noise, screaming of children, screaming of animals, ringing of the telephone, etc.
  • the processing system can be arranged to allow the user himself to program the recognition of a particular noise, for example a ringing of a given device, and the display of a corresponding information, which can present a graphic defined by the user, if any. This can allow a personalized adaptation of the help system to a particular sound environment, or even to a particular danger.
  • a particular noise for example a ringing of a given device
  • the acquisition device may comprise a microphone integrated in a headset or a tie microphone.
  • the microphone When the microphone is integrated in a headset, it may allow, especially in the context of privacy or in the case of rehabilitation, that the interlocutor of the hearing-impaired person receives the information broadcast by a speaker of Rfacingtte , allowing not only the transmission of the original sounds, but also the displayed information, transformed into sound by the computing unit.
  • the computing unit can use a speech synthesis software of known type, allowing the transcription of text displayed in speech (Text-To-Speech).
  • the interlocutors of the hearing impaired can control that the projected information is correct and repeat it if necessary.
  • the processing system can be arranged to recognize both phonetic units and predefined noises.
  • the phonetic transcription of the noises emitted in the person's sound environment may involve no grammar and no alphanumeric characters, in order to be easily apprehended by a child who can not read.
  • the display in the field of vision of the person carrying the device of the sound noises emitted in the environment can be carried out with a delay in relation to their emission less than 100 ms.
  • the treatment system can use general acoustic models, qualified on large corpora, including several interlocutors with a statistical distribution of age, sex, and geographic regions (accents) to represent a medium speaking language situation and guarantee excellent performance in the most common situations.
  • the processing system is arranged to perform a phonetic learning allowing the individualization of non-stored, but frequently used, words and the integration of unanticipated pronunciation variants for the stored words. This can be particularly useful in the case of native-speaking interlocutors or regional accents.
  • the processing system can be arranged to adapt the acoustic models with the voice data collected in the field during use, thus improving the accuracy of acoustico-phonetic modeling.
  • the adaptation of the acoustic models may allow adaptation to the speaker, including a way of speaking or a language or accent, one or more input channels and / or a particular sound environment.
  • the processing system may be arranged to receive an update of the program (s) and / or files used to analyze the sound data, including acoustic models.
  • the processing system can also be arranged to be able to download programs and / or files, including acoustic models, according to criteria selected by the user, for example the language of the interlocutor, the geographical area, the signs to be displayed. for phonetic transcription, the sounds to be recognized ..
  • the display device may be arranged to receive data to be displayed over a wireless link.
  • the display device may include glasses.
  • the display device can be integrated with a helmet, a desk or a desk, among others.
  • the display device may comprise a monochrome or color projection device.
  • the help system may comprise at least one directional microphone and at least one omnidirectional microphone, the processing system being arranged to eliminate ambient noise not useful for speech understanding by differential processing of the signals received from the omnidirectional and directional microphones. .
  • the invention further relates to a method for displaying a visual transcription of words uttered by the interlocutor of a person with hearing loss, comprising the steps of:
  • - to pick up the words spoken by the speaker preferably by means of at least one microphone carried by interlocutor or directional and directed towards it, preferably integrated in the head-up display device, - to segment and analyze in real time these words for recognizing phonetic units and generating at least partial phonetic transcription of these words, for example in the form of a sequence of phonetic signs,
  • the phonetic transcription so as to allow him to simultaneously see the movement of the lips and / or the actions of the speaker and the phonetic transcription.
  • the phonetic transcription of the words can be complete. This phonetic transcription can be done in phonemes.
  • the invention further relates, in another of its aspects, to a method of displaying a visual transcription of noises present in the sound environment of a hearing-impaired person, comprising the steps of:
  • the noises in the sound environment of the hearing-impaired person preferably by means of an omnidirectional microphone, integrated or not in the head-up display device, the noises in the sound environment of the hearing-impaired person, in particular noise from machinery or apparatus or cries from children or animals,
  • FIGS. 1 to 4 show diagrammatically different examples of aid systems according to the invention
  • FIG. 5 is a block diagram illustrating an example of a method according to the invention
  • FIG. 6 represents examples of images that can be used as visual transcription for various corresponding noises
  • FIG. 7 represents hand and finger positions of the LPC
  • FIG. 8 is an exemplary image that can be displayed
  • FIG. 9 is a spectrogram of the word computer.
  • FIG. 1 shows an example of a help system 1 produced according to the invention, comprising a head-up display device 10 for the hearing-impaired person, a processing system 20 arranged to send information to the display device 10 and an acquisition device 30 for transmitting sound data to the processing system 20.
  • the display device comprises a pair of spectacles provided with display means in the field of vision of the hearing-impaired person.
  • the display device is for example a pair of glasses commercially available from the company THE MICRO OPTICAL CORPORATION.
  • An example of such glasses is described in WO 99/23524.
  • the glasses may include a miniature projection device, monochrome or color, carried by a branch, for example, to display information on Tun glasses at least.
  • the projection device may be a transparent liquid crystal screen and / or light emitting diodes. It may also include a laser, for example.
  • the glasses can also incorporate at least one microphone and a power source.
  • the information displayed by the display device may be in a region of the glasses allowing the hearing-impaired person to simultaneously perceive this information and the lips and / or gestures of an interlocutor, including facial expressions.
  • the display region is for example located in a central area of the user's field of view, particularly in the case of a monocular display of the micro-display type, or remote to a peripheral area for greater comfort.
  • the display area may cover all or part of the user's field of view when the display is transparent and allows the concurrent perception of the audio-visual scene to the presented information, in particular in the case of a display projecting images.
  • a transparent glass which is for example the case of glasses
  • the acquisition device 30 is for example intended to be worn by the speaker of the hearing-impaired person, and may be in the form of an integrated microphone earpiece.
  • the headset is for example a headset as conventionally used in association with a mobile phone, in order to leave the hands of the user free.
  • the processing system 20 can exchange data with the display device 10 and the acquisition device 30 by wire links or not, for example by radio frequency or infrared links, the data transmission taking place for example according to the protocols BlueTooth ® , Wifi ® , 802.1 lb ® or others.
  • the processing system 20 comprises for example at least one microprocessor and at least one memory, being configured to execute a computer program for processing the sound data received from the acquisition device 30.
  • the processing system 20 is for example a microcomputer staff provided with appropriate interfaces to receive the sound data from the acquisition device 30 and substantially address the display data in real time to the display device 10.
  • the processing system 20 comprises a local processing unit 21 that can communicate with the remote processing unit 22, the latter performing all or part of the signal processing.
  • the local processing unit 21 is, for example, a digital personal assistant provided with appropriate interfaces for receiving sound data from the acquisition device 30 and transmitting the data to be displayed to the display device 10.
  • the local processing unit 21 can exchange information with the remote processing unit 22 by a wired link or not, particularly radio frequency or infrared.
  • the remote processing unit 22 is for example a microcomputer or a server of a site by computer network, in particular the Internet network.
  • the local processing unit 21 is a wireless telephone and the remote processing unit 22 is for example a server communicating via the telephone network with the local processing unit 21.
  • the processing system 20 is integrated with the display device 10, the latter directly receiving the sound data from the acquisition device 30 by a wire link or not, including a radio frequency link.
  • the acquisition device 30 is no longer in the form of an atrium but in the form of one or more microphones 31 that are not worn by the interlocutor of the hearing-impaired person.
  • the microphones 31 are for example standing microphones, and can be connected to the processing system 20 by a wired connection as in the example shown, or alternatively non-wired.
  • the acquisition device 30 is a tie microphone that can be worn by the interlocutor of the hearing-impaired person.
  • the acquisition device 30 is a microphone that can be integrated into the device of the head-up display and directed to the speaker.
  • the acquisition device 30 comprises at least one microphone carried by the speaker of the hearing-impaired person, which is for example the case of the atrium illustrated in FIGS. 1 to 3 or the tie microphone of the aforementioned variant, the proximity of the microphone with the sound source reduces the influence of the environment ambient sound in the further processing of sound data and facilitates speech recognition.
  • the help system may not have an additional microphone.
  • the help system comprises on the one hand at least one directional microphone to best capture the sounds emitted by the interlocutor of the hearing-impaired person or a microphone placed close to it, which can be directional or not, as is the case of a microphone integrated in a headset or microphone tie and on the other hand at least one additional microphone to capture the ambient sound environment.
  • Such an additional microphone is advantageously an omnidirectional microphone.
  • the help system can function as shown in Figure 5.
  • the acquisition of the sound data can be done with one or more microphones as mentioned above.
  • differential data processing may be performed to separate the data from the sound source to be analyzed, namely the hearing impaired person's interlocutor, and the data corresponding to the environment. sound, not useful for understanding speech.
  • the processing of the data leads to the display in the field of vision of the hearing-impaired person of a phonetic transcription 40 which is adapted to a rapid apprehension by the hearing-impaired person.
  • the processing system 20 is preferably sufficiently fast to allow the display of a phonetic transcription of a sound uttered by the interlocutor within less than 100 ms.
  • the amount of information displayed can be chosen to be compatible with the simultaneous display and to ensure the apprehension of the information displayed by the person with hearing loss.
  • the displayed information can thus be advantageous for the displayed information to be limited to a sequence of phonetic signs for each sound pronounced, displayed sound after sound, without any sensory shift with the sound.
  • It can be for example various signs like characters representing phonemes, syllables, graphemes, or images, for example pictograms, and for the indications of the sound environment of two- or three-dimensional curves.
  • LPC finger or hand positions as illustrated in FIG. 7 may also be shown, alone or in addition to the display of another phonetic sign, for example a phoneme, as shown in FIG. Deaf child, who learns the LPC, can thus learn French at the same time, and will have fewer difficulties to pass the course of the written language.
  • the sound data may be analyzed so as to enable the display device to display information associated with noises other than speech, for example a buzzer sound, an alarm, a scream child, a traffic noise.
  • FIG. 6 represents various images that can be displayed to signal the sound presence of a horn, of a motor noise of a bus or of a car, of a baby cry, of a rooster's song or a bark.
  • the processing system can be arranged to allow customization of the recognized noises, through a learning phase of the system or downloading data selected by the user.
  • the recognition of sounds or noises can be carried out by a process based on the temporal, frequency and energy decomposition of the signal, for example the Fourier transform, then a classification according to stochastic models in predefined linguistic units, for example phoneme or word.
  • the electrical signal from the microphone when the speaker speaks is sampled to generate digital data.
  • the processing system is arranged to analyze and parameterize these data and perform a mathematical treatment thereof.
  • This processing may include the description of the speech acoustic signal in terms of discrete linguistic units.
  • the most used units can be phonemes, syllables, words.
  • a phoneme is a sound element of a given language, determined by the relationships it has with other sounds of that language. For example, the word “neck” is composed of the phonemes “keu” and "or".
  • the processing carried out can make it possible to segment the signal into elementary segments and once the segmentation has been performed, the identification of the different segments can be done according to phonetic and / or linguistic constraints.
  • the signal following this processing, depends on three parameters: time, frequency and intensity, and can be represented in the form of a spectrogram.
  • FIG. 9 is a spectrogram of the word computer.
  • the vertical axis represents frequencies up to 8000 Hz
  • the horizontal axis shows the positive time to the right
  • the colors represent the intensity of the most important acoustic peaks of a given time slot, the red representing the highest energies high.
  • An analytic approach which takes advantage of the linguistic structure of words, can be used to detect and identify elementary components (phonemes and syllables). This approach has a more general character to recognize large vocabularies because it is enough to record in the memory of the processing system the main characteristics of the basic units. Words may not be memorized in their entirety, but treated as a sequence of phonemes.
  • the speaker signal is obtained by subtracting the spectral density of the background noise from the spectral density of the signal detected by the microphone.
  • the background noise spectrum can be approximated by the average of the noise spectra measured during the silences separating the utterances. When an additional multidirectional microphone is present, the background noise spectrum can be estimated by this microphone.
  • the invention is not limited to the examples which have just been described.
  • the display device 10 can be of any type suitable for head-up vision, not being limited to glasses.
  • the display device 10 may include in particular a transparent screen placed in the field of view of the hearing-impaired person, not worn by the latter, so as to enable him to observe both the information displayed on this screen and the interlocutor.
  • the display device 10 may also include a table accessory, for example of the modern pendulum type, with a transparent liquid crystal display.
  • LCD liquid crystal display
  • LED light-emitting diode
  • the display device 10 may also comprise, for example, a window, on which the information is projected, by means of at least one laser for example.
  • This window can be present at a desk or a desk. It can still be the visor of a helmet.
  • the information displayed in the field of vision of the hearing-impaired person may also be displayed on a subsidiary screen, or even on another pair of glasses, in order, for example, to enable a re-educator to control the information visualized by the hearing-impaired person. .

Abstract

The present invention relates to a system (1) for helping hearing-impaired people, comprising; a device (30) for capturing sounds emitted by a speaker addressing the person, a head-up display device (10), a processing system (20) for analyzing in real time sound data transmitted by the acquisition device and transmitting to the display device an at least partial phonetic transcription of this sound data, to be displayed in the field of vision of the person, so that he can observe both the movement of the lips and/or the movements of the speaker and the phonetic transcription.

Description

Système pour personne malentendante Hearing impaired system
La présente invention concerne les systèmes d'aide pour personnes malentendantes et notamment ceux qui peuvent avantageusement venir en complément des aides médicales déjà apportées à ces personnes (prothèses, implants.) lesquelles, parfois, ne permettent pas une réception complète de la parole.The present invention relates to hearing aid systems for persons with hearing loss and especially those which can advantageously come in addition to the medical aids already provided to these persons (prostheses, implants.) Which, sometimes, do not allow a complete reception of speech.
Il est établi que la perception des expressions faciales augmente considérablement la compréhension et l'apprentissage du langage oral.It is established that the perception of facial expressions greatly increases the comprehension and the learning of the oral language.
La compréhension de la parole augmente ainsi avec la lecture labiale chez les implantés cochléaires de 45 % à 85 % en un mois de rééducation pour atteindre presque 100 % après un an, selon la publication S. Lagleyre, Service ORL, Hospital Purpan, « Rôle of visuo-auditory intégration in speech compréhension in deaf subjects with cochlear implants », 6th Annual Meeting of the International Multisensory Research Forum, June 5-8, 2005 - University of Trento, Department of Cognitive Sciences and Education, Trento, Italy. Pour les personnes sourdes, la lecture labiale ne suffit pas à avoir une représentation visuelle de l'ensemble du système phono logique du Français, car il y a 36 sons auxquels correspondent seulement 12 images labiales. Par exemple {pa}, {ba}, {ma} ont la même image labiale.The understanding of speech increases with lab reading in cochlear implanted patients from 45% to 85% in one month of rehabilitation to reach almost 100% after one year, according to the publication S. Lagleyre, ENT Department, Hospital Purpan, "Role of the visuo-auditory integration in speech understanding in deaf subjects with cochlear implants ", 6th Annual Meeting of the International Multisensory Research Forum, June 5-8, 2005 - University of Trento, Department of Cognitive Sciences and Education, Trento, Italy. For the deaf, the lip reading is not enough to have a visual representation of the whole phono logical system of the French, because there are 36 sounds to which correspond only 12 labial images. For example {pa}, {ba}, {ma} have the same lip image.
Les adultes devenus sourds connaissent la langue et avec leur mémoire auditive peuvent suppléer mentalement aux incertitudes de la réception du discours de leur interlocuteur. Pour les jeunes enfants sourds qui n'ont pas acquis la langue et qui n'en ont pas de modèle phonologique, la lecture labiale est un exercice très aléatoire.Adults who have become deaf know the language and with their auditory memory can mentally supplement the uncertainties of receiving the speech of their interlocutor. For young deaf children who have not acquired language and who do not have a phonological model, lip reading is a very random exercise.
Pour remédier à ce problème, le langage parlé complété (LPC) associe cinq positions de la main par rapport au visage pour distinguer les voyelles et huit configurations des doigts pour discriminer les consonnes. Ces gestes permettent d'éliminer les ambiguïtés dues aux sosies labiaux et constituent un moyen pour les sourds, et notamment les enfants, d'appréhender la langue française par la vue, comme l'entendant la reçoit par rouie. Par exemple, aux trois sosies labiaux {pa} {ba} {ma} correspondent trois clefs différentes du LPC. Comme la langue des signes, l'alphabet des kinèmes assistés, le Français signé, le LPC impose un apprentissage qui n'est pas trivial, tant de la part du malentendant que de son entourage privé, professionnel ou administratif. L'implication d'un apprentissage risque de rejeter le malentendant du reste des bien-entendants. Selon M. Molander, « Experiment with asynchrony in multimodal speech communication », Master thesis, Department of Speech, Music and Hearing (TMH) at theTo address this problem, Completed Speech Language (LPC) associates five hand positions with the face to distinguish vowels and eight finger patterns to discriminate consonants. These gestures make it possible to eliminate ambiguities due to labial look-alikes and provide a means for the deaf, and especially children, to apprehend the French language by sight, as the hearer receives it by rouie. For example, the three labial look-alikes {pa} {ba} {ma} correspond to three different keys of the LPC. Like sign language, the alphabet of kinemes assisted, the French signed, the LPC imposes an apprenticeship that is not trivial, both on the part of the deaf person and his private, professional or administrative entourage. The implication of an apprenticeship risks rejecting the hearing impaired from the rest of the well-hearing. According to Mr. Molander, "Experiment with asynchrony in multimodal speech communication", Master thesis, Department of Speech, Music and Hearing (TMH) at the
Royal Institute of Technology (KTH), Stockholm, Sweden, June 2003, le décalage entre la perception des informations visuelles et auditives ne doit pas excéder 100 ms, sous peine de nuire à la compréhension de la parole et de produire des illusions sensorielles.Royal Institute of Technology (KTH), Stockholm, Sweden, June 2003, the gap between the perception of visual and auditory information should not exceed 100 ms, at the risk of impairing the understanding of speech and producing sensory illusions.
On connaît par le brevet US 5 029 216 un système d'aide comportant des lunettes destinées à être portées par la personne malentendante, munies de microphones et d'un système de traitement permettant d'indiquer à la personne la direction d'où les sons captés émanent. Le système de traitement est également agencé pour indiquer Tintensité des sons émis.US Pat. No. 5,029,216 discloses an aid system comprising spectacles intended to be worn by the hearing-impaired person, provided with microphones and a processing system making it possible to indicate to the person the direction from which the sounds are heard. captured emanate. The processing system is also arranged to indicate the intensity of the sounds emitted.
Le brevet US 6 975 991 divulgue un système d'aide destiné à permettre à une personne malentendante de recevoir une information concernant la localisation d'un orateur au sein d'une assemblée.US Patent 6,975,991 discloses a help system for enabling a hearing-impaired person to receive information regarding the location of a speaker in an assembly.
La demande de brevet US 2002/0101537 divulgue un système d'aide comportant des lunettes destinées à être portées par la personne malentendante, et un système de traitement permettant l'affichage sur ces lunettes de sous-titres correspondant par exemple à un programme télévisé regardé par la personne malentendante.The patent application US 2002/0101537 discloses an assistance system comprising glasses intended to be worn by the hearing-impaired person, and a processing system for displaying on these subtitle glasses corresponding for example to a television program watched. by the person with hearing loss.
La demande de brevet JP 08-160366 divulgue un système d'aide similaire.Patent Application JP 08-160366 discloses a similar aid system.
L'utilisation dans ces deux dernières demandes d'un système de reconnaissance de la parole ou de dictée pour « sous-titrer » la scène audio-visuelle présente l'inconvénient de faire appel au contexte de la phrase complète pour reconstituer sa grammaire et sa syntaxe, ce qui entraîne un retard important et variable du texte écrit par rapport à la scène audio-visuelle et la phase écrite peut comporter des erreurs. Dans ce dernier cas, l'auditeur devra repasser à une représentation phonétique de la phrase pour la comprendre. Il en résulte qu'un tel système est inadapté à l'exploitation de la lecture labiale pour la réception du message et donc à l'appropriation de la langue orale et puis écrite. De plus, ce système exige que la personne sache lire, ce qui n'est pas le cas des jeunes enfants.The use in these last two requests of a speech recognition or dictation system to "subtitle" the audio-visual scene has the disadvantage of using the context of the complete sentence to reconstruct its grammar and its content. syntax, resulting in a significant and variable delay of the written text compared to the audio-visual scene and the written phase may include errors. In the latter case, the listener will have to go back to a phonetic representation of the sentence to understand it. As a result, such a system is unsuited to the exploitation of lip reading for the reception of the message and therefore to the appropriation of the oral language and then written. In addition, this system requires the person to be able to read, which is not the case for young children.
De plus, le système d'aide selon la demande de brevet US 2002/0101537 n'est pas prévu pour aider une personne malentendante face à un interlocuteur quelconque pouvant se situer dans un environnement relativement bruyant et qui entamerait un dialogue spontané. Le brevet US 4 972 486 divulgue un dispositif de transcription en symboles visuels d'informations sonores, dans lequel chaque symbole est associé à un groupe de consonnes particulier.In addition, the aid system according to the patent application US 2002/0101537 is not intended to help a hearing-impaired person face any interlocutor that may be in a relatively noisy environment and initiate a spontaneous dialogue. No. 4,972,486 discloses a device for transcription into visual symbols of sound information, in which each symbol is associated with a particular group of consonants.
Enfin, rien n'est prévu pour signaler à la personne malentendante un danger ou une alerte, en cas d'émission d'une alarme incendie ou d'un cri d'un bébé par exemple.Finally, nothing is planned to indicate to the person with hearing loss a danger or an alert, in the event of the issuance of a fire alarm or a cry of a baby, for example.
Il a été proposé dans Particle « Accessibilité des sourds aux moyens de communication audiovisuels par le Langage Parlé Complété, accompagné de sous- titrage », de commander une main virtuelle codant en LPC en surimpression soit sur une image vidéo, soit sur une tête de synthèse 3D. Cette solution impose l'apprentissage du codage LPC et implique une incrustation d'image ou un affichage sur un écran vidéo suffisamment grand pour être visible par les élèves d'une salle de classe, par exemple.It was proposed in the article "Accessibility of the deaf to the means of audio-visual communication by Spoken Complete Language, accompanied by subtitling", to order a virtual hand coding in LPC superimposed either on a video image, or on a head of synthesis 3D. This solution requires the learning of LPC coding and involves an image inlay or a display on a video screen large enough to be visible to students in a classroom, for example.
Il existe un besoin pour perfectionner encore les systèmes d'aide pour personnes malentendantes et notamment permettre à celles-ci de bénéficier d'un système d'aide à la lecture labiale qui a pour objectif l'acquisition et la transmission de la langue orale et la compréhension d'un interlocuteur quelconque dans un environnement pouvant être relativement bruyant, le cas échéant.There is a need to further improve the hearing aid systems for the hearing impaired and, in particular, to enable them to benefit from a system of assistance with lip reading which aims at the acquisition and transmission of the oral language and the understanding of any interlocutor in an environment that can be relatively noisy, if any.
Il existe un besoin pour améliorer la réception du message oral par l'enfant sourd par une aide à la lecture labiale, et l'acquisition et la transmission de la langue orale, afin de donner aux jeunes sourds plus de facilité à utiliser la lecture labiale et à exercer une suppléance mentale.There is a need to improve the reception of the oral message by the deaf child by a help with lip reading, and the acquisition and transmission of the oral language, in order to give young deaf people an easier time using lip reading. and to exercise a mental substitute.
Il existe encore un besoin pour aider une personne entendante à communiquer avec la personne sourde sans obliger la personne entendante à acquérir des compétences particulières pour communiquer avec la personne sourde.There is still a need to help a hearing person communicate with the deaf person without requiring the hearing person to develop specific skills to communicate with the deaf person.
Il existe également un besoin pour bénéficier d'un système d'aide capable d'aider les personnes malentendantes dans leur vie quotidienne afin de les avertir de l'existence de dangers, par exemple.There is also a need for a help system that can help people with hearing loss in their daily lives to warn them of hazards, for example.
L'invention vise à répondre à tout ou partie de ces besoins.The invention aims to meet all or part of these needs.
L'invention a pour objet un système d'aide pour personne malentendante, comportant : - un dispositif d'acquisition des sons émis par un interlocuteur de la personne malentendante, qui peut être avec ou sans prétraitement intégré visant à tenir compte de l'environnement sonore afin de réduire des bruits de fond, - un dispositif de visualisation tête haute,The subject of the invention is a hearing aid system, comprising: a device for acquiring sounds emitted by an interlocutor of the hearing-impaired person, which can be with or without integrated pretreatment in order to take account of the environment sound to reduce background noise, a head-up display device,
- un système de traitement pour analyser en temps réel des données sonores transmises par le dispositif d'acquisition et transmettre au dispositif de visualisation une transcription phonétique au moins partielle de ces données sonores, à afficher dans le champ de vision de la personne, de façon à lui permettre d'observer à la fois le mouvement des lèvres et/ou les gestes de rinterlocuteur, notamment faciaux, et la transcription phonétique.a processing system for analyzing, in real time, sound data transmitted by the acquisition device and for transmitting to the display device at least a partial phonetic transcription of these sound data, to be displayed in the person's field of vision, in such a way as to to allow him to observe both the movement of the lips and / or the gestures of the interlocutor, in particular facial, and the phonetic transcription.
Par « dispositif d'affichage tête haute », il faut comprendre un dispositif ayant au moins une surface transparente à travers laquelle la personne malentendante peut observer, et sur laquelle ou dans le voisinage de laquelle l'information peut être affichée, afin de permettre à la personne d'observer à la fois l'information affichée et la scène située derrière la surface transparente. Cette dernière peut être définie par un verre minéral ou organique, éventuellement correcteur ou teinté, fixe ou porté par l'utilisateur."Head-up display device" means a device having at least one transparent surface through which the hearing-impaired person can observe, and on or in the vicinity of which the information may be displayed, to enable the person to observe both the displayed information and the scene behind the transparent surface. The latter can be defined by a mineral or organic glass, possibly corrector or tinted, fixed or worn by the user.
De plus, le dispositif de visualisation pouvant être porté par la personne malentendante dans certains exemples de mise en œuvre de Tinvention, le système d'aide peut être utilisé très facilement en de nombreuses situations.In addition, since the display device can be worn by the hearing-impaired person in certain embodiments of the invention, the help system can be used very easily in many situations.
La transcription phonétique des données sonores peut être complète. La transcription phonétique, partielle ou complète, des données sonores peut être effectuée en phonèmes. Un phonème est un élément sonore d'un langage donné, déterminé par les rapports qu'il entretient avec les autres sons de ce langage. Par exemple, le mot « cou » est formé des phonèmes « keu » et « ou ». Le Français en comprend 36, dont 16 voyelles et 20 consonnes.The phonetic transcription of the sound data can be complete. The phonetic transcription, partial or complete, of the sound data can be performed in phonemes. A phoneme is a sound element of a given language, determined by the relationships it has with other sounds of that language. For example, the word "neck" is composed of the phonemes "keu" and "or". The French includes 36, including 16 vowels and 20 consonants.
Dans un exemple de mise en œuvre de Tinvention, le système d'aide permet à l'utilisateur de désactiver l'affichage de la transcription phonétique en fonction par exemples de préférence de l'utilisateur ou de la qualité de la reconnaissance de la parole, qui peut être dépendante de l'environnement sonore.In an exemplary implementation of the invention, the help system allows the user to disable the display of phonetic transcription based on, for example, user preference or the quality of speech recognition, which may be dependent on the sound environment.
L'affichage d'une transcription phonétique au moins partielle ne nécessite pas une analyse grammaticale d'une phrase complète par le système de traitement et permet de gagner en rapidité, ce qui permet l'affichage de la transcription phonétique de façon quasi simultanée avec le mouvement des lèvres. Ainsi, la personne malentendante ne souffre d'aucun décalage sensoriel excessif par rapport à la scène observée, l'affichage de la transcription phonétique pouvant être effectué avec un retard par rapport à rémission des données sonores pouvant être inférieur à 100 ms. La transcription phonétique peut s'effectuer avec des signes divers, lesquels peuvent comporter des images, des pictogrammes, des photographies ou représentations de gestes de mains et/ou d'expressions faciales, notamment une main et/ou un visage virtuel, des caractères alphanumériques ou spéciaux, des phonèmes, graphèmes, voire éventuellement des signes personnalisés dont l'aspect est décidé à Tavance par l'utilisateur. La transcription phonétique peut ne faire intervenir aucune grammaire et ne comporter aucun caractère alphanumérique, afin d'être facilement appréhendable par un enfant ne sachant pas lire.The display of an at least partial phonetic transcription does not require a grammatical analysis of a complete sentence by the processing system and makes it possible to gain in speed, which allows the phonetic transcription to be displayed almost simultaneously with the movement of the lips. Thus, the hearing-impaired person does not suffer from any excessive sensory shift with respect to the observed scene, the display of the phonetic transcription being able to be performed with a delay in relation to remission of the sound data that can be less than 100 ms. The phonetic transcription may be carried out with various signs, which may include images, pictograms, photographs or representations of gestures of hands and / or facial expressions, including a hand and / or virtual face, alphanumeric characters or special, phonemes, graphemes, or even possibly personalized signs whose appearance is decided at Tavance by the user. The phonetic transcription can not involve any grammar and do not contain any alphanumeric characters, in order to be easily apprehendable by a child who can not read.
Les signes susceptibles d'être affichés peuvent être sélectionnés dans une base d'images mémorisées par le système de traitement. Dans le cas où une main, qui peut être virtuelle, est affichée, celle-ci peut prendre une configuration sélectionnée parmi celles du LPC.The signs that can be displayed can be selected in a database of images stored by the processing system. In the case where a hand, which can be virtual, is displayed, it can take a configuration selected from those of the LPC.
La personne malentendante peut éventuellement interpréter elle-même la transcription phonétique pour reconstituer le mot et la phrase, et corriger éventuellement d'elle-même des transcriptions phonétiques qui seraient erronées en fonction du contexte. Les signes affichés permettent de lever l'ambiguïté existant entre plusieurs phonèmes correspondant au même mouvement des lèvres. Il peut être avantageux que les signes affichés pour la transcription phonétique soient internationaux et indépendants d'une langue particulière.The hard-of-hearing person may interpret the phonetic transcription himself to reconstruct the word and sentence, and possibly correct for himself phonetic transcriptions that would be erroneous depending on the context. The displayed signs make it possible to remove the ambiguity existing between several phonemes corresponding to the same movement of the lips. It may be advantageous if the signs displayed for the phonetic transcription are international and independent of a particular language.
L'invention peut iàciliter l'intégration de sourds dans des classes d'entendants et/ou Tintervention de professeurs non formés dans des classes comportant des élèves sourds, et d'éviter la présence de « codeurs ».The invention may facilitate the integration of the deaf into hearing classes and / or the intervention of untrained teachers in classes with deaf pupils, and avoid the presence of "coders".
L'élève sourd peut alors disposer de la lecture labiale accompagnée d'équivalent des clés du LPC sans un apprentissage spécifique, ni de lui ni de son professeur, ni d'intervention conjointe de renseignant et du codeur, une telle intervention demandant une importante préparation et réflexion commune. Le système de traitement peut être agencé pour paramétrer le signal vocal du locuteur, segmenter les données sonores en segments linguistiques élémentaires, et les identifier.The deaf student can then have the lab reading accompanied by the equivalent of the keys of the LPC without a specific learning, neither of him nor of his teacher, nor of joint intervention of informant and the coder, such an intervention requiring an important preparation and common reflection. The processing system can be arranged to parameterize the speech signal of the speaker, segment the sound data into elementary linguistic segments, and identify them.
Le paramétrage peut consister à obtenir une « empreinte » caractéristique du son en appliquant successivement à son signal électrique un traitement mathématique, fondé sur la décomposition fréquentielle du signal, par exemple la transformée de Fourier, sans connaissance a priori de sa structure fine. Cette empreinte caractéristique du son peut être représentée par un « spectrogramme », i.e. un graphique donnant révolution de l'amplitude et de la fréquence en fonction du temps. Le décodage acousticαphonétique mis en œuvre par le système de traitement peut permettre de décrire le signal acoustique en termes d'unités linguistiques discrètes et a pour but la segmentation du signal en segments élémentaires. Si ces unités linguistiques sont longues, comme les syllabes, les mots ou une phrase, la reconnaissance en elle-même sera facilitée, mais leur identification est difficile. Si les unités linguistiques courtes sont choisies, comme les « phones », la localisation serait plus facile, mais l'effort du malentendant sera plus important pour les exploiter. Les « phonèmes » peuvent constituer un bon compromis, leur nombre étant limité.The parameterization can consist in obtaining a characteristic "imprint" of the sound by successively applying to its electrical signal a mathematical treatment, based on the frequency decomposition of the signal, for example the Fourier transform, without prior knowledge of its fine structure. This characteristic imprint of the sound can be represented by a "spectrogram", i.e. a graph giving rise to amplitude and frequency as a function of time. The acoustophonetic decoding implemented by the processing system can make it possible to describe the acoustic signal in terms of discrete linguistic units and aims at segmenting the signal into elementary segments. If these linguistic units are long, such as syllables, words or a sentence, the recognition itself will be facilitated, but their identification is difficult. If short linguistic units are chosen, such as "phones", localization would be easier, but the hard-of-hearing effort will be more important to exploit them. "Phonemes" can be a good compromise, as their number is limited.
Les données sonores, après paramétrage, peuvent être comparées à des données de référence en termes d'images acoustiques tempo-fréquentielles. Une base de données contenant des empreintes phonétiques moyennes peut être utilisée afin d'autoriser la reconnaissance de plusieurs voix indépendamment du locuteur et rendre le système d'aide « multilocuteur ».The sound data, after parameterization, can be compared to reference data in terms of tempo-frequency acoustic images. A database containing average phonetic fingerprints may be used to allow the recognition of multiple voices independently of the speaker and to make the help system "multilocutor".
Le système de traitement peut alors accepter et comprendre différents timbres de voix, accents, etc., et être robuste face aux éventuelles nuisances sonores. Le système de traitement peut, dans un exemple de mise en œuvre deThe processing system can then accept and understand different voices, accents, etc., and be robust to possible noise. The treatment system can, in an example of implementation of
Tinvention, ne pas nécessiter d'entraînement préalable à la voix de l'interlocuteur, ce qui facilite l'utilisation du système d'aide.Tinvention, do not require training before the voice of the interlocutor, which facilitates the use of the help system.
La fabrication des modèles des mots à reconnaître peut se faire grâce à l'agencement de modèles de phonèmes préalablement fabriqués et non à partir de nombreux enregistrements des mots. Leur identification peut se faire en fonction de données articulatoires et phonétiques. Les consignes d'agencement peuvent impliquer la phonémisation des mots à reconnaître. Une modélisation stochastique, sous forme de modèles markoviens et/ou de modèles neuro-mimétiques, peut permettre de choisir le son le plus ressemblant, indépendamment des durées et des rythmes prononcés. A titre d'exemples de modélisations, on peut citer : - Y. Laprie et Ch. Cerisara, « Vers le succès en reconnaissance vocale », ProjetThe manufacture of the models of the words to be recognized can be done thanks to the arrangement of previously manufactured models of phonemes and not from numerous recordings of the words. Their identification can be done according to articulatory and phonetic data. Layout instructions may imply the phonemization of the words to be recognized. Stochastic modeling, in the form of Markovian models and / or neuromimic models, can be used to choose the most resembling sound, regardless of the durations and rhythms pronounced. Examples of modeling include: - Y. Laprie and Ch. Cerisara, "Towards Success in Speech Recognition", Project
PAROLE, INRIA Lorraine/ LORIA,SPEECH, INRIA Lorraine / LORIA,
- L. R. Rabiner, «A tutorial on hidden Markov models and selected applications in speech récognition », Proc. IEEE, vol. 77, n° 2, 1989, p. 257,- L. R. Rabiner, "A tutorial on hidden Markov models and selected applications in speech recognition", Proc. IEEE, vol. 77, No. 2, 1989, p. 257
- Présentations dans XXIIIèmes Journées d'Etude sur la Parole, Aussois, 19-23 juin 2000, par exemple : M. Adda-Decker et L. Lamel, « Systèmes d'alignement automatique & études de variantes de prononciation » et autres,- Presentations in XXIIIth Study Days on the Speech, Aussois, 19-23 June 2000, for example: M. Adda-Decker and L. Lamel, "Systems of automatic alignment & studies of pronunciation variants" and others,
- V. Luba et A. Younes « Projet Multimédia : Modèles de Markov Cachés. Reconnaissance de la parole », Faculté Polytechnique de Mons, 2005,- V. Luba and A. Younes "Multimedia Project: Hidden Markov Models. Recognition of the word ", Polytechnic Faculty of Mons, 2005,
- B. Jacob, « Un outil informatique de gestion de modèles de Markov cachés : expérimentations en reconnaissance automatique de la parole », Université P. Sabatier,- B. Jacob, "A computer tool for managing hidden Markov models: experiments in automatic speech recognition", University P. Sabatier,
Toulouse, 1995,Toulouse, 1995,
- The Hidden Markov Model Toolkit (HTK): http://htk.eng.cam.ac.uk/.- The Hidden Markov Model Toolkit (HTK): http://htk.eng.cam.ac.uk/.
- H. Schwenk and J. -L. Gauvain, « Using Continuons Space Language Models or Conversational Speech Récognition »; IEEE workshop on Spontaneous Speech Récognition, 2003, etH. Schwenk and J. -L. Gawain, "Using Continuous Space Language Models or Conversational Speech Recognition"; IEEE Workshop on Spontaneous Speech Recognition, 2003, and
- J. L. Gauvain, L. Lamel, and G. Adda, « The LIMSI Broadcast News Transcription System. Speech Communication ». 37(1-2): 89-108, 2002, dont les contenus sont incorporés par référence.- J. L. Gauvain, L. Lamel, and G. Adda, "The LIMSI Broadcast News Transcription System. Speech Communication ". 37 (1-2): 89-108, 2002, the contents of which are incorporated by reference.
La modélisation peut utiliser des modèles acoustiques de phones et d'autres types de segments, comme les respirations, hésitations, et bruits divers d'environnement fréquemment observés.Modeling can use acoustic models of phones and other types of segments, such as breaths, hesitations, and various environmental noise frequently observed.
Une meilleure prédiction des modèles de phones peut être obtenue en distinguant, pour un phone donné, différents modèles suivant le contexte phonémique.A better prediction of the models of phones can be obtained by distinguishing, for a given phone, different models according to the phonemic context.
Un arbre de décision phonémique peut permettre de partager un même nombre de gaussiennes entre un grand nombre de contextes et réduire ainsi le nombre d'hypothèses à évaluer et le coût global du décodage en temps de calcul. On pourra se référer utilement à la publication G. Linares, P. Nocera et D. Matrouf, « Partitionnement dynamique des distributions pour le calcul des émissions dans un décodeur acoustico-phonétique Markovien », XXIIIèmes Journées d'Etude sur la Parole, Aussois, 19-23 juin 2000, dont le contenu est incorporé par référence.A phonemic decision tree can share the same number of Gaussians between a large number of contexts and thus reduce the number of hypotheses to be evaluated and the overall cost of decoding in computing time. We can usefully refer to the publication G. Linares, P. Nocera and D. Matrouf, "Dynamic Partitioning of distributions for the calculation of emissions in a Markovian acoustic-phonetic decoder ", XXIIIth Study Days on the Speech, Aussois, 19-23 June 2000, the contents of which are incorporated by reference.
Ainsi, des systèmes de traitement mobiles de petite taille tels que des assistants personnels numériques peuvent être suffisants pour parvenir à un niveau très performant et robuste de transcription phonétique.Thus, small mobile processing systems such as PDAs may be sufficient to achieve a high performance and robust level of phonetic transcription.
Selon un autre de ses aspects, indépendamment ou en combinaison avec ce qui précède, Tinvention a pour objet un système d'aide pour personne malentendante, comportant : - un dispositif d'acquisition, avec ou sans prétraitement intégré, des sons émis par un interlocuteur de la personne, comportant :According to another of its aspects, independently or in combination with the foregoing, the subject of the invention is a hearing aid system comprising: an acquisition device, with or without integrated pretreatment, of the sounds emitted by an interlocutor; of the person, comprising:
- au moins un microphone agencé pour être porté par l'interlocuteur, ouat least one microphone arranged to be worn by the interlocutor, or
- au moins un microphone directionnel dirigé vers l'interlocuteur,at least one directional microphone directed towards the interlocutor,
- un dispositif de visualisation tête haute, permettant préférentiellement Tintégration des microphones,a head-up display device, preferably for integrating the microphones,
- un système de traitement pour analyser en temps réel des données sonores transmises par le dispositif d'acquisition et transmettre au dispositif de visualisation une transcription phonétique au moins partielle de ces données sonores, à afficher dans le champ de vision de la personne de façon à lui permettre d'observer simultanément, c'est-à- dire sans décalage sensoriel sensible, à la fois le mouvement des lèvres et/ou les gestes de Tinterlocuteur et la transcription phonétique.a processing system for analyzing, in real time, sound data transmitted by the acquisition device and transmitting to the display device an at least partial phonetic transcription of this sound data, to be displayed in the person's field of vision so as to to allow him to observe simultaneously, that is to say, without sensible sensory shift, both the movement of the lips and / or the gestures of the speaker and the phonetic transcription.
La présence d'au moins un microphone directionnel, intégré ou pas dans le dispositif de visualisation tête haute, ou d'un microphone porté par la personne permet d'augmenter le rapport signal sur bruit et facilite la reconnaissance de la parole même dans un environnement sonore relativement bruyant.The presence of at least one directional microphone, integrated or not in the head-up display device, or a microphone worn by the person increases the signal-to-noise ratio and facilitates speech recognition even in an environment sound relatively noisy.
Selon un autre de ses aspects, indépendamment ou en combinaison avec ce qui précède, Tinvention a encore pour objet un système d'aide pour personne malentendante, comportant :According to another of its aspects, independently or in combination with the foregoing, the invention further relates to a hearing aid system comprising:
- un dispositif d'acquisition de bruits émis dans renvironnement sonore de la personne,a device for acquiring noise emitted in the sound environment of the person,
- un dispositif de visualisation tête haute, - un système de traitement pour analyser en temps réel des données sonores transmises par le dispositif d'acquisition, agencé pour reconnaître des bruits autres que la parole, et transmettre au dispositif de visualisation une transcription phonétique au moins partielle de ces bruits pour son affichage dans le champ de vision de la personne malentendante.a head-up display device, a processing system for analyzing, in real time, sound data transmitted by the acquisition device, arranged to recognize noises other than speech, and to transmit to the display device at least a partial phonetic transcription of these noises for its display in the field of vision of the person with hearing loss.
Ainsi, la personne malentendante peut être renseignée sur l'ambiance sonore et être avertie de la présence d'un danger, par exemple.Thus, the hearing-impaired person can be informed about the sound environment and be warned of the presence of a danger, for example.
Les bruits reconnus par le système de traitement peuvent être Tun des bruits suivants : klaxon, alarme, bruit de circulation, cris cfenfant(s), cris d'animaux, sonneries du téléphone, etc.The noises recognized by the treatment system may include: horn, alarm, traffic noise, screaming of children, screaming of animals, ringing of the telephone, etc.
Le cas échéant, le système de traitement peut être agencé pour permettre à l'utilisateur lui-même de programmer la reconnaissance d'un bruit particulier, par exemple une sonnerie d'un appareil donné, et l'affichage d'une information correspondante, qui peut présenter un graphisme défini à Tavance par l'utilisateur, le cas échéant. Cela peut permettre une adaptation personnalisée du système d'aide à un environnement sonore particulier, voire à un danger particulier.If necessary, the processing system can be arranged to allow the user himself to program the recognition of a particular noise, for example a ringing of a given device, and the display of a corresponding information, which can present a graphic defined by the user, if any. This can allow a personalized adaptation of the help system to a particular sound environment, or even to a particular danger.
Selon d'autres aspects non limitatifs de Tinvention, le dispositif d'acquisition peut comporter un microphone intégré à une oreillette ou un microphone cravate.According to other non-limiting aspects of the invention, the acquisition device may comprise a microphone integrated in a headset or a tie microphone.
Lorsque le microphone est intégré à une oreillette, cela peut permettre, en particulier dans le cadre de la vie privée ou dans le cas de la rééducation, que l'interlocuteur de la personne malentendante reçoive l'information diffusée par un haut-parleur de roreillette, permettant non seulement la transmission des sons originaux, mais aussi rinformation affichée, transformée en son par l'unité de calcul. Pour cela, l'unité de calcul peut utiliser un logiciel de synthèse vocale de type connu en soi, permettant la transcription du texte affiché en parole (Text-To-Speech). Ainsi les interlocuteurs des malentendants peuvent contrôler que l'information projetée est correcte et la répéter le cas échéant.When the microphone is integrated in a headset, it may allow, especially in the context of privacy or in the case of rehabilitation, that the interlocutor of the hearing-impaired person receives the information broadcast by a speaker of Roreillette , allowing not only the transmission of the original sounds, but also the displayed information, transformed into sound by the computing unit. For this, the computing unit can use a speech synthesis software of known type, allowing the transcription of text displayed in speech (Text-To-Speech). Thus the interlocutors of the hearing impaired can control that the projected information is correct and repeat it if necessary.
Le système de traitement peut être agencé pour reconnaître à la fois des unités phonétiques et des bruits prédéfinis.The processing system can be arranged to recognize both phonetic units and predefined noises.
La transcription phonétique des bruits émis dans renvironnement sonore de la personne peut ne faire intervenir aucune grammaire et ne comporter aucun caractère alphanumérique, afin d'être facilement appréhendable par un enfant ne sachant pas lire. L'affichage dans le champ de vision de la personne portant le dispositif des bruits sonores émis dans renvironnement peut être effectué avec un retard par rapport à leur émission inférieur à 100 ms.The phonetic transcription of the noises emitted in the person's sound environment may involve no grammar and no alphanumeric characters, in order to be easily apprehended by a child who can not read. The display in the field of vision of the person carrying the device of the sound noises emitted in the environment can be carried out with a delay in relation to their emission less than 100 ms.
Le système de traitement peut utiliser des modèles acoustiques généraux, qualifiés sur des corpus volumineux, y compris plusieurs interlocuteurs avec une distribution statistique d'âge, de sexe, et de régions géographiques (accents) afin de représenter une situation moyenne du langage parlé et garantir des performances excellentes dans les situations les plus courantes.The treatment system can use general acoustic models, qualified on large corpora, including several interlocutors with a statistical distribution of age, sex, and geographic regions (accents) to represent a medium speaking language situation and guarantee excellent performance in the most common situations.
Cependant, quand il y a une certaine particularité d'un locuteur qui dévie de la parole standard, une adaptation des modèles acoustiques peut être nécessaire pour améliorer les performances.However, when there is some peculiarity of a speaker deviating from standard speech, an adaptation of the acoustic models may be necessary to improve performance.
Ainsi, dans un exemple de mise en œuvre de Tinvention, le système de traitement est agencé pour effectuer un apprentissage phonétique permettant l'individualisation des mots non stockés, mais fréquemment utilisés, et l'intégration des variantes de prononciation imprévus pour les mots stockés. Cela peut être particulièrement utile en cas d'interlocuteurs de langue maternelle étrangère ou d'accents régionaux.Thus, in an exemplary implementation of the invention, the processing system is arranged to perform a phonetic learning allowing the individualization of non-stored, but frequently used, words and the integration of unanticipated pronunciation variants for the stored words. This can be particularly useful in the case of native-speaking interlocutors or regional accents.
Toujours dans un exemple de mise en œuvre, le système de traitement peut être agencé pour effectuer une adaptation des modèles acoustiques avec les données vocales collectées sur le terrain pendant l'utilisation, améliorant ainsi la précision de la modélisation acoustico-phonétique.Still in an exemplary implementation, the processing system can be arranged to adapt the acoustic models with the voice data collected in the field during use, thus improving the accuracy of acoustico-phonetic modeling.
L'adaptation des modèles acoustiques peut permettre une adaptation au locuteur, notamment à une manière de parler ou à une langue ou à un accent, à un ou plusieurs canaux d'entrée et/ou à un environnement sonore particulier.The adaptation of the acoustic models may allow adaptation to the speaker, including a way of speaking or a language or accent, one or more input channels and / or a particular sound environment.
Le système de traitement peut être agencé pour recevoir une mise à jour du ou des programmes et/ou fichiers utilisés pour analyser les données sonores, notamment des modèles acoustiques.The processing system may be arranged to receive an update of the program (s) and / or files used to analyze the sound data, including acoustic models.
Le système de traitement peut également être agencé pour pouvoir télécharger des programmes et/ou fichiers, notamment des modèles acoustiques, en fonction de critères sélectionnés par l'utilisateur, par exemple la langue de l'interlocuteur, la zone géographique, les signes à afficher pour la transcription phonétique, les bruits à reconnaître..The processing system can also be arranged to be able to download programs and / or files, including acoustic models, according to criteria selected by the user, for example the language of the interlocutor, the geographical area, the signs to be displayed. for phonetic transcription, the sounds to be recognized ..
Le dispositif de visualisation peut être agencé pour recevoir des données à afficher par une liaison sans fil. Le dispositif de visualisation peut comporter des lunettes. En variante, le dispositif de visualisation peut être intégré à un casque, à un pupitre ou à un guichet, entre autres. Le dispositif de visualisation peut comporter un dispositif de projection monochrome ou couleur. Le système d'aide peut comporter au moins un microphone directionnel et au moins un microphone omnidirectionnel, le système de traitement étant agencé pour éliminer le bruit ambiant non utile à la compréhension de la parole par un traitement différentiel des signaux reçus des microphones omnidirectionnel et directionnel.The display device may be arranged to receive data to be displayed over a wireless link. The display device may include glasses. Alternatively, the display device can be integrated with a helmet, a desk or a desk, among others. The display device may comprise a monochrome or color projection device. The help system may comprise at least one directional microphone and at least one omnidirectional microphone, the processing system being arranged to eliminate ambient noise not useful for speech understanding by differential processing of the signals received from the omnidirectional and directional microphones. .
L'invention a encore pour objet un procédé d'affichage d'une transcription visuelle de mots prononcés par l'interlocuteur d'une personne malentendante, comportant les étapes consistant à :The invention further relates to a method for displaying a visual transcription of words uttered by the interlocutor of a person with hearing loss, comprising the steps of:
- capter les mots prononcés par rinterlocuteur, de préférence au moyen d'au moins un microphone porté par rinterlocuteur ou directionnel et dirigé vers celui-ci, intégré de préférence dans le dispositif de visualisation tête haute, - segmenter et analyser en temps réel ces mots pour reconnaître des unités phonétiques et générer une transcription phonétique au moins partielle de ces mots, par exemple sous forme d'une séquence de signes phonétiques,- to pick up the words spoken by the speaker, preferably by means of at least one microphone carried by interlocutor or directional and directed towards it, preferably integrated in the head-up display device, - to segment and analyze in real time these words for recognizing phonetic units and generating at least partial phonetic transcription of these words, for example in the form of a sequence of phonetic signs,
- afficher dans le champ de vision de la personne, grâce à un dispositif de visualisation tête haute, la transcription phonétique de façon à lui permettre de voir à la fois simultanément le mouvement des lèvres et/ou les gestes de rinterlocuteur et la transcription phonétique.- display in the field of vision of the person, through a head-up display device, the phonetic transcription so as to allow him to simultaneously see the movement of the lips and / or the actions of the speaker and the phonetic transcription.
Dans une variante, la transcription phonétique des mots peut être complète. Cette transcription phonétique peut être effectuée en phonèmes.In a variant, the phonetic transcription of the words can be complete. This phonetic transcription can be done in phonemes.
L'invention a encore pour objet, selon un autre de ses aspects, un procédé d'affichage d'une transcription visuelle de bruits présents dans renvironnement sonore d'une personne malentendante, comportant les étapes consistant à :The invention further relates, in another of its aspects, to a method of displaying a visual transcription of noises present in the sound environment of a hearing-impaired person, comprising the steps of:
- capter, de préférence au moyen d'un microphone omnidirectionnel, intégré ou pas dans le dispositif de la visualisation tête haute, les bruits dans renvironnement sonore de la personne malentendante, notamment des bruits de machines ou d'appareils ou des cris d'enfants ou d'animaux,- capture, preferably by means of an omnidirectional microphone, integrated or not in the head-up display device, the noises in the sound environment of the hearing-impaired person, in particular noise from machinery or apparatus or cries from children or animals,
- analyser en temps réel ces bruits et générer une transcription visuelle au moins partielle de ceux-ci lorsque reconnus, - afficher dans le champ de vision de la personne, grâce à un dispositif de visualisation tête haute, une transcription visuelle de ces bruits.analyze in real time these noises and generate an at least partial visual transcription of these when recognized, - display in the person's field of vision, through a head-up display device, a visual transcription of these noises.
L'invention pourra être mieux comprise à la lecture de la description détaillée qui va suivre, d'exemples de mise en œuvre non limitatifs de celle-ci, et à l'examen du dessin annexé, sur lequel :The invention will be better understood on reading the detailed description which follows, examples of non-limiting implementation thereof, and on examining the appended drawing, in which:
- les figures 1 à 4 représentent de façon schématique différents exemples de systèmes d'aide selon Tinvention,FIGS. 1 to 4 show diagrammatically different examples of aid systems according to the invention,
- la figure 5 est un schéma en blocs illustrant un exemple de procédé selon Tinvention, - la figure 6 représente des exemples d'images pouvant servir de transcription visuelle pour divers bruits correspondants,FIG. 5 is a block diagram illustrating an example of a method according to the invention; FIG. 6 represents examples of images that can be used as visual transcription for various corresponding noises;
- la figure 7 représente des positions de main et de doigts du LPC,FIG. 7 represents hand and finger positions of the LPC,
- la figure 8 est un exemple d'image susceptible d'être affichée, etFIG. 8 is an exemplary image that can be displayed, and
- la figure 9 est un spectrogramme du mot computer. On a représenté à la figure 1 un exemple de système d'aide 1 réalisé conformément à Tinvention, comportant un dispositif 10 de visualisation tête haute destiné à la personne malentendante, un système de traitement 20 agencé pour envoyer des informations au dispositif de visualisation 10 et un dispositif d'acquisition 30 destiné à transmettre des données sonores au système de traitement 20. Dans l'exemple considéré, le dispositif de visualisation comporte une paire de lunettes pourvues de moyens d'affichage dans le champ de vision de la personne malentendante.FIG. 9 is a spectrogram of the word computer. FIG. 1 shows an example of a help system 1 produced according to the invention, comprising a head-up display device 10 for the hearing-impaired person, a processing system 20 arranged to send information to the display device 10 and an acquisition device 30 for transmitting sound data to the processing system 20. In the example under consideration, the display device comprises a pair of spectacles provided with display means in the field of vision of the hearing-impaired person.
Le dispositif de visualisation est par exemple une paire de lunettes disponible commercialement auprès de la société THE MICRO OPTICAL CORPORATION. Un exemple de telles lunettes est décrit dans WO 99/23524.The display device is for example a pair of glasses commercially available from the company THE MICRO OPTICAL CORPORATION. An example of such glasses is described in WO 99/23524.
Les lunettes peuvent comporter un dispositif de projection miniature, monochrome ou couleur, porté par une branche par exemple, pour afficher des informations sur Tun des verres au moins.The glasses may include a miniature projection device, monochrome or color, carried by a branch, for example, to display information on Tun glasses at least.
Le dispositif de projection peut être un écran transparent à cristaux liquides et/ou diodes d'émission de la lumière. Il peut aussi comporter un laser, par exemple.The projection device may be a transparent liquid crystal screen and / or light emitting diodes. It may also include a laser, for example.
Les lunettes peuvent également intégrer au moins un microphone et une source d'énergie. Les informations affichées par le dispositif de visualisation peuvent Têtre dans une région des verres permettant à la personne malentendante de percevoir simultanément ces informations et les lèvres et/ou les gestes d'un interlocuteur, notamment les expressions faciales. La région d'affichage est par exemple située dans une zone centrale du champ de vision de l'utilisateur, notamment dans le cas dun afficheur monoculaire du type micro- display, ou déportée sur une zone périphérique pour un plus grand confort.The glasses can also incorporate at least one microphone and a power source. The information displayed by the display device may be in a region of the glasses allowing the hearing-impaired person to simultaneously perceive this information and the lips and / or gestures of an interlocutor, including facial expressions. The display region is for example located in a central area of the user's field of view, particularly in the case of a monocular display of the micro-display type, or remote to a peripheral area for greater comfort.
La zone d'affichage peut couvrir tout ou partie du champ de vision de rutilisateur dès lors que l'afficheur est transparent et permet la perception concurrente de la scène audio-visuelle aux informations présentées, notamment dans le cas d'un afficheur projetant des images sur un verre transparent, ce qui est par exemple le cas des lunettesThe display area may cover all or part of the user's field of view when the display is transparent and allows the concurrent perception of the audio-visual scene to the presented information, in particular in the case of a display projecting images. on a transparent glass, which is for example the case of glasses
« tête-haute » de la société THE MICRO OPTICAL CORPORATION.Head-up company of THE MICRO OPTICAL CORPORATION.
Le dispositif d'acquisition 30 est par exemple destiné à être porté par Tinterlocuteur de la personne malentendante, et peut se présenter sous la forme d'une oreillette à microphone intégré.The acquisition device 30 is for example intended to be worn by the speaker of the hearing-impaired person, and may be in the form of an integrated microphone earpiece.
L'oreillette est par exemple une oreillette telle qu'utilisée classiquement en association avec un téléphone portable, afin de laisser les mains de l'utilisateur libres.The headset is for example a headset as conventionally used in association with a mobile phone, in order to leave the hands of the user free.
Le système de traitement 20 peut échanger des données avec le dispositif de visualisation 10 et le dispositif d'acquisition 30 par des liaisons filaires ou non, par exemple par des liaisons radiofréquence ou infrarouge, la transmission des données s'effectuant par exemple selon les protocoles BlueTooth®, Wifi®, 802.1 lb® ou autres.The processing system 20 can exchange data with the display device 10 and the acquisition device 30 by wire links or not, for example by radio frequency or infrared links, the data transmission taking place for example according to the protocols BlueTooth ® , Wifi ® , 802.1 lb ® or others.
Le système de traitement 20 comporte par exemple au moins un microprocesseur et au moins une mémoire, étant configuré pour exécuter un programme informatique de traitement des données sonores reçues du dispositif d'acquisition 30. Le système de traitement 20 est par exemple un micro-ordinateur personnel pourvu des interfaces adéquates afin de recevoir les données sonores du dispositif d'acquisition 30 et adresser sensiblement en temps réel les données d'affichage au dispositif de visualisation 10.The processing system 20 comprises for example at least one microprocessor and at least one memory, being configured to execute a computer program for processing the sound data received from the acquisition device 30. The processing system 20 is for example a microcomputer staff provided with appropriate interfaces to receive the sound data from the acquisition device 30 and substantially address the display data in real time to the display device 10.
Dans la variante de la figure 2, le système de traitement 20 comporte une unité de traitement locale 21 pouvant communiquer avec l'unité de traitement distante 22, cette dernière effectuant tout ou partie du traitement des signaux. L'unité de traitement locale 21 est par exemple un assistant personnel numérique pourvu des interfaces adéquates afin de recevoir des données sonores du dispositif d'acquisition 30 et transmettre les données à afficher au dispositif de visualisation 10. L'unité de traitement locale 21 peut échanger des informations avec l'unité de traitement distante 22 par une liaison filaire ou non, notamment radiofréquence ou infrarouge.In the variant of Figure 2, the processing system 20 comprises a local processing unit 21 that can communicate with the remote processing unit 22, the latter performing all or part of the signal processing. The local processing unit 21 is, for example, a digital personal assistant provided with appropriate interfaces for receiving sound data from the acquisition device 30 and transmitting the data to be displayed to the display device 10. The local processing unit 21 can exchange information with the remote processing unit 22 by a wired link or not, particularly radio frequency or infrared.
L'unité de traitement distante 22 est par exemple un micro-ordinateur ou un serveur d'un site par réseau informatique, notamment le réseau Internet. Dans une variante non illustrée, l'unité de traitement locale 21 est un téléphone sans fil et l'unité de traitement distante 22 est par exemple un serveur communiquant par le réseau téléphonique avec l'unité de traitement locale 21.The remote processing unit 22 is for example a microcomputer or a server of a site by computer network, in particular the Internet network. In a variant not shown, the local processing unit 21 is a wireless telephone and the remote processing unit 22 is for example a server communicating via the telephone network with the local processing unit 21.
Dans la variante de la figure 3, le système de traitement 20 est intégré au dispositif de visualisation 10, ce dernier recevant directement les données sonores depuis le dispositif d'acquisition 30 par une liaison filaire ou non, notamment une liaison radiofréquence.In the variant of Figure 3, the processing system 20 is integrated with the display device 10, the latter directly receiving the sound data from the acquisition device 30 by a wire link or not, including a radio frequency link.
Dans la variante de la figure 4, le dispositif d'acquisition 30 ne se présente plus sous la forme d'une oreillette mais sous la forme d'un ou plusieurs microphones 31 qui ne sont pas portés par l'interlocuteur de la personne malentendante. Les microphones 31 sont par exemple des microphones sur pied, et peuvent être reliés au système de traitement 20 par une liaison filaire comme dans l'exemple illustré, ou en variante non filaire.In the variant of Figure 4, the acquisition device 30 is no longer in the form of an atrium but in the form of one or more microphones 31 that are not worn by the interlocutor of the hearing-impaired person. The microphones 31 are for example standing microphones, and can be connected to the processing system 20 by a wired connection as in the example shown, or alternatively non-wired.
Dans une variante non illustrée, le dispositif d'acquisition 30 est un microphone cravate pouvant être porté par l'interlocuteur de la personne malentendante. Dans une autre variante non illustrée, le dispositif d'acquisition 30 est un microphone pouvant être intégré dans le dispositif de la visualisation tête haute et dirigé vers rinterlocuteur.In a variant that is not illustrated, the acquisition device 30 is a tie microphone that can be worn by the interlocutor of the hearing-impaired person. In another variant not shown, the acquisition device 30 is a microphone that can be integrated into the device of the head-up display and directed to the speaker.
Lorsque le dispositif d'acquisition 30 comporte au moins un microphone porté par rinterlocuteur de la personne malentendante, ce qui est par exemple le cas de l'oreillette illustrée sur les figures 1 à 3 ou du microphone cravate de la variante précitée, la proximité du microphone avec la source sonore permet de réduire Tinfluence de l'environnement sonore ambiant dans le traitement ultérieur des données sonores et facilite la reconnaissance de la parole.When the acquisition device 30 comprises at least one microphone carried by the speaker of the hearing-impaired person, which is for example the case of the atrium illustrated in FIGS. 1 to 3 or the tie microphone of the aforementioned variant, the proximity of the microphone with the sound source reduces the influence of the environment ambient sound in the further processing of sound data and facilitates speech recognition.
Le système d'aide peut alors ne pas comporter de microphone additionnel.The help system may not have an additional microphone.
Dans une variante de mise en œuvre, le système d'aide comporte d'une part au moins un microphone directionnel pour capter au mieux les sons émis par l'interlocuteur de la personne malentendante ou un microphone placé à proximité de celui-ci, qui peut être directionnel ou non, comme c'est le cas d'un microphone intégré à une oreillette ou un microphone cravate et d'autre part au moins un microphone additionnel permettant de capter l'environnement sonore ambiant. Un tel microphone additionnel est avantageusement un microphone omnidirectionnel.In an implementation variant, the help system comprises on the one hand at least one directional microphone to best capture the sounds emitted by the interlocutor of the hearing-impaired person or a microphone placed close to it, which can be directional or not, as is the case of a microphone integrated in a headset or microphone tie and on the other hand at least one additional microphone to capture the ambient sound environment. Such an additional microphone is advantageously an omnidirectional microphone.
Le système d'aide peut fonctionner comme illustré sur la figure 5.The help system can function as shown in Figure 5.
L'acquisition des données sonores peut s'effectuer avec un ou plusieurs microphones comme mentionné ci-dessus. Dans le cas d'une acquisition à plusieurs microphones, un traitement différentiel des données peut être effectué afin de séparer les données provenant de la source sonore à analyser, à savoir l'interlocuteur de la personne malentendante, et les données correspondant à l'environnement sonore, non utiles pour la compréhension de la parole.The acquisition of the sound data can be done with one or more microphones as mentioned above. In the case of a multi-microphone acquisition, differential data processing may be performed to separate the data from the sound source to be analyzed, namely the hearing impaired person's interlocutor, and the data corresponding to the environment. sound, not useful for understanding speech.
Le traitement des données conduit à l'affichage dans le champ de vision de la personne malentendante d'une transcription phonétique 40 qui est adaptée à une appréhension rapide par la personne malentendante.The processing of the data leads to the display in the field of vision of the hearing-impaired person of a phonetic transcription 40 which is adapted to a rapid apprehension by the hearing-impaired person.
Le système de traitement 20 est de préférence suffisamment rapide pour permettre l'affichage d'une transcription phonétique d'un son prononcé par l'interlocuteur dans un délai inférieur à 100 ms. La quantité d'informations affichée peut être choisie de façon à être compatible avec l'affichage simultané et garantir l'appréhension de l'information affichée par la personne malentendante.The processing system 20 is preferably sufficiently fast to allow the display of a phonetic transcription of a sound uttered by the interlocutor within less than 100 ms. The amount of information displayed can be chosen to be compatible with the simultaneous display and to ensure the apprehension of the information displayed by the person with hearing loss.
Il peut ainsi être avantageux que l'information affichée soit limitée à une séquence de signes phonétiques pour chaque son prononcé, affichée son après son, sans décalage sensoriel avec le son.It can thus be advantageous for the displayed information to be limited to a sequence of phonetic signs for each sound pronounced, displayed sound after sound, without any sensory shift with the sound.
Il peut s'agir par exemple de signes divers comme des caractères représentant des phonèmes, des syllabes, des graphèmes, ou des images, par exemple des pictogrammes, et pour les indications de l'environnement sonore des courbes bi- ou tridimensionnelles.It can be for example various signs like characters representing phonemes, syllables, graphemes, or images, for example pictograms, and for the indications of the sound environment of two- or three-dimensional curves.
Des positions de doigts ou de mains du LPC telles qu'illustrées à la figure 7 peuvent également être représentées, seules ou en plus de l'affichage d'un autre signe phonétique, par exemple un phonème, comme illustré à la figure 8. L'enfant sourd, qui apprend le LPC, peut ainsi apprendre en même temps le Français, et aura moins de difficultés à passer le cap de la langue écrite.LPC finger or hand positions as illustrated in FIG. 7 may also be shown, alone or in addition to the display of another phonetic sign, for example a phoneme, as shown in FIG. Deaf child, who learns the LPC, can thus learn French at the same time, and will have fewer difficulties to pass the course of the written language.
En variante ou additionnellement, les données sonores peuvent être analysées de façon à permettre l'affichage par le dispositif de visualisation d'informations associées à des bruits autres que la parole, par exemple un bruit d'avertisseur sonore, d'alarme, un cri d'enfant, un bruit de circulation.Alternatively or additionally, the sound data may be analyzed so as to enable the display device to display information associated with noises other than speech, for example a buzzer sound, an alarm, a scream child, a traffic noise.
Chacun de ces bruits peut par exemple être détecté et provoquer l'affichage sur le dispositif de visualisation d'une image correspondante. A titre d'exemple, la figure 6 représente différentes images pouvant être affichées pour signaler la présence sonore d'un klaxon, d'un bruit de moteur d'un bus ou d'une voiture, d'un cri de bébé, d'un chant du coq ou d'un aboiement.Each of these noises can for example be detected and cause the display on the display device of a corresponding image. By way of example, FIG. 6 represents various images that can be displayed to signal the sound presence of a horn, of a motor noise of a bus or of a car, of a baby cry, of a rooster's song or a bark.
Le cas échéant, le système de traitement peut être agencé pour permettre une personnalisation des bruits reconnus, grâce à une phase d'apprentissage du système ou au téléchargement de données sélectionnées par l'utilisateur. Dans tous les exemples illustrés, la reconnaissance des sons ou des bruits peut s'effectuer par un procédé fondé sur la décomposition temporelle, fréquentielle et énergétique du signal, par exemple la transformée de Fourier puis une classification selon des modèles stochastiques en unités linguistiques prédéfinies, par exemple phonème ou mot. Lors du traitement, le signal électrique issu du microphone lorsque le locuteur parle est échantillonné afin de générer des données numériques.If necessary, the processing system can be arranged to allow customization of the recognized noises, through a learning phase of the system or downloading data selected by the user. In all the illustrated examples, the recognition of sounds or noises can be carried out by a process based on the temporal, frequency and energy decomposition of the signal, for example the Fourier transform, then a classification according to stochastic models in predefined linguistic units, for example phoneme or word. During processing, the electrical signal from the microphone when the speaker speaks is sampled to generate digital data.
Le système de traitement est agencé pour analyser et paramétrer ces données et effectuer un traitement mathématique de celles-ci.The processing system is arranged to analyze and parameterize these data and perform a mathematical treatment thereof.
Ce traitement peut comporter la description du signal acoustique de parole en termes d'unités linguistiques discrètes.This processing may include the description of the speech acoustic signal in terms of discrete linguistic units.
Les unités les plus utilisées peuvent être les phonèmes, les syllabes, les mots.. Un phonème est un élément sonore d'un langage donné, déterminé par les rapports qu'il entretient avec les autres sons de ce langage. Par exemple, le mot « cou » est formé des phonèmes « keu » et « ou ».The most used units can be phonemes, syllables, words. A phoneme is a sound element of a given language, determined by the relationships it has with other sounds of that language. For example, the word "neck" is composed of the phonemes "keu" and "or".
Le traitement effectué peut permettre de segmenter le signal en segments élémentaires et une fois la segmentation effectuée, l'identification des différents segments peut se faire en fonction de contraintes phonétiques et/ou linguistiques.The processing carried out can make it possible to segment the signal into elementary segments and once the segmentation has been performed, the identification of the different segments can be done according to phonetic and / or linguistic constraints.
Le signal, suite à ce traitement, dépend de trois paramètres : le temps, la fréquence et Tintensité, et peut être représenté sous la forme d'un spectrogramme.The signal, following this processing, depends on three parameters: time, frequency and intensity, and can be represented in the form of a spectrogram.
A titre d'exemple, la figure 9 est spectrogramme du mot computer. L'axe vertical représente des fréquences jusqu'à 8000 Hz, l'axe horizontal montre le temps positif vers la droite et les couleurs représentent Tintensité des crêtes acoustiques les plus importantes d'une tranche de temps donnée, le rouge représentant les énergies les plus élevées.By way of example, FIG. 9 is a spectrogram of the word computer. The vertical axis represents frequencies up to 8000 Hz, the horizontal axis shows the positive time to the right and the colors represent the intensity of the most important acoustic peaks of a given time slot, the red representing the highest energies high.
Une approche analytique, qui tire parti de la structure linguistique des mots, peut être utilisée afin de détecter et d'identifier les composantes élémentaires (phonèmes et syllabes). Cette approche a un caractère plus général pour reconnaître de grands vocabulaires, car il suffit d'enregistrer dans la mémoire du système de traitement les principales caractéristiques des unités de base. Les mots peuvent ne pas être mémorisés dans leur intégralité, mais traités en tant que suite de phonèmes. Le signal dû au locuteur est obtenu en soustrayant la densité spectrale du bruit de fond de la densité spectrale du signal détecté par le microphone. Le spectre du bruit de fond peut être approximé par la moyenne des spectres de bruit mesurés durant les silences séparant les énoncés. Lorsqu'un microphone multidirectionnel additionnel est présent, le spectre du bruit de fond peut être estimé grâce à ce microphone. L'invention n'est pas limitée aux exemples qui viennent d'être décrits.An analytic approach, which takes advantage of the linguistic structure of words, can be used to detect and identify elementary components (phonemes and syllables). This approach has a more general character to recognize large vocabularies because it is enough to record in the memory of the processing system the main characteristics of the basic units. Words may not be memorized in their entirety, but treated as a sequence of phonemes. The speaker signal is obtained by subtracting the spectral density of the background noise from the spectral density of the signal detected by the microphone. The background noise spectrum can be approximated by the average of the noise spectra measured during the silences separating the utterances. When an additional multidirectional microphone is present, the background noise spectrum can be estimated by this microphone. The invention is not limited to the examples which have just been described.
Le dispositif de visualisation 10 peut être de tout type adapté à une vision tête haute, n'étant pas limité à des lunettes.The display device 10 can be of any type suitable for head-up vision, not being limited to glasses.
Le dispositif de visualisation 10 peut notamment comporter un écran transparent placé dans le champ de vision de la personne malentendante, non porté par celui-ci, de façon à lui permettre d'observer à la fois les informations affichées sur cet écran et rinterlocuteur. Le dispositif de visualisation 10 peut aussi comporter un accessoire de table, par exemple du genre pendule moderne, avec affichage transparent à cristaux liquidesThe display device 10 may include in particular a transparent screen placed in the field of view of the hearing-impaired person, not worn by the latter, so as to enable him to observe both the information displayed on this screen and the interlocutor. The display device 10 may also include a table accessory, for example of the modern pendulum type, with a transparent liquid crystal display.
(LCD) ou à diodes à émission de lumière (LED), placée dans le champ de vision de la personne malentendante, non portée par celle-ci, de façon à lui permettre d'observer à la fois les informations affichées de manière synchrone et les mouvements de l'interlocuteur.(LCD) or light-emitting diode (LED), placed in the field of view of the hearing-impaired person, not worn by the person, so as to enable him / her to observe both the information displayed synchronously and the movements of the interlocutor.
Le dispositif de visualisation 10 peut encore comporter, par exemple, une vitre, sur laquelle les informations sont projetées, au moyen d'au moins un laser par exemple. Cette vitre peut être présente à un guichet ou à un pupitre. Il peut encore s'agir de la visière d'un casque. Le cas échéant, les informations affichées dans le champ de vision de la personne malentendante peuvent également être affichées sur un écran annexe, voire sur une autre paire de lunettes, afin de permettre par exemple à un rééducateur de contrôler les informations que visualise la personne malentendante.The display device 10 may also comprise, for example, a window, on which the information is projected, by means of at least one laser for example. This window can be present at a desk or a desk. It can still be the visor of a helmet. If necessary, the information displayed in the field of vision of the hearing-impaired person may also be displayed on a subsidiary screen, or even on another pair of glasses, in order, for example, to enable a re-educator to control the information visualized by the hearing-impaired person. .
L'expression « comportant un » doit être comprise comme étant synonyme de « comportant au moins un », sauf si le contraire est spécifié. The expression "having one" shall be understood as being synonymous with "having at least one", unless the opposite is specified.

Claims

REVENDICATIONS
1. Système (1) d'aide pour personne malentendante, comportant : - un dispositif (30) d'acquisition des sons émis par un interlocuteur de la personne,1. A hearing aid system (1), comprising: a device (30) for acquiring sounds transmitted by a person's interlocutor,
- un dispositif ( 10) de visualisation tête haute,a head-up display device (10),
- un système de traitement (20) pour analyser en temps réel des données sonores transmises par le dispositif d'acquisition et transmettre au dispositif de visualisation une transcription phonétique au moins partielle de ces données sonores en phonèmes, à afficher dans le champ de vision de la personne, de façon à lui permettre d'observer à la fois le mouvement des lèvres et/ou les gestes de l'interlocuteur et la transcription phonétique.a processing system (20) for analyzing, in real time, sound data transmitted by the acquisition device and transmitting to the display device an at least partial phonetic transcription of these sound data in phonemes, to be displayed in the field of view of the person, so as to enable him to observe both the movement of the lips and / or the gestures of the interlocutor and the phonetic transcription.
2. Système d'aide pour personne malentendante, comportant :2. Hearing aid system, comprising:
- un dispositif d'acquisition de bruits émis dans renvironnement sonore de la personne malentendante,a device for acquiring noise emitted in the sound environment of the hearing-impaired person,
- un dispositif de visualisation tête haute,a head-up display device,
- un système de traitement pour analyser en temps réel des données sonores transmises par le dispositif d'acquisition, agencé pour reconnaître des bruits autres que la parole, et transmettre au dispositif de visualisation une transcription visuelle au moins partielle de ces bruits pour leur affichage dans le champ de vision de la personne malentendante.a processing system for analyzing, in real time, sound data transmitted by the acquisition device, arranged to recognize noises other than speech, and to transmit to the display device at least partial visual transcription of these noises for their display in the field of vision of the person with hearing loss.
3. Système selon la revendication 1 ou 2, le dispositif d'acquisition des sons comportant :3. System according to claim 1 or 2, the sound acquisition device comprising:
- au moins un microphone agencé pour être porté par l'interlocuteur, ou - au moins un microphone directionnel dirigé vers l'interlocuteur et préférentiellement intégré dans le dispositif de visualisation tête haute.at least one microphone arranged to be carried by the interlocutor, or at least one directional microphone directed towards the interlocutor and preferably integrated in the head-up display device.
4. Système selon la revendication 2, les bruits étant choisis parmi Tun des bruits suivants : klaxon, alarme, bruit de circulation, cris cTenfant(s).4. System according to claim 2, the noises being selected among Tun noises: horn, alarm, traffic noise, cries child (s).
5. Système selon la revendication 3, le dispositif d'acquisition comportant un microphone intégré à une oreillette ou un microphone cravate.5. System according to claim 3, the acquisition device comprising a microphone integrated in a headset or microphone tie.
6. Système d'aide selon la revendication 2, le système de traitement étant agencé pour reconnaître des unités phonétiques. 6. A help system according to claim 2, the processing system being arranged to recognize phonetic units.
7. Système d'aide selon la revendication 1, le système de traitement étant agencé pour reconnaître des bruits prédéfinis.7. A help system according to claim 1, the processing system being arranged to recognize predefined noises.
8. Système d'aide selon Tune quelconque des revendications précédentes, le système de traitement étant agencé pour décomposer les données sonores en unités paramétrées et sélectionner des phonèmes par modélisation stochastique.8. A help system according to any one of the preceding claims, the processing system being arranged to decompose the sound data into parameterized units and select phonemes by stochastic modeling.
9. Système d'aide selon Tune quelconque des revendications précédentes, le dispositif de visualisation étant agencé pour recevoir des données à afficher par une liaison sans fil.9. A help system as claimed in any one of the preceding claims, the display device being arranged to receive data to be displayed over a wireless link.
10. Système d'aide selon Tune quelconque des revendications précédentes, le dispositif de visualisation comportant des lunettes.10. A help system as claimed in any one of the preceding claims, the display device comprising spectacles.
11. Système d'aide selon la revendication 3, comportant au moins un microphone directionnel et au moins un microphone omnidirectionnel, le système de traitement étant agencé pour éliminer le bruit ambiant non utile à la compréhension de la parole par un traitement différentiel de signaux reçus des microphones omnidirectionnel et directionnel.11. Assistance system according to claim 3, comprising at least one directional microphone and at least one omnidirectional microphone, the processing system being arranged to eliminate ambient noise not useful for understanding speech by a differential treatment of received signals. omnidirectional and directional microphones.
12. Système selon la revendication 1, étant agencé pour transmettre au dispositif de visualisation une transcription phonétique complète des données sonores en phonèmes.12. System according to claim 1, being arranged to transmit to the display device a complete phonetic transcription of sound data in phonemes.
13. Système selon Tune quelconque des revendications précédentes, l'affichage dans le champ de vision de la personne des bruits et/ou des sons étant effectué avec un retard inférieur à 100 ms.13. System according to any one of the preceding claims, the display in the person's field of vision of noises and / or sounds being made with a delay of less than 100 ms.
14. Système selon la revendication 2, la transcription ne comportant aucun caractère alphanumérique.14. System according to claim 2, the transcription having no alphanumeric character.
15. Système selon la revendication 1, la transcription phonétique comportant la représentation de gestes de mains.15. System according to claim 1, the phonetic transcription comprising the representation of gestures of hands.
16. Procédé d'affichage d'une transcription phonétique de mots prononcés par rinterlocuteur d'une personne malentendante, comportant les étapes consistant à :16. A method of displaying a phonetic transcription of words uttered by the speaker of a hearing-impaired person, comprising the steps of:
- capter, notamment au moyen d'au moins un microphone porté par rinterlocuteur ou directionnel et dirigé vers celui-ci, les mots prononcés par rinterlocuteur, - analyser en temps réel ces mots pour reconnaître des unités phonétiques et générer une transcription phonétique en phonèmes au moins partielle de ces mots, - afficher dans le champ de vision de la personne, grâce à un dispositif de visualisation tête haute, la transcription phonétique de façon à lui permettre de voir simultanément à la fois le mouvement des lèvres de Tinterlocuteur et/ou ses gestes et la transcription phonétique. capturing, in particular by means of at least one microphone carried by the speaker or directional and directed towards it, the words uttered by the speaker, analyzing in real time these words to recognize phonetic units and generating a phonetic transcription in phonemes at the less partial of these words, display in the person's field of vision, using a head-up display device, the phonetic transcription so as to enable him simultaneously to see both the movement of the lips of the speaker and / or his gestures and the phonetic transcription.
17. Procédé d'affichage d'une transcription visuelle de bruits présents dans renvironnement sonore d'une personne malentendante, notamment des bruits de machines ou d'appareils ou des cris d'enfants ou d'animaux, comportant les étapes consistant à :17. A method of displaying a visual transcription of sounds present in the sound environment of a hearing-impaired person, including machine or apparatus noises or cries from children or animals, comprising the steps of:
- capter les bruits,- pick up the noises,
- analyser en temps réel ces bruits et générer une transcription visuelle au moins partielle de ces bruits lorsque reconnus,analyze in real time these noises and generate a visual transcription at least partial of these noises when recognized,
- afficher dans le champ de vision de la personne, grâce à un dispositif de visualisation tête haute, la transcription visuelle. - display in the field of vision of the person, through a head-up display device, the visual transcription.
PCT/FR2007/051031 2006-03-28 2007-03-28 System for hearing-impaired people WO2007110551A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP07731837A EP1998729A1 (en) 2006-03-28 2007-03-28 System for hearing-impaired people

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0602674A FR2899097B1 (en) 2006-03-28 2006-03-28 HELP SYSTEM FOR A PASSING PERSON
FR0602674 2006-03-28

Publications (1)

Publication Number Publication Date
WO2007110551A1 true WO2007110551A1 (en) 2007-10-04

Family

ID=36778213

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2007/051031 WO2007110551A1 (en) 2006-03-28 2007-03-28 System for hearing-impaired people

Country Status (3)

Country Link
EP (1) EP1998729A1 (en)
FR (1) FR2899097B1 (en)
WO (1) WO2007110551A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012113646A1 (en) 2011-02-22 2012-08-30 Siemens Medical Instruments Pte. Ltd. Hearing system
CN105073073A (en) * 2013-01-25 2015-11-18 胡海 Devices and methods for the visualization and localization of sound

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU198673U1 (en) * 2020-03-27 2020-07-21 Общество с ограниченной ответственностью "Сенсор-Тех" PORTABLE SPEECH AND SOUND RECOGNITION
IT202100026897A1 (en) * 2021-10-19 2023-04-19 Searcode S R L Startup Costituita A Norma Dellart 4 Comma 10 B Bis Del Decreto 24 Gennaio 2015 N 3 WEARABLE COMMUNICATION DEVICE FOR PEOPLE WITH HEARING IMPAIRMENT

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972486A (en) * 1980-10-17 1990-11-20 Research Triangle Institute Method and apparatus for automatic cuing
US5671037A (en) * 1994-09-19 1997-09-23 Olympus Optical Co., Ltd. Head mounted image display having at least four supporting points
WO2001006298A1 (en) * 1999-07-20 2001-01-25 Smartspecs, Llc. Integrated method and system for communication
US6349001B1 (en) * 1997-10-30 2002-02-19 The Microoptical Corporation Eyeglass interface system
US6384982B1 (en) * 1996-10-08 2002-05-07 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
US20020103649A1 (en) * 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
DE20103525U1 (en) * 2001-02-28 2003-03-13 Eckert Eberhard Spectacles or similar structure or attachment therefor for integral hearing aid
US20050248717A1 (en) * 2003-10-09 2005-11-10 Howell Thomas A Eyeglasses with hearing enhanced and other audio signal-generating capabilities

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972486A (en) * 1980-10-17 1990-11-20 Research Triangle Institute Method and apparatus for automatic cuing
US5671037A (en) * 1994-09-19 1997-09-23 Olympus Optical Co., Ltd. Head mounted image display having at least four supporting points
US6384982B1 (en) * 1996-10-08 2002-05-07 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
US6349001B1 (en) * 1997-10-30 2002-02-19 The Microoptical Corporation Eyeglass interface system
WO2001006298A1 (en) * 1999-07-20 2001-01-25 Smartspecs, Llc. Integrated method and system for communication
US20020103649A1 (en) * 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
DE20103525U1 (en) * 2001-02-28 2003-03-13 Eckert Eberhard Spectacles or similar structure or attachment therefor for integral hearing aid
US20050248717A1 (en) * 2003-10-09 2005-11-10 Howell Thomas A Eyeglasses with hearing enhanced and other audio signal-generating capabilities

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012113646A1 (en) 2011-02-22 2012-08-30 Siemens Medical Instruments Pte. Ltd. Hearing system
CN105073073A (en) * 2013-01-25 2015-11-18 胡海 Devices and methods for the visualization and localization of sound

Also Published As

Publication number Publication date
FR2899097A1 (en) 2007-10-05
FR2899097B1 (en) 2009-02-13
EP1998729A1 (en) 2008-12-10

Similar Documents

Publication Publication Date Title
Gabbay et al. Visual speech enhancement
US7676372B1 (en) Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
CA2602633C (en) Device for communication for persons with speech and/or hearing handicap
Eskimez et al. Generating talking face landmarks from speech
WO2004049312A1 (en) Method and apparatus for providing an animated display with translated speech
Arsan et al. Sign language converter
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
CN111601215A (en) Scene-based key information reminding method, system and device
WO2007110551A1 (en) System for hearing-impaired people
Priya et al. Indian and english language to sign language translator-an automated portable two way communicator for bridging normal and deprived ones
Salvi et al. Smart glass using IoT and machine learning technologies to aid the blind, dumb and deaf
US20230260534A1 (en) Smart glass interface for impaired users or users with disabilities
CN115482583A (en) Vehicle-mounted sign language translation method
Delić et al. How speech technologies can help people with disabilities
WO2007007228A2 (en) Method for communication and communication device
Minami et al. The world of mushrooms: human-computer interaction prototype systems for ambient intelligence
US20240079012A1 (en) Providing private answers to non-vocal questions
EP4350690A1 (en) Artificial intelligence device and operating method thereof
US20240071364A1 (en) Facilitating silent conversation
US20240127817A1 (en) Earbud with facial micromovement detection capabilities
US20240127824A1 (en) Identifying silent speech using recorded speech
US20240119930A1 (en) Artificial intelligence device and operating method thereof
US20240119937A1 (en) Personal presentation of prevocalization to improve articulation
US20240119938A1 (en) Using a wearable to interpret facial skin micromovements
Taylor See to hear—deaf sign language as performance

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07731837

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007731837

Country of ref document: EP