DE3216800C2 - - Google Patents

Info

Publication number
DE3216800C2
DE3216800C2 DE3216800A DE3216800A DE3216800C2 DE 3216800 C2 DE3216800 C2 DE 3216800C2 DE 3216800 A DE3216800 A DE 3216800A DE 3216800 A DE3216800 A DE 3216800A DE 3216800 C2 DE3216800 C2 DE 3216800C2
Authority
DE
Germany
Prior art keywords
word
spoken
references
cdd
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
DE3216800A
Other languages
English (en)
Other versions
DE3216800A1 (de
Inventor
Jean-Jacques Malvilliers Ch Monbaron
Ngoc Chau Neuchatel Ch Bui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asulab AG
Original Assignee
Asulab AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asulab AG filed Critical Asulab AG
Publication of DE3216800A1 publication Critical patent/DE3216800A1/de
Application granted granted Critical
Publication of DE3216800C2 publication Critical patent/DE3216800C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Description

Die Erfindung betrifft eine Worteingabeanordnung für sprachgesteuerte Geräte mit den im Oberbegriff des Patentanspruchs 1 genannten Merkmalen. Eine solche Anordnung ist aus der DE-OS 23 47 738 bekannt.
Es sind durch Sprache steuerbare Geräte bekannt, die jeweils als Referenz ein Vokabular an Worten abgespeichert haben. Probleme existieren dahin gehend, daß je nach Art des Sprechers bzw. der Umgebung das gesprochene Wort sich von dem gleichen als Referenz abgespeicherten Wort sprachlich unterscheidet. Die Phase, während der in den Speicher die Referenzen eingegeben werden, bezeichnet man als "Lernvorgang". Zwei Grundtypen des Lernvorgangs sind im allgemeinen bekannt. Bei dem ersten Typ, den man als vorprogrammierten Lernvorgang bezeichnet, werden die Referenzen ursprünglich ab Werk durch einen standardisierten Leser eingegeben. Der zweite Typ des Lernvorgangs wird als Anfangslernvorgang bezeichnet. Das Gerät enthält hier ab Werk keinerlei abgespeicherte Informationen betreffend die Worte des Vokabulars des Gerätes. Der Lernvorgang der Anordnung erfolgt zu Beginn durch den Benutzer selbst. Zusätzlich läßt sich noch eine Nachlernphase durchführen, indem das gerade gesprochene Wort als neuer Prototyp abgespeichert wird. So beschreibt die Veröffentlichung "Maschinen verstehen gesprochene Sprache" in UMSCHAU 1979, S. 566, den Funktionsablauf eines typischen Einzelworterkennungssystems, bei dem zunächst mindestens ein Prototyp pro Wort abgespeichert wird, aber bei späteren Anwendungen bei Bedarf nachgelernt werden kann, wenn das System laufend an die Sprechgewohnheiten des Sprechers angepaßt werden soll. Der Veröffentlichung ist jedoch nicht zu entnehmen, wie das ständige Nachlernen schaltungstechnisch erreicht werden kann.
Aufgabe der vorliegenden Erfindung ist es daher, eine Worteingabeanordnung nach dem Oberbegriff des Anspruchs 1 zu schaffen, die ein ständiges Nachlernen in Abhängigkeit von den Sprechgewohnheiten des Sprechers erlaubt und dabei eine gute Qualität der Identifikation zwischen dem ausgesprochenen Wort und dem abgespeicherten Vokabular ermöglicht.
Diese Aufgabe wird entsprechend dem kennzeichnenden Teil des Patentanspruchs 1 gelöst.
Aus der DE-OS 23 47 738 sind ein Verfahren und eine Vorrichtung zum Empfang gesprochener Eingabe-Übungswörter bekannt, wobei während des Lehr- und Übungsbetriebszustandes neue Worte nach Art eines Lehr- oder Übungsvorgangs eingegeben werden, welche vorzugsweise von der Person gesprochen werden, welche später die Maschine während ihres Befehlszustandes verwendet. Es handelt sich somit um eine Vorrichtung, bei der der Lernvorgang zu Beginn durch den Benutzer selbst erfolgt. Über eine spezielle Ausgestaltung der Vorrichtung zur Durchführung eines Nachlernvorgangs nach der Abspeicherung von Prototypen als Referenzen ist dieser Druckschrift nichts zu entnehmen.
Die US 38 12 291 betrifft eine Vorrichtung zum Kodieren und Klassifizieren von aus einer Vielzahl von Filtern erhaltenen Daten. Über die Ermöglichung eines permanenten Lernvorganges während der Benutzungsphase ist dieser Druckschrift nichts zu entnehmen. Die Veröffentlichungen IBM Technical Disclosure Bulletin, Vol. 13, 1970, No. 7, S. 1944, 1945, bzw. IEEE, Transactions on Audio and Electroacoustics, Vol. AU-18, 1970, N° 1, Seiten 26 bis 31, behandeln Spracherkennungsgeräte, die ebenfalls für einen permanenten Lernvorgang ungeeignet sind. Das Problem der Anpassung an die Sprechgewohnheiten eines Benutzers wird hier durch eine möglichst genaue Nachweiselektronik unter Verwendung von Fehlersystemen überwunden, ohne das gerade gesprochene Wort als neuen Prototyp abzuspeichern.
Ausführungsbeispiele des Gegenstandes der Erfindung werden nachstehend unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
Fig. 1 ist eine vereinfachte Darstellung der Anordnung gemäß der Erfindung.
Fig. 2 ist ein Diagramm zur Erläuterung der Funktionsweise dieser vereinfachten Ausführungsform der Anordnung.
Die Fig. 2a bzw. 2b sind Tabellen zur Illustration von zwei möglichen Lernvorgängen.
Fig. 3 ist ein vollständiger Algorithmus in vereinfachter Form zur Erläuterung der Funktionsweise der Anordnung der Erfindung.
Fig. 4 ist ein detailliertes Organigramm der vollständigen Funktion des Steuerschaltkreises der Anordnung gemäß der Erfindung.
Fig. 5a und 5b sind Diagramme zur Erläuterung der Kodierung eines Wortes und des Vergleichs zwischen einem Wort und einer gespeicherten Referenz und
Fig. 6 zeigt das Organigramm eines Unterprogramms für die Funktion, die vollständig in Fig. 4 dargestellt ist.
Fig. 1 zeigt in vereinfachter Form die Fortführung einer Worteingabeanordnung gemäß der Erfindung. Diese Anordnung umfaßt einen Wandler 2, welcher die akustischen Informationen in ein elektrisches Signal umsetzt und bei dem es sich vorzugsweise um ein Mikrofon handelt. Das von diesem Mikrofon 2 abgegebene elektrische Signal wird mittels eines Schaltkreises 4 kodiert, der an seinen Ausgang numerische Informationen, vorzugsweise in Binärform liefert. Die Kodierung eines elektrischen Signals, das repräsentativ ist für Sprache in binären, numerischen Informationen ist ein bekanntes Problem. Es gibt zahlreiche Kodierverfahren und Anordnungen, um diese Verfahren durchzuführen. Die vorliegende Erfindung ist anwendbar, unabhängig von dem Verfahren und der Anordnung für die Kodierung, welche eingesetzt werden. Es versteht sich, daß die Information, welche man in die Anordnung eingeben will und die ursprünglich abgespeicherten und kodierten Informationen, d. h. die Referenzen mittels des gleichen Prozesses kodiert werden. Die Anordnung umfaßt ferner einen Steuerschaltkreis 6. Dieser Steuerschaltkreis wird später erläutert. Die Worteingabeanordnung umfaßt ferner Speichereinrichtungen 8, in denen ursprünglich die Referenzen abgespeichert worden sind, vorzugsweise in Binärform, entsprechend der Kodierung von n Worten, welche das für die Steuerung des der Worteingabeanordnung zugeordneten Gerätes notwendige Vokabular bilden.
Die Anordnung umfaßt schließlich eine Anzeigeeinrichtung (Anzeigeanordnung) oder Sichtanzeige 10, welche es ermöglicht, eines von den n Worten des Vokabulars in Erscheinung treten zu lassen. Diese Anzeigeanordnung kann einerseits von einer Flüssigkristallzelle gebildet die numerische Informationen anzuzeigen gestattet und andererseits von auf einen Sichtschirm gedruckten Informationen, denen Leuchtpunkte für die Anzeige zugeordnet werden. Wenn man mit anderen Worten also die Anzeige eines Wortes in Betracht zieht, kann es sich tatsächlich um die Anzeige einer Zahl handeln oder auch um die Ansteuerung eines Leuchtpunktes, der gegenüber einer geschriebenen Angabe auf dem Sichtschirm des Gerätes vorgesehen ist. Diese geschriebenen Angaben können beispielsweise symbolische Darstellungen der verschiedenen Funktionen zeigen, welche von dem Gerät zu erfüllen sind. Es ist klar, daß der Begriff "Anzeigeanordnung" im allgemeinsten Sinne verstanden werden muß. Im Rahmen der Dateneingabeanordnung muß diese Anzeigeanordnung 10 dem Benutzer des Gerätes, symbolisiert mit Bezugszeichen 12, ermöglichen, eine Wiedergabe desjenigen Wortes zu erhalten, das tatsächlich von der Dateneingabeanordnung wiedererkannt worden ist. Es könnte sich dabei um irgendeinen Sichtschirm handeln, auf dem das eingegebene Wort tatsächlich ausgeschrieben wird. Es könnte sich aber auch um ein Druckwerk handeln, mittels dem der Benutzer die tatsächlich angezeigte Information kontrollieren kann.
Die Anordnung 10 könnte schließlich sogar eine akustische Anordnung sein, die in der Lage ist, ebenso viele akustische Signale abzugeben, wie Worte vorgesehen sind. Diese Anordnung könnte ein Sprachsynthesegerät sein, welches das von der Worteingabeanordnung wiedererkannte Wort "ausspricht". Es kann sich auch um einen akustischen Sender handeln, der ebenso viele Geräusche abgibt wie unterschiedliche Worte vorliegen. Mit anderen Worten hat die Anordnung 10 einfach die Aufgabe, das erkannte Wort zu restituieren, um ein interaktives Kontrollelement für den Benutzer 12 der in die Anordnung eingegebenen Information bilden. Man kann auch sagen, daß die Anordnung 10 ein Wiedergabeelement des erkannten Wortes in visueller oder akustischer Form ist. In diesem Sinn also sind die Ausdrücke "Anzeigeanordnung" bzw. "Wiedergabeanordnung" zu verstehen.
Es ist auch festzuhalten, daß diese Anzeigeanordnung einfach die Aufgabe hat, eine eindeutige Beziehung zwischen dem erkannten Wort und dem wiedergegebenen Wort aufzubauen. Wenn beispielsweise die "Worte" in einer Erstsprache auf der Anzeigeeinrichtung mit einem Leuchtpunkt für jedes Wort ausgedruckt sind, um das erkannte Wort zu identifizieren, ist es ohne weiteres möglich, mittels der Anordnung gemäß der Erfindung, entsprechende Worte in einer zweiten Sprache einzugeben. Für die Kontrolle selbstverständlich muß der Benutzer selbst die Korrespondenz zwischen den gedruckten Worten in der ersten Sprache und den in der zweiten Sprache eingegebenen Worten herstellen.
Die Speichereinrichtung 8 kann verlegt werden in einen Festwertspeicher 8 a, in dem die kodierten Referenzen abgelegt sind, welche die Worte des ab Werk gespeicherten Vokabulars repräsentieren, ferner einen Randomspeicher 8 b, in den man Referenzen eingeben kann, relativ zu den Worten des Vokabulars, einen Speicher 8 c zum Speichern des Wortes, das gerade ausgesprochen worden ist und das von dem Schaltkreis 4 kodiert worden ist und einen Speicher 8 d zum Speichern des zuvor gesprochenen Wortes. Es versteht sich, daß die Speicher 8 c und 8 d in der Realisierung Speicherplätze des jeweiligen als Randomspeicher verwendeten Speichers 8 b sind.
Der Steuerschaltkreis 6 umfaßt zunächst einen Klassierschaltkreis 14 für n im Speicher 8 b enthaltene Referenzen in Abhängigkeit von deren Ähnlichkeit mit dem vom Benutzer 12 in das Mikrofon gesprochene Wort, kodiert vom Schaltkreis 4 und enthalten im Speicher 8 c. Diese Klassierung resultiert aus der Anwendung eines Algorithmus, der es ermöglicht, die Distanz zwischen der kodierten, dem ausgesprochenen Wort zugeordneten Information und den kodierten, abgespeicherten Referenzen in dem Speicher 8 entsprechend n Worten des Vokabulars zu messen. Eine große Anzahl von Algorithmen könnte ins Auge gefaßt werden. Einer dieser Algorithmen wird später als Beispiel erläutert. Der Steuerschaltkreis 6 umfaßt ferner eine Detektoreinrichtung 16 zum Erfassen einer eventuellen Wiederholung zwischen zwei aufeinanderfolgend von dem Benutzer 12 gesprochenen Worten. Der Detektorschaltkreis 16 liefert zwei Signale, je nachdem, ob eine Wiederholung erfaßt worden ist oder nicht. Die Erfassung einer Wiederholung besteht in der Anwendung eines zweiten Vergleichsalgorithmus der beiden aufeinanderfolgenden ausgesprochenen Worte. Zahlreiche Algorithmen können verwendet werden und ein möglicher Algorithmus wird später erläutert. Dieser Schaltkreis wird gleich dem gemäß die Information enthaltenen Speicher 8 c mit der Information enthalten im Speicher 8 d, falls eine solche vorliegt. Der Steuerschaltkreis 6 umfaßt ferner einen Anzeigesteuerkreis 18 für die Anzeige 10. Der Schaltkreis 18, der mit dem Speicher 8 b verbunden ist, erlaubt die Anzeige desjenigen der n im Speicher 8 abgespeicherten Worte auf der Anzeigeeinrichtung 10, das den ersten Ähnlichkeitsrang mit dem gesprochenen Wort einnimmt, falls keine Wiederholung vom Schaltkreis 16 erfaßt worden ist und dem Wort, das den Rang der Wiederholung präsentiert, der unmittelbar dem vorher angezeigten Wort folgt, falls eine Wiederholung vom Schaltkreis 16 erfaßt worden ist. Schließlich umfaßt der Steuerschaltkreis 6 eine Anordnung 20 zur Modifizierung der in den Speichern 8 b und 8 a enthaltenen Referenzen. Dieser Schaltkreis 20 ersetzt für eine gegebene Speicherposition die in diesem Speicher enthaltene Information, zugeordnet dem wiederholten Wort und demgemäß angezeigt auf der Anordnung 10 durch die kodierte Information entsprechend dem vom Benutzer 12 gesprochenen Wort, enthalten im Speicher 8 d. Diese Substitution wird durch den Benutzer 12 gesteuert durch Mittel, die mit dem Bezugszeichen 21 symbolisiert sind (Steuereinrichtung 21). Diese Mittel können z. B. von einem Druckknopf gebildet werden. Wie später noch zu erläutern, können diese Mittel auch aus einem Zeitgeber bestehen. Wenn eine bestimmte Verzögerungszeit nach Aussprechen eines Wortes abläuft, ohne daß erneut ein Wort ausgesprochen wird, interpretiert der Steuerschaltkreis 6 diese Stille als Einverständnis des Benutzers mit dem Wort, das angezeigt worden ist. Man versteht, daß in diesem Falle für dieses bestimmte Wort ein Lernvorgang stattgefunden hat, sofern eine diesem Wort zugeordnete Modifikation der gespeicherten Information stattfand.
Fig. 2 zeigt die Funktion der in Fig. 1 dargestellten Anordnung. Zu Beginn eines Zyklus werden die im Festwertspeicher 8 a enthaltenen Informationen in den Randomspeicher 8 b transferiert. Das vom Sprecher gesagte Wort, symbolisiert durch Bezugszeichen 4′, das in den Speicher 8 c eingegeben worden ist, wird verarbeitet, um eine Klassierung der Reihenfolge der Ähnlichkeiten für die im Speicher 8 b enthaltenen Referenzen aufzubauen. Dieser Schritt ist mit 14′ bezeichnet. In der nachfolgenden Erläuterung werden mit "Kandidaten" die verschiedenen, klassierten Referenzen bezüglich n gespeicherten Worten bezeichnet, wobei der erste Kandidat die Referenz ist, die dem gesprochenen Wort am ähnlichsten ist, der zweite Kandidat die Referenz ist, die in der Reihenfolge der Ähnlichkeiten unmittelbar nachfolgt, usw. Man erfaßt dann bei 16′, ob das gerade ausgesprochene Wort eine Wiederholung des zuvor gesprochenen Wortes darstellt, indem man einen Vergleich zwischen der im Speicher 8 c enthaltenen Information und jener durchführt, die im Speicher 8 d vorliegt, falls es dort eine gibt. Wenn es sich nicht um eine Wiederholung handelt, wird angenommen, daß das erkannte Wort der erste Kandidat im obigen Sinne ist. Diese Operation ist mit 22′ bezeichnet. Wenn aber eine Wiederholung erfolgt war, wird das erkannte Wort identifiziert mit dem Kandidaten, der dem Kandidaten folgt, der in Verbindung mit dem zuvor ausgesprochenen Wort angezeigt worden war. Diese Operation ist mit 24′ bezeichnet. Unabhängig von der vorhergehenden Operation wird das erkannte Wort im Schritt 18′ angezeigt, d. h. das System reagiert immer auf die Eingabe eines Wortes. Mit anderen Worten wird selbst dann, wenn das ausgesprochene Wort sehr stark abweicht von der Gesamtheit der abgespeicherten Referenzen die Anzeigeanordnung irgendein Wort anzeigen, dasjenige nämlich, dessen Referenz dem gesprochenen Wort am ähnlichsten zu sein scheint. Es gibt keine Zurückweisungsschwelle bei der Definition der Kandidaten. Wenn das erkannte Wort übereinstimmt mit dem tatsächlich ausgesprochenen Wort, was festgelegt wird durch den Robus 12′, welcher tatsächlich den Benutzer 12 symbolisiert und wenn, darüber hinaus, keine Wiederholung stattgefunden hatte (was im Schritt 12′′ erfaßt wird) ist der Betriebszyklus beendet (Rechteck 24′). Wenn das angezeigte Wort zutreffend ist, aber eine Wiederholung bei 16′′ erfaßt worden war, substituiert man bei 20′ die Information bezüglich des erkannten Wortes durch die Information bezüglich des tatsächlich ausgesprochenen Wortes, wenn der Benutzer dies befiehlt mittels 21 und der Zyklus ist ebenfalls beendet. Wenn jedoch bei 12′ festgestellt wurde, daß das erkannte, angezeigte Wort nicht das gesprochene Wort ist, wiederholt der Benutzer 12 dasselbe Wort, was durch Rechteck 26′ symbolisiert wird. Das wiederholte Wort wird wieder in die Schleife eingegeben und ersetzt dabei das gesprochene Wort 4′.
Es ergibt sich demgemäß deutlich, daß in einem ersten Fall das erste Mal, bei dem ein Wort gesprochen wird, dieses selbe Wort auf der Anzeigeanordnung 10 erscheint. In diesem Fall erfolgt kein Lernvorgang und der Befehl entsprechend diesem Wort kann direkt dem Gerät übermittelt werden, dem die Eingabeanordnung zugeordnet ist. Anders gesagt bedeutet dies, daß die Aussprache dieses Wortes durch den Standardsprecher oder Leser und die Aussprache desselben Wortes durch den Benutzer sehr ähnlich sind.
Im zweiten Fall ist das erste Mal, daß ein Wort ausgesprochen wird, das angezeigte Wort abweichend von diesem. Der Sprecher 12 wiederholt dieses Wort. Bei der Wiederholung wird bei 16′ diese Wiederholung festgestellt und das angezeigte Wort wird dann der zweite Kandidat in der Reihenfolge der Ähnlichkeit sein. Wenn dieser zweite Kandidat tatsächlich das gesprochene Wort ist, ersetzt die Anordnung bei 20′ im Speicher 8 b eine Information entsprechend dem tatsächlich ausgesprochenen Wort für die ursprünglich in diesem Speicher enthaltene Referenz. Wenn bei dieser ersten Wiederholung das angezeigte Wort abweicht von dem gesprochenen Wort, wiederholt der Sprecher 12 das Wort ein zweites Mal, was zur Anzeige des dritten Kandidaten in der Reihenfolge der Ähnlichkeiten führt. Der Vorgang wird wiederholt, bis das angezeigte Wort, d h. das erkannte Wort, identisch wird mit dem gesprochenen Wort, in welchem Falle eine Substitution in dem Speicher der kodierten Information entsprechend dem gesprochenen Wort bezüglich des ursprünglichen Referenzinhalts erfolgt. Es ergibt sich demgemäß, daß die Funktion des Lernvorgangs nur dann eingreift, wo dies erforderlich ist und darüber hinaus liegt eine Optimierung des Lernvorgangs vor, d. h. eine Minimierung der Anzahl von Wiederholungen, die erforderlich sind wegen der Klassierung der Kandidaten entsprechend ihrem Ähnlichkeitsrang.
Die Tabelle 2a zeigt einen ersten Lernvorgang. In dem betrachteten Beispiel umfaßt das Vokabular mindestens die Worte "ON", "OFF", "UP", "DOWN" und "FAST". Der Benutzer spricht ein erstes Mal das Wort "ON". Das erste angezeigte Wort ist "OFF". Dieser Unterschied beruht auf der Tatsache, daß die erstmalige Eingabe der Referenzen durch einen anderen Sprecher erfolgte. Der Benutzer wiederholt das Wort "ON" und der zweite Kandidat in der Reihenfolge der Ähnlichkeiten mit dem Wort "ON" ist jetzt "UP", das demgemäß durch die Anzeigeeinrichtung 10 angezeigt wird. Der Benutzer wiederholt ein zweites Mal das Wort "ON" und die Anzeigeeinrichtung zeigt tatsächlich das Wort "ON" an. Demgemäß ersetzt der Schaltkreis 20 das kodierte Wort "ON", wie es durch den Benutzer ausgesprochen worden ist für die ursprünglich entsprechend dem Wort "ON" eingegebene Referenz.
Die Tabelle gemäß Fig. 2b entspricht einem zweiten Lernvorgang. Der Sprecher spricht ein erstes Mal das Wort "ON" aus. Die Anzeigeanordnung zeigt "OFF" an. Der Sprecher muß demgemäß das Wort "ON" wiederholen. Unabsichtlich jedoch sagt er "DOWN". Der Schaltkreis 16 erfaßt, daß keine Wiederholung vorliegt und der Schaltkreis 14 definiert demgemäß eine neue Reihenfolge der Kandidaten. Der erste Kandidat ist das Wort "UP", das demgemäß angezeigt wird. Der Sprecher stellt fest, daß ein Irrtum erfolgt ist und wiederholt "DOWN", und in dem betrachteten Beispiel ist "DOWN" der zweite Kandidat. Dies wird demgemäß durch die Anzeigeeinrichtung10 angezeigt und der Schaltkreis 20 substituiert in dem Speicher 8 b, 8 a die Kodierung des Wortes "DOWN" so, wie es von dem Sprecher gesagt worden ist für die Referenz "DOWN", welche ursprünglich gespeichert worden war.
Fig. 3 zeigt in größeren Einzelheiten die Funktionsweise einer verbesserten Ausführungsform der Worteingabeanordnung gemäß der Erfindung. Bei dieser Ausführungsform berücksichtigt die Anordnungsprozedur Fehler, die der Sprecher bei der ursprünglichen Phase machen kann, d. h., wenn er sich das erste Mal der Anordnung bedient. Aus der vorangehenden Erläuterung kann man nämlich entnehmen, daß die Vorrichtung eine bestimmte Anzahl von Vergleichseinrichtungen verwendet, um einen Vergleich zwischen einem kodierten ausgesprochenen Wort und den gespeicherten kodierten Worten vorzunehmen. Dies findet sich beispielsweise, wenn eine eventuelle Wiederholung zu erfassen ist oder wenn eine Liste von Kandidaten aufzustellen ist. Unabhängig von der Genauigkeit der verwendeten Algorithmen ist es klar, daß Fehler auftreten können, welche die Funktion der Anordnung beeinträchtigen könnten.
Die Funktion der Anordnung kann in vier Teile zerlegt werden: Ein Abschnitt A 1 entsprechend der normalen Funktion, d. h., wenn das vom Benutzer ausgesprochene Wort tatsächlich erkannt wird und sofort von der Anzeigeeinrichtung angezeigt wird; ein Abschnitt A 2, entsprechend einer Fehlerprozedur, wobei diese Fehlerprozedur eingeführt wurde, wenn ein angezeigtes Wort von dem vom Benutzer gesprochenen Wort abweicht; ein Abschnitt A 3, entsprechend dem eigentlichen adaptiven Lernvorgang, wobei diese Phase vorliegt, wenn das angezeigte Wort identisch mit dem gesprochenen Wort nach mindestens einer Wiederholung gemacht wird und das Problem gelöst wird, eine ursprüngliche Referenz durch eine Neuinformation in den Speichern 8 a, 8 b zu setzen und schließlich ein Abschnitt A 4, der es ermöglicht, eventuelle Fehler zu erfassen, die von dem Sprecher gemacht werden, wenn eine Fehlerprozedur ausgelöst worden ist.
Das kodierte von dem Sprecher ausgesprochene Wort wird bei 30 eingegeben. Bei 32 wird eine Wartezeit d 1 eines Wortes eingeführt. Bei 34 wird überprüft, ob die zwischen zwei nacheinander ausgesprochenen Worten abgelaufene Zeit kleiner ist als die Wartezeit d 1 oder nicht. Wenn die Wartezeit größer ist als d 1, geht man zu Abschnitt A 3 des adaptiven Lernvorgangs über. Wenn jedoch diese Verzögerung kleiner ist als d 1, geht man zur Etappe 36 über, wo verifiziert wird, ob das kodierte ausgesprochene Wort gültig ist. Diese Etappe hat die Aufgabe, von vornherein die Eingabe von Informationen zu eliminieren, die nicht wirklich gesprochenen Worten zugeordnet sind, beispielsweise parasitären Geräuschen, usw. Die Etappe 36 wird später näher erläutert. Wenn das gesprochene Wort ungültig ist, kehrt man zum Beginn des Verfahrens der Worteingabe zurück. Wenn jedoch dieses Wort gültig ist, geht man zur Etappe 38 über, in welcher festgestellt wird, ob eine Fehlerprozedur (PE) vorliegt. Wenn die Antwort positiv ist, geht man zum Abschnitt A 2 über, entsprechend der Fehlerprozedur. Wenn die Antwort negativ ist, geht man zur Etappe 40 über, in der die Kandidatenliste (Cdd) aufgestellt wird, d. h. die Liste in absteigender Reihenfolge der Ähnlichkeit mit dem ausgesprochenen Wort für die verschiedenen Referenzen, die im entsprechenden Speicher vorhanden sind, welcher die für die Steuerung des Geräts erforderlichen Worte enthält. Danach wird in Etappe 42 verifiziert, daß die Zeit d 2 abgelaufen zwischen dem aktuellen Wort und dem vorhergehenden Wort kleiner ist als die Wartezeit d 1. Wenn die Antwort positiv ist, geht man zur Etappe 44 über, in der festgestellt wird, ob das gesprochene Wort eine Wiederholung (REP) des vorher ausgesprochenen Wortes (Mt prec.) ist. Man verwendet für diesen Zweck einen Vergleichsalgorithmus, der später erläutert wird. Wenn tatsächlich eine Wiederholung (REP) vorliegt, geht man über zum Abschnitt A 2. Wenn keine Wiederholung vorgelegen hat, geht man zur Etappe 46 über, in der ein erster Kandidat (1er Cdd) angezeigt wird, d. h. daß die Anzeigeeinrichtung das Wort anzeigt, das in der Etappe 40 als derjenigen Referenz zugeordnet erkannt worden war, die dem ausgesprochenen Wort am nächsten kam. Dies ist der Normalvorgang und damit derjenige, der Verwendung findet nach der ursprünglichen Lernphase. Es ist festzuhalten, daß dann, wenn in der Etappe 42 die zwischen dem vorhergehenden Wort und dem ausgesprochenen Wort ablaufende Zeit größer ist als d 1, direkt der erste Kandidat bei 46 angezeigt wird, weil man dann sicher ist, daß keine Wiederholung stattgefunden hat.
Nachstehend wird der Abschnitt A 2 entsprechend der Fehlerprozedur (PE) erläutert. Wie bereits angedeutet, kann man in die Fehlerprozedur A 2 an zwei Stellen eintreten: Entweder in Höhe der Etappe 38 oder in Höhe der Etappe 44. Man beginnt die Fehlerprozedur A 2 in Höhe 44, wenn man feststellt, daß das gerade ausgesprochene Wort (Mt pron.) eine Wiederholung des vorher ausgesprochenen Wortes (Mt prec.) ist. In diesem Falle löst man bei 48 eine Fehlerprozedur (PE) aus und bei 50 wird der folgende Kandidat angezeigt, d. h. in diesem Fall der Einleitung der Fehlerprozedur der zweite Kandidat. Es versteht sich, daß in diesem Falle, wenn der zweite angezeigte Kandidat das tatsächlich von dem Sprecher ausgesprochene Wort ist, man zur adaptiven Lernetappe A 3 übergeht. Man kann auch in die Fehlerprozedur A 2 in Höhe 38 eintreten, in dem Falle, wo bei 38 festgestellt wird, daß die Fehlerprozedur bereits ausgelöst worden ist. Im Falle einer positiven Antwort verifiziert man bei 52, ob das ausgesprochene Wort tatsächlich keine Wiederholung des Wortes ist, das zur Auslösung der Fehlerprozedur geführt hatte. Wenn die Antwort auf diese Frage ja ist, verifiziert man bei 54, daß tatsächlich ein folgender Kandidat existiert, d. h., daß der zunächst angezeigte Kandidat nicht der letzte in der Liste der klassierten Kandidaten ist. Falls bei 52 die Antwort negativ ist, geht man zum Abschnitt A 4 der Erfassung des Fehlers in der Fehlerprozedur über. Wenn bei 54 festgestellt wird, daß ein folgender Kandidat existiert, wird bei 50 der folgende Kandidat angezeigt.
Man gelangt zur adaptiven Lernprozedur A 3 in Höhe der Etappe 34. Wenn die Zeit, die verstrichen ist, ohne daß ein Wort ausgesprochen wird, größer ist als die Wartezeit A 1, überprüft man bei 56, ob es sich um die erste Wartezeit d 1 nach der Fehlerprozedur handelt. Wenn die Antwort positiv ist, überprüft man bei 58, ob das letzte ausgesprochene Wort tatsächlich eine Wiederholung ist. Wenn die Antwort wiederum positiv ist, ersetzt man bei 60 die im Speicher enthaltene Referenz des ausgesprochenen Wortes durch die kodierte Information entsprechend dem Wort, das die Fehlerprozedur ausgelöst hat und bei 62 wird die Fehlerprozedur beendet. Wenn bei 56 die Antwort negativ ist, kehrt man zum Eingang zurück, wobei die Fehlerprozedur vorher ausgelöst worden war. Wenn hingegen die Antwort negativ ist bei Etappe 58, geht man direkt zu 62 über zum Unterbrechen der Fehlerprozedur und der Vorgang wird demgemäß auf null rückgesetzt.
Man tritt in den Abschnitt A 4 der Erfassung eines Fehlers in der Fehlerprozedur in Höhe der Etappe 52 ein. Wenn das gesprochene Wort keine Wiederholung des Wortes ist, welches die Fehlerprozedur ausgelöst hat, verifiziert man bei 64, ob der nächste Kandidat der dritte Kandidat ist. Wenn die Antwort positiv ist, verifiziert man bei 66, ob es das zweite Mal nach einer Fehlerprozedur ist, daß keine Wiederholung vorgelegen hat. Wenn die Antwort negativ ist, kehrt man zum Eingang zurück. Wenn die Antwort positiv ist, unterbricht man bei 62 die Fehlerprozedur und der Zyklus wird auf null rückgesetzt.
Es ist festzustellen, daß die Etappen 32 und 34, welche die Wartezeit d 1 einführen, eine bevorzugte Ausbildung der Einrichtung 21 darstellen, mittels welcher der Benutzer die Lernphase in Angriff nimmt, d. h. der Ersatz einer Referenz durch eine andere kodierte Information entsprechend demselben Wort. Es ist ferner festzustellen, daß die Etappe 52 zum Ziel hat zu erfassen, ob ein Fehler in der Fehlerprozedur vorliegt oder nicht. In der vorangehenden Beschreibung erfolgt diese Erfassung automatisch durch Vergleich des gesprochenen Wortes mit dem wiederholten Wort, welches die Fehlerprozedur in Gang gesetzt hat. Dieser Vergleich kann seinerseits eine Fehlerquelle darstellen. Es wäre demgemäß möglich, die Etappe 52 zu ersetzen durch einen Umschalter, der vom Benutzer selbst betätigt wird und der seinerseits die Fehlerprozedur in Gang setzt, wenn er festgestellt hat, daß er beispielsweise unterlassen hat, ein Wort zu wiederholen.
Der Steuerschaltkreis 6, dessen Funktionsweise erläutert wurde, wird vorzugsweise durch einen Mikroprozessor realisiert. Fig. 4 zeigt den detaillierten Algorithmus, der von diesem Mikroprozessor verwendet wird. Dieser Algorithmus verwendet eine bestimmte Anzahl von Variablen, die später erläutert werden. Die erste Variable S ist ein SUBROUTINE- Parameter. Wenn innerhalb der Wartezeit d 1 kein Wort ausgesprochen worden ist, hat S den Wert null. Wenn das ausgesprochene Wort ungültig ist, hat S den Wert 1. Wenn das Wort gültig ist, nimmt S einen anderen Wert an.
Die Variable C ist ein Kandidatenzähler in dem Sinne, wie er oben erläutert wurde. Die Variable D 2 ist ein Verzögerungsparameter, der die Werte null oder 1 annehmen kann. Der Parameter ERR 1 ist ein binärer Parameter, der definiert, ob eine Fehlerprozedur ausgelöst worden ist. Der Parameter ERR 1 hat den Wert null, wenn keine Fehlerprozedur vorliegt und den Wert 1 im gegenteiligen Falle. Schließlich ist der Parameter ERR 2 ein Fehlerparameter in der Fehlerprozedur.
Nach Beginn des Programms bei 100 umfaßt das Programm Befehle 102 für die Initiierung bestimmter Variablen. Die Parameter ERR 1, ERR 2 und D 2 werden zunächst auf null gesetzt, während der Parameter C für die Kandidatenzählung zunächst auf 1 geht. Das Rechteck 104 symbolisiert ein Unterprogramm der Worteingabe. Dieses Unterprogramm umfaßt einerseits die Kodierung der aufeinanderfolgend ausgesprochenen Worte, andererseits eine erste Verarbeitung dieser Kodierung zum Verifizieren der Gültigkeit des Wortes. Ferner umfaßt das Unterprogramm das Äquivalent der Verzögerungselemente, d. h. es erfaßt, ob die zwischen einem gesprochenen Wort und dem vorher gesprochenen Wort verstrichene Zeit größer ist als d 1. Schließlich löst das Unterprogramm den Beginn der Funktion der Anordnung aus. Es ist gleichermaßen dieses Unterprogramm, das das kodierte, ausgesprochene Wort in den Speicher 8 c einschreibt und daß für jedes kodierte Wort ihm ein Wert der Variablen S zuordnet, wie oben angedeutet. Der Komparator 106 vergleicht den Parameter des Wertes S mit null. Wenn S von null abweicht, vergleicht der Komparator 108 S mit eins. Wenn S von eins abweicht, vergleicht der Komparator 110 C mit eins. Wenn der Detektor 108 feststellt, daß S gleich eins ist, kehrt das Programm zur Warteposition zurück für die Eingabe eines neuen Wortes. Wenn der Komparator 110 feststellt, daß C gleich eins ist, d. h., daß keine Fehlerprozedur vorliegt, definiert das Unterprogramm 112 die Klassierung der Kandidaten durch einen Algorithmus, der später erläutert wird. Danach vergleicht der Komparator 114 den Wert der Variablen D 2 mit null. Wenn dieser Wert von null abweicht, erfaßt das Programm 116, ob eine Wiederholung stattgefunden hat oder nicht mittels eines Unterprogramms, das später erläutert wird. Wenn keine Wiederholung stattgefunden hat, überträgt die Instruktion 118 in den Speicher 8 d für vorhergehende Worte das Wort, das gerade gesprochen worden ist und die Variable D 2 wird von dem Wert eins beeinflußt. Das Unterprogramm 120 bewirkt die Anzeige auf der Anzeigeeinrichtung 10, des dem Wert des Zählers C der Kandidaten entsprechende Worte, d. h., daß dieses Programm als Ergebnis die Anzeige des Wortes abgibt, das als ähnlichstes angesehen wird. Nach dem Unterprogramm 120 kehrt das Programm zur Warteposition für den Eingang eines neuen Wortes zurück.
Wenn der Detektor 110 festgestellt hat, daß C von eins abweicht, beginnt man mit dem Unterprogramm 122, welches das gesprochene Wort mit dem wiederholten Wort vergleicht, welches die Fehlerprozedur ausgelöst hatte. Wenn die Antwort auf diese Frage ja lautet, gibt der Befehl 124 der Variablen ERR 1 den Wert null und der Befehl 125 bewirkt die Operation C = C + 1, d. h., daß der Kandidatenzähler um eine Einheit inkrementiert wird. Der Komparator 126 vergleicht den Wert von C mit der Gesamtzahl der Worte, d. h. der Referenzen, die im Speicher enthalten sind, wobei diese Anzahl mit VOC bezeichnet werden soll. Wenn C größer ist als VOC, bedeutet dies, daß ein Fehler vorliegt und die Befehle 128 setzen den Parameter D 2 wieder auf null, die Variable ERR 1 auf null und den Kandidatenzähler C auf den Wert eins. Das Programm kehrt zur Warteposition für ein neues Wort zurück. Wenn hingegen der Komparator 126 festgestellt hat, daß der Rang des Kandidaten nicht höher ist als die Gesamtzahl der Referenzen, tritt man in das Unterprogramm 120 für die Anzeige des festgehaltenen Kandidaten ein. Im Falle, wo der Komparator 114 festgestellt hat, daß D 2 tatsächlich gleich null war, geht man direkt zum Befehl 118 über, weil man dann sicher sein kann, daß in diesem Falle keine Wiederholung stattgefunden hat. Wenn das Unterprogramm 116 festgestellt hat, daß jedoch eine Wiederholung stattfand, geht man direkt zum Operator 125, der, wie bereits angedeutet, den Kandidatenzähler C um eine Einheit inkrementiert, entsprechend der Auslösung der Fehlerprozedur.
Wenn der Komparator 106 feststellt, daß S den Wert null hat, d. h. daß die Wartezeit abgelaufen ist, gibt der Befehl 130 der Variablen D 2 den Wert null und danach vergleicht der Komparator 132 den Wert von C mit eins. Wenn C gleich eins ist, kehrt das Programm zum Anfang zurück unter Erwartung eines neuen Wortes, falls C von eins abweicht, d. h. wenn eine Fehlerprozedur vorliegt, vergleicht der Komparator 134 den Wert der Variablen ERR 1 mit null. Wenn dieser Wert null beträgt, befiehlt das Unterprogramm 36 den Austausch im Speicher 8 b der vorherigen gespeicherten Referenz gegen die Kodierung des Kandidaten mit dem Rang C. In dem folgenden Befehl 138 wird die Variable ERR 1 auf null rückgesetzt, die Variable C wird wieder auf eins gebracht. Das Programm kehrt zur Warteposition für die eventuelle Eingabe eines neuen Wortes zurück. Wenn der Komparator 134 feststellt, daß die Variable ERR 1 von null abweicht, geht das Programm direkt zum Befehl 138.
Wenn man jetzt zum Unterprogramm 122 zurückkehrt, erkennt man, daß im Falle einer Negativantwort der Befehl 140 der Variablen ERR 1 den Wert von eins gibt. Der Komparator 142 vergleicht den Wert von C mit zwei. Wenn C von zwei abweicht, kehrt das Programm zur Warteposition für die Eingabe eines neuen Wortes zurück. Wenn der Vergleich im Komparator 142 positiv ausgeht, inkrementiert der Befehl 143 die Variable ERR 2 um eine Einheit unter Durchführung der Operation ERR 2 = ERR 2+1. Der Wert der Variablen ERR 2 wird danach mit zwei verglichen im Komparator 146. Wenn die Antwort nein ist, kehrt das Programm direkt in die Warteposition für die Eingabe eines neuen Wortes zurück. Wenn die Antwort positiv ist, setzt der Befehl 148 die Variable ERR 2 wieder auf null und das Programm geht zum Befehl 128.
Man kann leicht erkennen, daß die Abfolge der Befehle und Unterprogramme 106 bis 120 der Normalfunktion entspricht, d. h. dem Abschnitt A 1, daß die Befehle 122 bis 128 der Fehlerprozedur entsprechen, daß die Befehle und Unterprogramme 130 bis 138 dem adaptiven Lernvorgang zugeordnet sind und daß schließlich die Befehle 140 bis 148 der Erfassung eines Fehlers in der Fehlerprozedur zugeordnet sind.
Fig. 5a zeigt die kodierte Information, wobei die Kodierung mittels eines bestimmten Kodierverfahrens erfolgt, zugeordnet einem ausgesprochenen Wort. Gemäß diesem Kodierverfahren wird das dem Wort entsprechende und von dem Mikrofon 2 gelieferte elektrische Signal gleichzeitig in sieben Bandpaßkanälen gefiltert. Die elektrischen Signale vom Ausgang dieser sieben Filter werden in binäre logische Signale transformiert durch Vergleich mit einer Schwelle. Diese logischen Signale werden abgetastet, in Abhängigkeit von ihrer Position in dem Signal und werden verarbeitet, damit die Gesamtlänge der erhaltenen Informationen standardisiert wird. Man erhält auf diese Weise eine Information bestehend aus Nullen und Einsen, die verteilt sind entsprechend Linien gemäß den verschiedenen Filterkanälen und entsprechend Spalten gemäß verschiedenen Zeitpunkten der erhaltenen Abtastung. In dem bestimmten Beispiel gibt es sieben Kanäle und sechzehn Abtastungen. Diese Gesamtheit von Informationen repräsentieren ein Wort. In Fig. 5a sind die Punkte der Matrize schraffiert, welche den binären Wert eins aufweisen. Man kann ferner in Betracht ziehen, daß die Gesamtheit der Punkte der Matrize mit dem Wert eins von Blöcken gebildet wird, wobei jeder Block definiert wird als eine fortlaufende Folge von Punkten mit dem binären Wert eins und ausgehend von ein- und demselben Filterkanal. Im Falle der Fig. 5a erkennt man die Blöcke B 1, B 2, B 3 und B 4. Als Beispiel kann die Gültigkeitsprüfung eines ausgesprochenen Wortes gemäß Etappe 36 der Fig. 3 folgendermaßen ablaufen. Ein Wort wird demgemäß durch die allgemeine Formel definiert
Wort = {B₁, B₂, . . ., B i , . . . B M }
worin jeder Block B i in der folgenden Weise definiert ist:
B i = {CANAL i , START i , STOP i }
START bzw. STOP bilden den Zeitpunkt des Beginns und des Endes eines Blockes. Ein Wort wird als gültig angesehen, wenn es beispielsweise von mindestens drei Blöcken gebildet wird, welche von drei verschiedenen Kanälen herrühren. Das Programm, das es ermöglicht, diese Bedingung zu verifizieren, ausgehend von der kodierten Information, die dem Wort zugeordnet ist, ist dem Fachmann geläufig und braucht hier deshalb nicht weiter ausgeführt zu werden.
Dieses Programm wird in dem Unterprogramm aus Fig. 4 mit dem Bezugszeichen 104 durchgeführt.
Nachstehend soll auf eine an sich bekannte Möglichkeit zum Messen des Abstands zwischen zwei kodierten Worten oder zwischen einem kodierten Wort und einer Referenz hingewiesen werden, um so das Unterprogramm 112 der Klassierung der Kandidaten oder die Erfassungen der Wiederholungen gemäß Unterprogrammen 116 und 122 durchzuführen. Der Abstand zwischen einem Wort und einer Referenz kann in folgender Weise definiert werden. Ein Wort wird in folgender Weise definiert:
Wort = {Wort i,j ; i = 1, 2 . . . I; j = 1, 2 . . . J }
mit Wort i,j ε {0,1}
wobei beispielsweise im Falle der Fig. 5a das Wort Wort 3,13 null hat und das Wort 7,15 eins hat. In derselben Weise kann der Speicher 8 a der Referenzen definiert werden als eine Gesamtheit von kodierten Informationen von Referenzworten, definiert durch:
Ref = {Ref k , k = 1, 2 . . . n }
worin n die Anzahl der Referenzen im Speicher ist, d. h. die Anzahl der Worte im Vokabular. Jedes Wort des Speichers wird mit Ref k bezeichnet mit
Der Abstand zwischen einem kodierten Wort "Wort" und einer Referenz des Speichers Ref k ist gegeben durch den Ausdruck:
worin das ⊕ die logische Funktion ODER EXKLUSIV repräsentiert, worin I die Anzahl der Kanäle und J die Anzahl der Abtastungen ist.
Es ist klar, daß die Distanz in konkreter Weise folgendermaßen definiert werden kann. Man geht aus von der Tabelle ähnlich jener nach Fig. 5a, entsprechend jeweils dem Wort "Wort" und der Referenz Ref k und überlagert diese beiden Tabellen. Der Zähler des rechten Ausdrucks in Gleichung (1) ist gleich der Anzahl der Punkte der beiden Tabellen mit dem Binärwert 1, die einander nicht überlagern, während der Nenner gleich der Summe der Punkte beider Tabellen ist, welche den Binärwert 1 haben. In Fig. 5b ist dementsprechend eine Tabelle dargestellt für ein Wort und eine Tabelle entsprechend einer Referenz Ref 2. Man erkennt sofort, daß durch Überlagern dieser beiden Tabellen, so wie sie gezeigt sind, die Punkte mit Binärwert 1, die einander nicht überlagern, sehr hoch ist. Mit anderen Worten ist der Abstand zwischen diesen beiden Worten groß. Man erkennt jedoch, daß durch Verschieben nach links um einen Schritt der Kontur der Tabelle des Wortes ohne Modifikation der Position der Punkte mit dem Binärwert eins die Ähnlichkeit zwischen den beiden derart modifizierten Tabellen sehr hoch ist. Man erkennt leicht, daß tatsächlich das Wort und die Referenz ein- und demselben gesprochenen Wort zugeordnet sind und daß die scheinbare Differenz großenteils von einer Globalverschiebung herrührt während der Erfassung und Kodierung des Wortes. Damit die Messung der Distanz zwischen zwei Worten tatsächlich wirksam ist, ist es demgemäß wünschenwert, darüber hinaus die Möglichkeiten der Verschiebung zwischen den zu vergleichenden Worten oder zwischen dem Wort und der zu vergleichenden Referenz ins Auge zu fassen. Dies wird nachstehend erläutert, wobei mit l die Verschiebung bezeichnet werden soll, welche im Fall der Fig. 5 den Wert -1 hat.
Durch Einführung der Verschiebung l ist der Abstand δ l zwischen dem Wort "Wort" und der Referenz Ref k in folgender Weise definiert:
Um ein Wort oder eine Referenz zu vergleichen oder zwei Worte untereinander, berechnet man die Distanzen δ l für die Verschiebungen von l = +l₁ bis l = -l₁ in Schritten von einer Einheit. Als Beispiel l₁ = 2.
Die Klassierung der Kandidaten kann in folgender Weise erfolgen:
Man notiert
δ* k = MIN [δ l (Wort, Ref k )]
Man berechnet die Tabelle der Distanzen T definiert durch:
T = {δ* k ; k = 1, 2, . . ., n}
Um die Klassierung der Kandidaten zu erhalten, sortiert man die Elemente, um eine geordnete Gesamtheit Cdd zu erhalten, definiert durch:
Cdd = {Cdd; k = 1, . . ., n}
mit Cdd k ε {1, . . ., n}
derart, daß
Der erste Kandidat ist demgemäß die Referenz mit dem Index C dd 1, und der zweite Kandidat ist demgemäß die Referenz mit dem Index C ddi .
Ausgehend von diesem Berechnungsmodus des Abstands zwischen zwei Worten ist es möglich, die Unterprogramme 116 und 122 aus Fig. 4 weiter zu erläutern. Das Unterprogramm 116 ist dasjenige, das es ermöglicht, festzustellen, ob es sich um eine Wiederholung des gesprochenen Wortes handelt oder nicht zum Auslösen (oder Nichtauslösen) der Fehlerprozedur. Um zu wissen, ob eine Wiederholung vorliegt oder nicht, verwendet man die folgenden Bedingungen:
Die Bedingung, bei der eine Wiederholung vorliegen soll ist:
AU (BD) ≠ 0
In diesen Beziehungen repräsentieren S 1, S 2 und S 3 Schwellen, δ₁ repräsentiert die Distanz zwischen dem gerade gesprochenen Wort und dem vorher gesprochenen Wort und BEST repräsentiert die Distanz zwischen dem gerade gesprochenen Wort und der ähnlichsten Referenz, enthalten in den Speichern. S₁ ist immer kleiner als S₃. Als Beispiel beträgt die Schwelle S₁ 0,2, die Schwelle S₂ -0,08 und die Schwelle S₃ 0,5. Man erkennt demgemäß, daß dieser Entscheidungsalgorithmus entweder eine absolute Distanz (A) oder eine Doppelbedingung eingreifen läßt, die auf eine Absolutschwelle zurückgeht und auf eine Relativschwelle, verglichen mit der kleinsten Distanz zwischen dem gesprochenen Wort und den Worten enthalten im Vokabular. Natürlich werden δ₁ und BEST berechnet, wie oben angegeben für die Bestimmung der Distanz zwischen zwei Worten.
Das Unterprogramm 122 hat zum Ziel festzuhalten, ob das gesprochene Wort das erste Wort ist, welches die Fehlerprozedur ausgelöst hat. Der verwendete Algorithmus lautet:
wobei δ₂ die Distanz zwischen dem gesprochenen Wort und dem ersten Wort darstellt, das die Fehlerprozedur ausgelöst hat, BEST identisch mit der Variablen ist, die im vorhergehend definierten Algorithmus verwendet wurde und S₄ eine andere Schwelle bezeichnet, die beispielsweise 0,1 beträgt.
Es ist festzuhalten, daß die Bedingungen A, B und D, die in den Test 116 eingehen, jeweils einer bestimmten Funktionsbedingung entsprechen.
Die Bedingung B = 1 ist die Normalerfassungsbedingung der Wiederholung eines gesprochenen Wortes. Es bedeutet einfach, daß δ₁ kleiner als BEST sein soll, d. h., daß die Distanz zwischen dem vorher gesprochenen Wort kleiner sein soll als die Distanz zwischen dem gerade ausgesprochenen Wort und dem ersten Kandidaten. Im Falle geringer Geräusche werden die beiden Abstände δ₁ und BEST beide etwas vergrößert und das Kriterium bleibt gültig. Im Falle der Überlagerung eines starken Lärms bei dem gesprochenen Wort jedoch, kann eintreten, daß die Bedingung B = 1 erfüllt wird, obwohl keine Wiederholung vorliegt. Die Absolutschwelle S₃ für δ₁ hat die Aufgabe, eine fehlerhafte Wiederholungserfassung bei der Schwelle zu verhindern, bei der Kondition B = 1.
Die dritte Bedingung A = 1 hat zum Ziel, das Risiko einer Blockierung des Systems nach einer vorläufigen fehlerhaften Lernphase zu vermeiden, die zur Eingabe einer Referenz geführt hat, entsprechend einem Wort in der Speicherposition, die einem anderen Wort zugeordnet ist. Das kann mit der folgenden Sequenz geschehen.
Der Benutzer spricht "ON" aus und die Anzeigeanordnung zeigt "OFF". Der Benutzer wiederholt demgemäß "ON", was die Fehlerprozedur (PE) auslöst und das Wort "FAST" wird angezeigt. Der Benutzer wiederholt erneut "ON" und das Wort "DOWN" wird angezeigt. Darüber hinaus läßt der Benutzer die Wartezeit d₁ verstreichen. Die autoadaptive Lernprozedur führt die Referenz ON in diejenige Position des Speichers ein, die dem Wort DOWN zugeordnet ist. Wenn der Benutzer erneut das Wort ON ausspricht, kann BEST (Abstand zwischen dem ausgesprochenen ON und dem in der Position DOWN befindlichen ON) häufig kleiner sein als (Abstand zwischen ON ausgesprochen und ON vorher ausgesprochen). Dies macht die Erfassung der Wiederholung zufällig, so daß in diesem Falle man den oben beschriebenen Fehler eine Sicherung vorschieben muß. Dies ist die Bedingung A = 1, die nach Verifikation es ermöglicht, die Wiederholung zu erfassen.
Die Fig. 6 ist ein Algorithmus des Unterprogramms 104 für die Eingabe kodierter Worte. Dieses Unterprogramm hat im wesentlichen zum Ziel, den Wert des Parameters S festzulegen, der 0, 1 oder 2 betragen kann. Dieses Unterprogramm bezieht sich auf Hilfsvariable L der Wortlänge und X, was eine Binärzahl mit sieben Bits bedeutet und ein Abtastmuster des Wortes darstellt. Es handelt sich demgemäß um eine Spalte der Matrizen, die in Fig. 5a und 5b gezeigt sind.
In dem Programm wird an einem Anfangs- oder Eingangspunkt 200 mittels der Befehle 202 die Anfangssetzung der Parameter S auf S₀ und des Parameters L auf 0 vorgenommen. Der Takt des Mikroprozessors liefert die Taktimpulse CK mit einer Frequenz von 100 Hz. S₀ entspricht der Wartezeit d₁ aus der Fig. 3. Wenn demgemäß die Wartezeit d₁ gleich 5 Sekunden gewählt wird, hat S₀ den Wert 500. Die Befehle 204 und 206, welche die Impulse CK mit Logikpegeln 0 bzw. 1 mit ihrer Meldung vergleichen, haben einfach die Aufgabe, das Programm mit der Taktfrequenz von 100 Hz zu synchronisieren. Bei 208 werden die Abtastmuster X, herrührend vom Kodierschaltkreis nacheinander mit Frequenz von 100 Hz eingegeben. Der Befehl 210 vergleicht X mit 0. Die Antwort ist positiv (X = 0), wenn die 7 Bits wirklich den Wert 0 aufweisen. Die Antwort ist negativ, wenn mindestens eines der Bits von 0 abweicht. Wenn die Antwort negativ ist, setzt der Befehl 212 den Wert S₁ für den Parameter S. S₁ hat beispielsweise den Wert 20. Danach inkrementiert der Befehl 214 um eine Einheit den Parameter L und der Befehl 216 lädt in den Speicher 8 c in kodierter Form oder nicht kodierter Form das Abtastmuster von sieben Bits X. Das Programm kehrt zum Befehl 204 zurück für die Eingabe des folgenden Abtastmusters.
Wenn das Abtastmuster X gleich null ist (Befehl 210), wird der Parameter S um eine Einheit von dem Befehl 218 dekrementiert. Bei 220 wird der Parameter S mit 0 verglichen. Wenn die Antwort positiv ist (S = 0), wird der Parameter L mit null verglichen bei 222. Wenn die Antwort positiv ist (L = 0), geht man zum Ausgang des Unterprogramms, d. h. man geht zum Befehl 106 aus Fig. 4 über. Der Parameter S hat den Wert null. Wenn der Operator 220 eine negative Antwort liefert (S ≠ 0), vergleicht der Befehl 224 den Parameter L mit null. Wenn das Ergebnis des Vergleichs positiv ist (L = 0), geht man direkt zum Befehl 216, der in dem Speicher 8 c das getestete Abtastmuster einschreibt. Wenn die Antwort negativ ist (L ≠ 0), geht man zum Befehl 214.
Wenn die Antwort auf den Vergleich gemäß Befehl 222 negativ ist (L ≠ 0), geht man zum Befehl 224, bei dem es sich tatsächlich um ein Unterprogramm für die Erfassung der Gültigkeit des Wortes handelt. Dieser Test wurde bereits erläutert. In dieser Ausführungsform kann eine zusätzliche Bedingung eingeführt werden, nämlich beispielsweise, daß der Parameter L größer oder gleich zehn sei. Wenn das Wort ungültig ist, setzt der Befehl 226 den Parameter S auf den Wert eins und wenn das Wort gültig ist, setzt der Befehl 228 den Parameter L auf 2.
Die Funktion des Unterprogramms ergibt sich klar aus der vorstehenden Erläuterung. Solange kein Abtastmuster von null abweicht, bleibt der Parameter L null und der Parameter S wird um eine Einheit bei jedem Schleifendurchlauf dekrementiert. Wenn 500 aufeinanderfolgende Schleifen durchlaufen sind und X konstant bei null bleibt, erreicht der Parameter S den Wert null mit einem Wert von L, der ebenfalls null beträgt. Dies zeigt, daß kein Wort während der Verzögerungszeit d₁, die fünf Sekunden betrug, gesprochen wurde. Der Parameter S hat den Wert null. Sobald ein Abtastmuster X abweichend von null erscheint, nimmt der Parameter L den Wert eins an und der Parameter S den Wert S₁, d. h. zwanzig. Diese Inkrementierung auf S₁ zeigt an, daß in diesem Falle, falls während zwanzig Schleifendurchläufen X null geblieben ist, das Wort als beendet angesehen wird, da der Befehl 218 den Parameter S auf null gesetzt haben wird. Unter dieser Bedingung wird, falls der Befehl 224 festgestellt hat, daß das von den aufeinanderfolgenden Mustern X gebildete Wort gültig ist, dem Parameter S der Wert zwei zugeordnet; im anderen Falle ist es der Wert eins, der ihm zugeordnet wird.
In der vorstehenden Erläuterung wurde von der Eingabe eines einzigen Wortes ausgegangen. Dieser Steuermodus entspricht konkret dem Fall, wo die zu gebenden Befehle des Geräts jeweils ein einziges Wort umfassen. Es ist dabei klar, daß bestimmte Befehle mehrere isolierte Worte umfassen können. Um beispielsweise eine bestimmte Zahlenangabe, die zu einem Funktionsbefehl gehört, dem Gerät zu übermitteln, muß beispielsweise das Wort ON eingegeben werden und danach die Worte entsprechend den gewünschten Ziffern. Es ist demgemäß erforderlich, daß die Eingabeanordnung "versteht", daß die aufeinanderfolgend ausgesprochenen Worte, die einen Teil eines desselben Befehls bilden, voneinander getrennt zu behandeln sind. Aus diesem Grunde muß der Benutzer die Wartezeit d₁ zwischen dem Ende der Eingabe eines Wortes des Befehls und dem Anklingen des folgenden Wortes verstreichen lassen. Diese Verzögerung kann dem Benutzer beispielsweise durch ein Blinksignal der Anzeigeanordnung übermittelt werden oder durch Verwendung eines akustischen Signals. In dem beschriebenen Beispiel ist die Wartezeit d₁ auf 5 Sekunden festgesetzt.
Im Falle, wo der erste Kandidat viel näher dem gesprochenen Wort ist als der zweite Kandidat, ist es quasi sicher, daß dieser erste Kandidat tatsächlich das richtige Wort ist. Mit anderen Worten ist es quasi sicher, daß der Benutzer dieses Wort nicht wiederholen wird. Es ist demgemäß interessant, in diesem Falle den Wert von d₁ zu verringern. Für diesen Zweck kann man Y berechnen, das folgendermaßen definiert ist:
wobei δ* Cdd den Abstand zwischen dem gesprochenen Wort und dem ersten Kandidaten bedeutet und δ* Cdd den Abstand zwischen dem zweiten Wort und dem Kandidaten. Y liegt zwischen 0 und 1. Je größer Y ist, desto sicherer ist das Wiedererkennen des ersten Kandidaten. Es ist demgemäß möglich, d₁ zu verringern, sobald Y größer ist als irgendein Wert a, wobei der Wert von d₁ definiert sein kann als eine absteigende Funktion f von Y. Man kann beispielsweise a = 0,3 wählen und d max (1-Y/2) mit d max = 5 Sekunden.
Die Bedingung Y a mit a impliziert das
Der zweite Kandidat muß demgemäß mindestens um deutlich das Zweifache "unähnliche" dem gesprochenen Wort sein als der erste Kandidat.
Im Algorithmus nach Fig. 6 bedeutet dies, daß S variabel ist. In dem Algorithmus nach Fig. 4 ist demgemäß ein Unterprogramm 150 hinzuzufügen, welches Y berechnet und Y mit a vergleicht sowie berechnet:
S₀ = Sf(Y) si Y a.
Allgemeiner gesagt, kann die Berechnung von Y ersetzt werden durch die Berechnung einer Funktion f₁ (δ* Cdd, δ* Cdd), welche die Werte von δ* Cdd und von w* Cdd vergleicht. Diese Funktion muß null sein für δ* Cdd = δ* Cdd und den Wert haben für δ* Cdd = 0 und δ* Cdd = 1. Falls f₁ (δ* Cdd, δ* Cdd) größer ist als a, berechnet man demgemäß d₁ = d max f 2 (f₁). f₂ ist eine absteigende Funktion von f₁ mit numerischen Werten, die strikt zwischen 0 und 1 liegen.
Das Hauptinteresse der Worteingabeanordnung gemäß der Erfindung ergibt sich klar aus vorstehender Erläuterung. Die normale Benutzung der Anordnung, d. h. die Eingabe von Worten zum Steuern des zugeordneten Gerätes und der Lernvorgang sind eng miteinander verflochten und können tatsächlich gleichzeitig ablaufen. Man vermeidet auf diese Weise gegenüber dem Lernvorgang mit Werkseingabe eine lange und ermüdende Phase, die strikt für den Lernvorgang reserviert ist und ermöglicht eine Auswechselung des Benutzers, ohne daß die Gesamtheit der eingegebenen Referenzen zu erneuern ist. Es brauchen nämlich nur die Worte ausgetauscht zu werden, deren Aussprache sich ändern wird. Darüber hinaus betrifft die Lernphase nur jene Worte, die man wirklich benutzen will und die Anordnung zeigt dem Benutzer nacheinander die Worte, die er der Worteingabeanordnung erneut beibringen muß.
Durchgeführte Versuche haben gezeigt, daß diese Anordnung eine viel größere Flexibilität und eine viel einfachere Benutzung mit sich bringt, wenn irgendein Gerät, beispielsweise eines mit Digitalanzeige, zu steuern ist. Dieses Ergebnis beruht wahrscheinlich auf der Tatsache, daß bei der mehrfachen Wiederholung ein- und desselben Wortes durch den Benutzer die Aussprache sich kaum ändert und man demgemäß die Wiederholung leicht feststellen kann. Mit der Anordnung gemäß der Erfindung führt diese Wiederholung nicht nur zu einem erneuten Lernvorgang, sondern zugleich zur Eingabe des Wortes und demgemäß des Kommandos in einer gewünschten Funktion. Im Falle der Eingabe von Referenzen ab Werk muß der Benutzer das Wort so lange wiederholen, bis seine eigene Aussprache dieses Wortes mit derjenigen des Standardsprechers oder Lesers im Werk zusammenfällt. Im Falle der Anfangslernphase durch den Benutzer selbst vergeht eine gewisse Zeit zwischen der Lernphase und der wirksamen Phase der Worteingabe. Es gibt ein erhebliches Risiko, das die Aussprache dieses Wortes nicht dieselbe sein wird. Die Worteingabe kann demgemäß gegebenenfalls unmöglich sein und man muß die gesamte Lernphase wiederholen.
Es scheint, daß die Flexibilität der Benutzung der Anordnung gemäß der Erfindung im wesentlichen auf der Tatsache beruht, daß jede Wiederholung eines Wortes oder genauer gesagt bei jedem Mal, daß die Anordnung eine Wiederholung erfaßt, die Anzeigeeinrichtungen den folgenden Kandidaten in der Reihenfolge der absteigenden Ähnlichkeit präsentiert, ohne daß eine Modifikation in der Klassifizierung der Kandidaten vorgenommen wird. Während der Anfangslernphase hingegen ist es immer der erste Kandidat, der angezeigt wird. Es ergibt demgemäß keinerlei Fortschritt in der Anzeige der Kandidaten.
Es ist festzuhalten, daß Umgebungsgeräusche die Funktion der Worteingabeanordnung nicht stören. Im Falle von Geräuschen höheren Pegels ändert sich die Wiederholung von zwei aufeinanderfolgenden Worten in derselben Weise wie die Ergebnisse der Korrelation mit den Referenzen. Jenseits der Schwelle S₃ jedoch erfaßt die Anordnung die Wiederholung nicht und man gelangt nicht zur Fehlerprozedur. Dies verbietet jegliche Modifikationen der Referenzen unter solchen ungünstigen akustischen Bedingungen und stellt demgemäß gleichzeitig eine gute Immunität gegen Lärm sicher, ohne daß in anderer Weise das System seine Funktion einstellt. Man kann sagen, daß in einer Umgebung mit hohem Lärmpegel die aufeinanderfolgenden Wiederholungen ein- und desselben Wortes nicht als solches erkannt werden. Das System liefert demgemäß jedesmal den ersten Kandidaten als Antwort. Der erste Kandidat ändert sich praktisch jedesmal und der Benutzer hat demgemäß statistisch gute Chancen, daß nach einer begrenzten Anzahl von Versuchen das richtige Wort angezeigt wird. Darüber hinaus enthält solcher Lärm, etwa das Geräusch von Gesprächen, Augenblicke der Stille, die es dem System ermöglichen, ein nicht gestörtes Wort zu empfangen.
In der vorstehenden Erläuterung wurde auch beschrieben, daß die Klassierung der Kandidaten sich auf die Gesamtheit der n Worte des Vokabulars bezieht, das der Steuerung das der Worteingabeanordnung zugeordneten Gerätes dient. Es versteht sich von selbst, daß das Vokabular in mehrere Gruppen unterteilt werden kann. Die Klassierung der Kandidaten erfolgt dann nur unter den Worten dieser Gruppe, d. h. unter n₁ Worten (n₂<n). Der Festwertspeicher 8 a hingegen enthält natürlich die Gesamtheit des Vokabulars. Die Anordnung umfaßt in diesem Fall ein Unterprogramm, das es ermöglicht, die Worte der betreffenden Gruppe zu definieren. Man erkennt, daß durch Herabsetzung der Anzahl von Referenzen, die zu berücksichtigen sind, die Möglichkeit gegeben ist, die Kodierung zu vereinfachen und die Vergleichsalgorithmen weniger schwierig zu gestalten. Dies ermöglicht eine Verringerung der Anzahl von Speicherplätzen in dem Random-Speicher und der Anzahl von Binärpositionen, die für die Kodierung eines Wortes erforderlich sind.

Claims (6)

1. Worteingabeanordnung für sprachgesteuerte Geräte mit
  • - einer Kodiereinrichtung (2, 4) für jedes von einem Sprecher gesprochene Wort gemäß einem ersten vorgegebenen Algorithmus zur Ableitung eines kodierten Wortes,
  • - einer Speichereinrichtung (8) zum Speichern von n Referenzen entsprechend jeweils der Kodierung eines der n Worte gemäß dem ersten Algorithmus und mindestens eines von dem Sprecher gesprochenen Wortes in kodierter Form,
  • - einem Steuerschaltkreis (6) mit einem Klassifizierschaltkreis (14) zum Zuordnen eines Ähnlichkeitsranges zu jeder gespeicherten Referenz und einem Anzeigesteuerkreis (18) zur Steuerung der Anzeige der gespeicherten Referenz, die den ersten Ähnlichkeitsrang besitzt, in Abhängigkeit von einem zweiten Algorithmus,
  • - einer Anzeigeeinrichtung (10) zum Anzeigen eines der n Worte, und
  • - einer Steuereinrichtung (21) für die Änderung der Referenzen,
dadurch gekennzeichnet, daß
  • a) der Steuerschaltkreis (6) eine Detektoreinrichtung (16) umfaßt zum Erfassen einer Wiederholung eines vorhergehend gesprochenen Wortes bei zwei aufeinanderfolgenden Worten in Abhängigkeit von einem dritten vorgegebenen Algorithmus,
  • b) der Anzeigesteuerkreis (18) derart ausgebildet ist, daß im Falle der Wiederholung dasjenige Wort angezeigt wird, das in der Reihenfolge der Ähnlichkeiten dem unmittelbar zuvor angezeigten Wort folgt, und
  • c) eine Anordnung (20) zum Modifizieren der in der Speichereinrichtung (8) enthaltenen Referenzen vorgesehen ist, die die Referenz, die dem zuletzt angezeigten Wort zugeordnet ist, durch die Information entsprechend der Kodierung des wiederholten Wortes ersetzt, wobei diese Substitution durch Betätigung der Steuereinrichtung (21) aktiviert wird.
2. Anordnung nach Anspruch 1, dadurch gekennzeichnet, daß die Steuereinrichtung (21) zum Ändern der Referenzen umfaßt:
  • - Mittel zum Festlegen einer Zeitdauer d₁,
  • - Mittel (32, 34) zum Vergleichen der Zeit, die zwischen einem gesprochenen Wort und dem vorher gesprochenen Wort verstrichen ist, mit einer Referenzzeitdauer d₁, wobei die Steuerorgane aktiviert werden, wenn diese Zeitdauer größer oder gleich d₁ ist.
3. Anordnung nach Anspruch 2, dadurch gekennzeichnet, daß der Klassifizierschaltkreis (14) umfaßt:
  • - Mittel zum Messen des Abstandes zwischen einem kodierten gesprochenen Wort und den Referenzen und
  • - Mittel zum Klassieren der Referenzen in aufsteigender Reihenfolge dieser Distanzen.
4. Anordnung nach Anspruch 3, dadurch gekennzeichnet, daß die Mittel zum Festlegen der Zeitdauer d₁ umfassen:
  • - Mittel (150) zum Festlegen einer Funktion f₁ (δ* Cdd, δ* Cdd), worin δ* Cdd die Distanz zwischen einem gesprochenen Wort und der Referenz repräsentiert, welche den zweiten Ähnlichkeitsrang einnimmt, und δ* Cdd die Distanz zwischen dem gesprochenen Wort und der Referenz repräsentiert, die den ersten Ähnlichkeitsrang einnimmt, wobei diese Funktion 0 ist für δ* Cdd = δ* Cdd und 1 ist für δ* Cdd = 0 und δ* Cdd = 1;
  • - Mittel zum Vergleichen des Wertes der Funktion f₁ mit einer Zahl a, die strikt zwischen 0 und 1 liegt, und
  • - Mittel zum Setzen der Zeitdauer d₁ auf den Wert d max , wenn f₁ kleiner als a ist, und auf den Wert d max f₂(f₁) in dem gegenteiligen Falle, wobei f₂ eine absteigende Funktion von f₁ für numerische Werte ist, die strikt zwischen 0 und 1 liegen.
5. Anordnung nach Anspruch 3, dadurch gekennzeichnet, daß die Detektoreinrichtung (16) umfaßt:
  • - Mittel zum Festlegen eines Abstandes δ₁ zwischen einem gesprochenen Wort und dem vorhergehend gesprochenen Wort,
  • - Mittel zum Festlegen eines Abstandes Best zwischen dem gesprochenen Wort und der Referenz, welche den ersten Ähnlichkeitsrang einnimmt,
  • - Mittel zum Festlegen des Verhältnisses
  • - Mittel zum Vergleich des Wertes von Z mit einem Schwellenwert S₂, wobei S₂<1,
  • - Mittel zum Vergleichen des Wertes δ₁ mit einem ersten Schwellenwert S₁ und einem zweiten Schwellenwert S₃, die positiv und kleiner als 1 sind mit S₁<S₃ und
  • - Mittel (116) zum Feststellen, daß eine Wiederholung stattgefunden hat, falls δ₁ kleiner als S₁ oder wenn gleichzeitig Z kleiner als S₂ und δ₁ kleiner als S₃ sind.
DE19823216800 1981-05-15 1982-05-05 Anordnung zur eingabe von befehlsworten durch sprache Granted DE3216800A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CH3179/81A CH644246B (fr) 1981-05-15 1981-05-15 Dispositif d'introduction de mots a commande par la parole.

Publications (2)

Publication Number Publication Date
DE3216800A1 DE3216800A1 (de) 1982-12-02
DE3216800C2 true DE3216800C2 (de) 1988-03-10

Family

ID=4250332

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19823216800 Granted DE3216800A1 (de) 1981-05-15 1982-05-05 Anordnung zur eingabe von befehlsworten durch sprache

Country Status (6)

Country Link
US (1) US4509133A (de)
JP (1) JPS57198500A (de)
CH (1) CH644246B (de)
DE (1) DE3216800A1 (de)
FR (1) FR2510794A1 (de)
GB (1) GB2098773B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4002336A1 (de) * 1989-01-27 1990-08-02 Ricoh Kk Bezugsmuster-erneuerungsverfahren
DE19824450A1 (de) * 1998-05-30 1999-12-02 Grundig Ag Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen
DE10191732B4 (de) * 2000-05-04 2005-10-06 Visteon Global Technologies, Inc., Dearborn Selektive Sprecheradaption für ein fahrzeuggebundenes Spracherkennungssystem

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3309566A1 (de) * 1983-03-17 1984-09-20 Standard Elektrik Lorenz Ag, 7000 Stuttgart Bedienungseinrichtung fuer ein teilnehmergeraet eines informationssystems
US4618984A (en) * 1983-06-08 1986-10-21 International Business Machines Corporation Adaptive automatic discrete utterance recognition
GB2155217A (en) * 1983-08-22 1985-09-18 Bernard Albert Hunn Mind simulator
NL8401862A (nl) * 1984-06-13 1986-01-02 Philips Nv Werkwijze voor het herkennen van een besturingskommando in een systeem, en een interaktief systeem voor het uitvoeren van de werkwijze.
DE3515881C2 (de) * 1985-05-03 1995-05-04 Deutsche Aerospace Schaltungsanordnung zum im Vergleichstakt synchronen größenmäßigen Einsortieren einer aktuellen digitalen Wertgröße
US4797927A (en) * 1985-10-30 1989-01-10 Grumman Aerospace Corporation Voice recognition process utilizing content addressable memory
CA1311059C (en) * 1986-03-25 1992-12-01 Bruce Allen Dautrich Speaker-trained speech recognizer having the capability of detecting confusingly similar vocabulary words
US4908864A (en) * 1986-04-05 1990-03-13 Sharp Kabushiki Kaisha Voice recognition method and apparatus by updating reference patterns
AU7695987A (en) * 1986-07-07 1988-01-29 Newex, Inc. Peripheral controller
GB8617389D0 (en) * 1986-07-16 1986-08-20 British Telecomm Speech recognition
US5347612A (en) * 1986-07-30 1994-09-13 Ricoh Company, Ltd. Voice recognition system and method involving registered voice patterns formed from superposition of a plurality of other voice patterns
US4827520A (en) * 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
US4860360A (en) * 1987-04-06 1989-08-22 Gte Laboratories Incorporated Method of evaluating speech
DE3819178A1 (de) * 1987-06-04 1988-12-22 Ricoh Kk Spracherkennungsverfahren und -einrichtung
EP0302614B1 (de) * 1987-07-16 1993-03-10 Fujitsu Limited Spracherkennungseinrichtung
GB2207783B (en) * 1987-08-07 1991-05-22 Casio Computer Co Ltd Recording/reproducing apparatus with voice recognition function
US4984177A (en) * 1988-02-05 1991-01-08 Advanced Products And Technologies, Inc. Voice language translator
GB8813713D0 (en) * 1988-06-09 1988-07-13 Harvey P D Hands free environmental controller
US4984274A (en) * 1988-07-07 1991-01-08 Casio Computer Co., Ltd. Speech recognition apparatus with means for preventing errors due to delay in speech recognition
US5127055A (en) * 1988-12-30 1992-06-30 Kurzweil Applied Intelligence, Inc. Speech recognition apparatus & method having dynamic reference pattern adaptation
US5007081A (en) * 1989-01-05 1991-04-09 Origin Technology, Inc. Speech activated telephone
KR910700582A (ko) * 1989-01-05 1991-03-15 에이취. 프라이드 로널드 음성 처리 장치 및 방법
GB8908205D0 (en) * 1989-04-12 1989-05-24 Smiths Industries Plc Speech recognition apparatus and methods
JPH067348B2 (ja) * 1989-04-13 1994-01-26 株式会社東芝 パタン認識装置
US5144672A (en) * 1989-10-05 1992-09-01 Ricoh Company, Ltd. Speech recognition apparatus including speaker-independent dictionary and speaker-dependent
JP3088739B2 (ja) * 1989-10-06 2000-09-18 株式会社リコー 音声認識システム
JP2989211B2 (ja) * 1990-03-26 1999-12-13 株式会社リコー 音声認識装置における辞書制御方式
GB2253296B (en) * 1991-02-28 1995-05-24 Toshiba Kk Pattern recognition apparatus
FI97919C (fi) * 1992-06-05 1997-03-10 Nokia Mobile Phones Ltd Puheentunnistusmenetelmä ja -järjestelmä puheella ohjattavaa puhelinta varten
US5428707A (en) * 1992-11-13 1995-06-27 Dragon Systems, Inc. Apparatus and methods for training speech recognition systems and their users and otherwise improving speech recognition performance
US6092043A (en) * 1992-11-13 2000-07-18 Dragon Systems, Inc. Apparatuses and method for training and operating speech recognition systems
US5920837A (en) * 1992-11-13 1999-07-06 Dragon Systems, Inc. Word recognition system which stores two models for some words and allows selective deletion of one such model
US5890122A (en) * 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
CA2115210C (en) * 1993-04-21 1997-09-23 Joseph C. Andreshak Interactive computer system recognizing spoken commands
US5787231A (en) * 1995-02-02 1998-07-28 International Business Machines Corporation Method and system for improving pronunciation in a voice control system
US5748191A (en) * 1995-07-31 1998-05-05 Microsoft Corporation Method and system for creating voice commands using an automatically maintained log interactions performed by a user
US5761641A (en) * 1995-07-31 1998-06-02 Microsoft Corporation Method and system for creating voice commands for inserting previously entered information
US5857172A (en) * 1995-07-31 1999-01-05 Microsoft Corporation Activation control of a speech recognizer through use of a pointing device
US5864815A (en) * 1995-07-31 1999-01-26 Microsoft Corporation Method and system for displaying speech recognition status information in a visual notification area
US6067521A (en) * 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
JP2000506633A (ja) * 1996-12-24 2000-05-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識システムを訓練する方法及びこの方法を実施する機器、特に、携帯電話機
US5933804A (en) * 1997-04-10 1999-08-03 Microsoft Corporation Extensible speech recognition system that provides a user with audio feedback
DE19754383A1 (de) * 1997-12-08 1999-06-10 Siemens Ag Verfahren und Vorrichtung zur Verarbeitung gesprochener Sprache
US6163768A (en) * 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition
DE19839466A1 (de) 1998-08-29 2000-03-09 Volkswagen Ag Verfahren und Steuereinrichtung zur Bedienung technischer Einrichtungen eines Fahrzeugs
WO2000072463A2 (en) * 1999-05-26 2000-11-30 Johnson Controls Interiors Technology Corp. Wireless communications system and method
US7346374B2 (en) 1999-05-26 2008-03-18 Johnson Controls Technology Company Wireless communications system and method
GB2365188B (en) 2000-07-20 2004-10-20 Canon Kk Method for entering characters
US6556971B1 (en) 2000-09-01 2003-04-29 Snap-On Technologies, Inc. Computer-implemented speech recognition system training
MXPA04004246A (es) 2001-11-01 2004-09-10 Scott Lab Inc Interfaz de usuario para sistemas y metodos de suministro de sedacion y analgesia.
US6688652B2 (en) * 2001-12-12 2004-02-10 U.S. Pipe And Foundry Company Locking device and method for securing telescoped pipe
US7324942B1 (en) 2002-01-29 2008-01-29 Microstrategy, Incorporated System and method for interactive voice services using markup language with N-best filter element
US6882974B2 (en) * 2002-02-15 2005-04-19 Sap Aktiengesellschaft Voice-control for a user interface
KR100552693B1 (ko) * 2003-10-25 2006-02-20 삼성전자주식회사 피치검출방법 및 장치
US8788271B2 (en) * 2004-12-22 2014-07-22 Sap Aktiengesellschaft Controlling user interfaces with contextual voice commands
US7409344B2 (en) * 2005-03-08 2008-08-05 Sap Aktiengesellschaft XML based architecture for controlling user interfaces with contextual voice commands
JP5331710B2 (ja) 2006-10-11 2013-10-30 ジョンソン コントロールズ テクノロジー カンパニー 無線ネットワーク選択
EP2199877B1 (de) * 2008-11-05 2011-07-27 The Swatch Group Research and Development Ltd. Armbanduhr mit eingebautem Mikrophon im Uhrgehäuse
US9424233B2 (en) 2012-07-20 2016-08-23 Veveo, Inc. Method of and system for inferring user intent in search input in a conversational interaction system
US9465833B2 (en) 2012-07-31 2016-10-11 Veveo, Inc. Disambiguating user intent in conversational interaction system for large corpus information retrieval
DK2994908T3 (da) * 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
WO2014183035A1 (en) 2013-05-10 2014-11-13 Veveo, Inc. Method and system for capturing and exploiting user intent in a conversational interaction based information retrieval system
US9852136B2 (en) 2014-12-23 2017-12-26 Rovi Guides, Inc. Systems and methods for determining whether a negation statement applies to a current or past query
US9854049B2 (en) 2015-01-30 2017-12-26 Rovi Guides, Inc. Systems and methods for resolving ambiguous terms in social chatter based on a user profile

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3812291A (en) * 1972-06-19 1974-05-21 Scope Inc Signal pattern encoder and classifier
GB1435779A (en) * 1972-09-21 1976-05-12 Threshold Tech Word recognition
US4394539A (en) * 1981-03-24 1983-07-19 Chu Tsan Chen Timepiece with automatic time setting system thru dial telephone line and automatic speed adjusting system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4002336A1 (de) * 1989-01-27 1990-08-02 Ricoh Kk Bezugsmuster-erneuerungsverfahren
DE19824450A1 (de) * 1998-05-30 1999-12-02 Grundig Ag Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen
DE19824450C2 (de) * 1998-05-30 2001-05-31 Grundig Ag Verfahren und Vorrichtung zur Verarbeitung von Sprachsignalen
DE10191732B4 (de) * 2000-05-04 2005-10-06 Visteon Global Technologies, Inc., Dearborn Selektive Sprecheradaption für ein fahrzeuggebundenes Spracherkennungssystem

Also Published As

Publication number Publication date
DE3216800A1 (de) 1982-12-02
US4509133A (en) 1985-04-02
FR2510794B1 (de) 1984-12-28
FR2510794A1 (fr) 1983-02-04
JPH0221599B2 (de) 1990-05-15
CH644246B (fr) 1900-01-01
GB2098773B (en) 1985-02-06
JPS57198500A (en) 1982-12-06
CH644246GA3 (de) 1984-07-31
GB2098773A (en) 1982-11-24

Similar Documents

Publication Publication Date Title
DE3216800C2 (de)
DE3244476C2 (de)
DE3211313C2 (de)
DE69831991T2 (de) Verfahren und Vorrichtung zur Sprachdetektion
DE3600762C2 (de) Arbeitsverfahren für ein Dialogsystem sowie Dialogsystem zum Durchführen des Verfahrens
EP0366192B1 (de) Textverarbeitungsvorrichtung
DE3337353C2 (de) Sprachanalysator auf der Grundlage eines verborgenen Markov-Modells
DE60203705T2 (de) Umschreibung und anzeige eines eingegebenen sprachsignals
EP0994461A2 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
DE69818930T2 (de) Verfahren zur Ausrichtung von Text an Audiosignalen
DE2918533C2 (de)
DE3723078A1 (de) Verfahren zur erkennung von zusammenhaengend gesprochenen woertern
DE2326517A1 (de) Verfahren und schaltungsanordnung zum erkennen von gesprochenen woertern
DE19942178C1 (de) Verfahren zum Aufbereiten einer Datenbank für die automatische Sprachverarbeitung
EP1139333A2 (de) Spracherkennungsverfahren und Spracherkennungsvorrichtung
DE2524804A1 (de) Verfahren und vorrichtung zur automatischen spracherkennung
DE3503306A1 (de) Datensignalerkennungseinrichtung
DE3043516C2 (de) Verfahren und Vorrichtung zur Spracherkennung
EP0836175A2 (de) Verfahren und Anordnung zum Ableiten wenigstens einer Folge von Wörtern aus einem Sprachsignal
WO1996022593A1 (de) Verfahren zur spracherkennung
DE3149134A1 (de) Verfahren und vorrichtung zur bstimmung von sprachendpunkten
DE10040063A1 (de) Verfahren zur Zuordnung von Phonemen
EP0658878B1 (de) System zum Übertragen eines Sprachsignals
DE4027150C1 (de)
EP0467157A2 (de) Sprachgesteuertes Gerät der Unterhaltungselektronik, insbesondere Videorecorder

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee