DE10330274A1 - Sprachgesteuertes System - Google Patents

Sprachgesteuertes System Download PDF

Info

Publication number
DE10330274A1
DE10330274A1 DE10330274A DE10330274A DE10330274A1 DE 10330274 A1 DE10330274 A1 DE 10330274A1 DE 10330274 A DE10330274 A DE 10330274A DE 10330274 A DE10330274 A DE 10330274A DE 10330274 A1 DE10330274 A1 DE 10330274A1
Authority
DE
Germany
Prior art keywords
voice
switch
display
user
help
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10330274A
Other languages
English (en)
Inventor
Makoto Kariya Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE10330274A1 publication Critical patent/DE10330274A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

Ein sprachgesteuertes System, welches beispielsweise bei einer Fahrzeugnavigationsvorrichtung anwendbar ist, beinhaltet: eine Anzeigeeinheit (5); ein Mikrofon (2); eine Spracherkennungseinheit (4) zur Erkennung einer von einem Benutzer ausgegebenen Sprache als Befehl; und eine Navigations-ECU (1), an welche die Spracherkennungseinheit (4) den Befehl ausgibt. Wenn der Benutzer die Sprache eingibt, werden auf der Anzeigeeinheit (5) Hilfeschalter dargestellt. Wenn der Benutzer einen der Hilfeschalter anwählt, werden entsprechende Funktionen entsprechend den Hilfeschaltern durchgeführt. Diese Funktionen beinhalten die Darstellung einer Stimmbefehlsliste oder die Führung für eine Spracheingabe auf der Anzeigeinheit (5) oder die Ausgabe eines Stimmungsergebnisses an die Navigations-ECU (1), ob eine bestimmte Funktion, beispielsweise das Festlegen eines Zielortes, durchgeführt werden darf.

Description

  • Die vorliegende Erfindung betrifft ein sprachgesteuertes System oder Sprachsteuerungssystem, welches die Einsatzfähigkeit bei Handlungen über Spracheingabe unter Verwendung einer Hilfsanzeige verbessert.
  • Eine von einem Sprecher ausgegebene Sprache wird üblicherweise zur Steuerung verschiedener Funktionen, beispielsweise bei einer Kamera oder einem Fahrzeugnavigationssystem verwendet. Beispielsweise wird in der JP-A-S64-56428 ein Kamerasteuerungssystem unter Verwendung von Spracheingabe wie folgt beschrieben: eine Sprache bzw. Ansage entsprechend einer gewünschten Betätigung wird eingegeben; die Sprache oder Aussage wird von einer Stimmerkennungseinheit erkannt; und die Kamera wird auf der Grundlage einer Steuerungsverarbeitung entsprechend des Erkennungsergebnisses gesteuert oder betätigt.
  • Bei dieser sprach- oder stimmgesteuerten Kamera kann eine gewisse Funktion durch einen bestimmten Sprachbefehl mit einer eins-zu-eins Entsprechung zu der bestimmten Funktion durchgeführt werden. Beispielsweise kann nur "kein Blitz" als der bestimmte Sprachbefehl zur Verhinderung eines Blitzlichts beim Auslösen der Kamera wirken, obgleich "Blitz aus", "Blitz stop" oder "Blitzlicht aus" je nach Benutzer verwendet werden kann oder könnte.
  • Ein Benutzer muß daher genau einen bestimmten Sprachbefehl wissen, um es zu ermöglichen, daß eine gewisse Funktion durchgeführt wird. Mit anwachsenden ausführbaren Funktionen wächst jedoch hierbei die Belastung seitens des Benutzers. Dies führt zu einer verschlechterten Anwendbarkeit bei der Spracheingabe.
  • Bei einer Spracherkennung besteht die Möglichkeit, daß ein kurzes Wort fehlerhaft erkannt wird. Beispielsweise gibt es einen Fall, bei dem ein Benutzer eine Zieladresse über Spracheingabe in ein Fahrzeugnavigationssystem eingibt und es wird dann gefordert, zu bestimmen, ob ein ausgewählter Punkt auf einer Karte als Zielort korrekt ist. In diesem Fall setzt der Benutzer den Zielort durch Eingabe von "JA" oder "NEIN" fest oder hebt ihn auf. Das kurze Wort "JA" oder "NEIN" kann jedoch fehlerhaft erkannt werden, so daß die Funktion des Festsetzens des Zielortes manchmal entgegen den Absichten des Benutzers durchgeführt wird.
  • Es ist Aufgabe der vorliegenden Erfindung, ein sprachgesteuertes System zu schaffen, welches die Anwendbarkeit einer Spracheingabe bzw. einer hieraus hervorgehenden Wirkungsweise durch eine Hilfsanzeige verbessert.
  • Nur Lösung dieser Aufgabe ist ein sprachgesteuertes System mit einer Anzeige wie folgt ausgestattet: wenn ein Benutzer eine Sprache oder einen Sprachbefehl eingibt, wird ein Hilfeschalter angezeigt, um eine Hilfsfunktion der Spracheingabe durchzuführen. Wenn der Hilfeschalter angewählt wird, wird die Hilfsfunktion durchgeführt. Bei diesem Aufbau kann der Hilfeschalter in dem Fall verwendet werden, bei dem eine fehlerhaft erkannte Spracheingabe auftreten könnte. Dies führt zu einer Verbesserung der Anwendbarkeit eines sprachgesteuerten Systems im Vergleich zu einem sprachgesteuerten System, welches lediglich Spracheingabe alleine verwendet.
  • Weitere Einzelheiten, Merkmale und Vorteile der vorliegenden Erfindung ergeben sich besser aus der nachfolgenden detaillierten Beschreibung unter Bezugnahme auf die beigefügte Zeichnung.
  • Es zeigt
  • 1 ein schematisches Blockdiagramm des Aufbaus einer Fahrzeugnavigationssystems mit einem sprachgesteuerten System gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ein Flußdiagramm, welches den Ablauf einer Spracherkennung in dem Fahrzeugnavigationssystem erläutert;
  • 3 eine schematische Darstellung zur Erläuterung des Umstands eines Unterstützungsfensters und eines Hilfeschalters zur Unterstützung der Spracheingabehandhabung auf einer Anzeigeeinheit;
  • 4 eine schematische Darstellung eines anderen Umstands eines Unterstützungsfensters und Hilfeschalters zur Unterstützung der Spracheingabehandhabung auf der Anzeigeeinheit; und
  • 5 eine schematische Darstellung eines anderen Umstands eines Unterstützungsfensters und Hilfeschalters zur Unterstützung einer Spracheingabemanipulation auf der Anzeigeeinheit.
  • Als eine Ausführungsform eines sprachgesteuerten Systeme der vorliegenden Erfindung wird nachfolgend exemplarisch ein Fahrzeugnavigationssystem zur Anordnung in einem Fahrzeug beschrieben.
  • Gemäß 1 beinhaltet das Fahrzeugnavigationssystem oder die Fahrzeugnavigationsvorrichtung einen Positionserkennungsabschnitt, der wiederum aufweist: einen GPS-Empfänger (global positioning System) 9, einen Geschwindigkeitssensor 10, einen geomagnetischen Sensor oder Erd magnetfeldsensor 11 und ein Gyroskop 12 (Kreiselkompaß), welche alle mit einer elektronischen Navigations-Steuereinheit (ECU) 1 verbunden sind. Die Fahrzeugnavigationsvorrichtung weist weiterhin auf: eine Spracherkennungseinheit 4 (VR = voice recognition) mit einem Mikrofon 2 und einem Sprechschalter 3; eine Kartendaten-Eingabeeinheit 13; und eine Manipulationsschalter-Eingabeeinheit 8, welche jeweils ebenfalls mit der Navigations-ECU 1 verbunden sind. Weiterhin sind eine Anzeige 5, ein Lautsprecher 6 und eine externe Eingabe/Ausgabeeinheit 7 (I/O) mit der Navigations-ECU 1 verbunden. Die Navigations-ECU 1 ist in Form eines bekannten Computers aufgebaut und beinhaltet interne Komponenten wie eine CPU, ein ROM, ein RAM und einen Eingabe/Ausgabe-Schaltkreis, sowie Verbindungsbusse, welche die internen Komponenten verbinden. Im ROM ist ein Programm abgespeichert, welches in der Navigationsvorrichtung durchgeführt wird und die CPU arbeitet gemäß diesem Programm. Das Programm kann über die externe I/O-Einheit 7 erhalten werden.
  • Wie oben erläutert beinhaltet der Positionserkennungsabschnitt als Positionssensoren den GPS-Empfänger 9, den Geschwindigkeitssensor 10, den Erdmagnetfeldsenor 11 und das Gyroskop 12. Jedes dieser Bauteile hat einen unterschiedlich gearteten Fehlerbereich, so daß eine Position unter Verwendung einer Mehrzahl von Sensoren berechnet wird, welche einander gegenseitig justieren. Zusätzlich kann abhängig von der Genauigkeit eines jeden Sensors der Positionserkennungsabschnitt als Teil der obigen Positionssensoren gebildet werden. Ein Drehzahlsensor zur Erkennung der Lenkposition oder ein Gierratensensor können auch für die Positionserkennung verwendet werden.
  • Die Kartendaten-Eingabeeinheit 13 dient dazu, der Navigations-ECU 1 Kartendaten, beispielsweise eine Straßenkarte oder eine Umgebungskarte, einzugeben. Die Einheit 13 beinhaltet eine Speichermöglichkeit zur Speicherung der Kartendaten. Als Speichermedium wird für gewöhnlich eine CD-ROM oder eine DVD-ROM aufgrund des Datenvolumens der Kartendaten verwendet. Eine Speicherkarte oder eine Festplatte können jedoch ebenfalls verwendet werden.
  • Die Anzeigeeinheit 5 besteht beispielsweise aus einer Flüssigkristallanzeige. Die Anzeigeeinheit 5 zeigt auf Ihrem Bildschirm die Kartendaten, welche von der Kartendaten-Eingabeeinheit 13 kommen, eine Markierung für den eigenen Standpunkt des Fahrzeugs, basierend auf der momentanen Position, welche von dem Positionserkennungsabschnitt erkannt worden ist und zusätzliche Daten, beispielsweise eine Wegweisung.
  • Die externe I/O-Einheit 7 dient zum Empfang von von außen kommenden Informationen, beispielsweise von einem "Vehicle Information and Communication System" (VICS), und zum Aussenden von Informationen. Die von außen kommende Information wird von der Navigations-ECU 1 verarbeiten. Die verarbeitete Information oder die verarbeiteten Informationen, beispielsweise Informationen über Verkehrsstaus oder Verkehrsregelungsmaßnahmen, werden den Kartendaten überlagert, welche auf dem Bildschirm der Anzeigeeinheit 5 dargestellt werden. Falls notwendig, werden von der Navigations-ECU 1 verarbeitete Informationen über die externe I/O-Einheit 7 ausgegeben.
  • Die Manipulationsschalter-Einhabeeinheit 8 wird dazu verwendet, Eingaben zu machen und wird über einen Berührungsschalter oder dergleichen gebildet, der in der Anzeigeeinheit 5 integriert ist, oder durch einen mechanischen. Schalter oder dergleichen. Die Navigationsvorrichtung dieser Ausführungsform hat die Funktion einer Routenunterstützung. Wenn hierbei die Lage eines Zielpunktes über die Manipulationsschalter-Eingabeeinheit 8 eingege ben wird, wird eine geeignete Route von der momentanen Position zum Zielpunkt automatisch ausgewählt und auf dem Bildschirm der Anzeigeeinheit 5 dargestellt.
  • Das Mikrofon 2 und der Sprechschalter 3 sind für eine Spracheingabe vorgesehen. Wenn ein Druckknopf des Sprechschalters 3 gedrückt wird, wird ein Eingabebefehl an die VR-Einheit 4 geschickt. Wenn die VR-Einheit 4 den Eingabeimpuls empfängt, schaltet sie auf einen Spracheingabemodus, um die über das Mikrofon 2 eingegebene Sprache anzunehmen.
  • Wenn im Spracheingabemodus der Benutzer den Befehl von beispielsweise "momentane Position" ausspricht, wird dieser Befehl in ein Sprach- oder Stimmsignal über das Mikrofon 2 umgewandelt und der VR-Einheit 4 zugeschickt. Die VR-Einheit 4 erkennt das Sprachsignal und wandelt es in einen entsprechenden Befehl um, der dem Sprachbefehl entspricht. Die VR-Einheit 4 schickt dann diesen Befehl an die Navigations-ECU 1. Somit wird der Sprachbefehl als "MOMENTANE POSITION" erkannt und in den Verarbeitungsbefehl "MOMENTANE POSITION ANZEIGEN" umgewandelt. Die Navigations-ECU 1, welche diesen Befehl empfängt, zeigt eine Straßenkarte um die momentane Position herum auf dem Bildschirm der Anzeigeeinheit 5.
  • Der Lautsprecher 6 wird verwendet, Fahrhinweise oder verschiedene Alarmtöne auszugeben. Der Lautsprecher kann beispielsweise ein Lautsprecher sein, der bereits vorab in dem Fahrzeug installiert ist, oder ein Lautsprecher, der in der Fahrzeugnavigationsvorrichtung eingebaut ist.
  • Der Verarbeitungsablauf in der Fahrzeugnavigationsvorrichtung wird nachfolgend unter Bezugnahme auf 2 ausgehend von einer Spracheingabe zu einer Funktion hin, die auf der Grundlage der eingegebenen Sprache oder des Befehls durchgeführt wird, erläutert.
  • In einem Schritt 10 läuft ein Wartezustand fort, bis der Sprechschalter 3 von einem Benutzer gedrückt wird und dann geht der Ablauf zum Schritt 20, wenn der Sprechschalter 3 gedrückt worden ist.
  • Im Schritt 20 schaltet die VR-Einheit 4 in den Spracheingabemodus, in welchem die Spracheingabe empfangen werden kann.
  • Im Schritt 30 werden praktisch gleichzeitig mit dem obigen Umschalten in den Spracheingabemodus ein Unterstützungsfenster und Hilfeschalter zur Unterstützung der Spracheingabemanipulation auf dem Bildschirm der Anzeigeeinheit 5 durch die Navigations-ECU 1 dargestellt.
  • Möglichkeiten des Unterstützungsfensters und der Schalter sind innerhalb eines Bildschirms in einem oberen Bereich von 3 gezeigt. Die Umstände sind gezeigt, bei denen die VR-Einheit 4 in den Spracheingabemodus umschaltet. Das Unterstützungsfenster zeigt "BEFEHL ÄUS-SERN" um anzuzeigen, daß momentan eine Spracheingabe angenommen werden kann. Die Hilfeschalter für "STOP" und "HILFE" sind ebenfalls gezeigt.
  • Um hierbei eine Funktion der Navigationsvorrichtung durch. die Spracheingabe durchzuführen, muß ein Sprachbefehl entsprechend der Funktion korrekt geäußert werden. Weiterhin gibt es beispielsweise, was das Festlegen eines Zielpunktes betrifft, verschiedene Eingangsverfahren, welche eine Adresse, eine Telefonnummer, einen Gehäusenamen, eine typische Bezeichnung (beispielsweise Restaurant oder Tankstelle) etc. verwenden. Weiterhin sind bei jeder der Eingabeverfahren bestimmte Befehle notwendig, welche korrekt in einer bestimmten Reihenfolge ausgegeben werden müssen. Es ist jedoch sehr schwierig für einen Benutzer, vollständig sich an die Regeln der Spracheingabe und an die Eingabebefehle zu erinnern. Dies führt in nachteiliger Weise dazu, daß die Anwendbarkeit bei einer Manipulation über Spracheingabe beeinflußt wird.
  • Bei dieser Ausführungsform ist "HILFE" als ein Hilfeschalter für die Spracheingabemanipulation vorgesehen und zusammen mit dem Unterstützungsfenster vorhanden, so daß die Spracheingabemanipulation problemlos durchgeführt werden kann, selbst wenn die Regeln oder die eigentlichen Sprachbefehle vergessen sind.
  • Beispielsweise in einem Fall, bei welchem die Manipulationsschalter-Eingabeeinheit 8 in die Anzeigeeinheit 5 als Berührungsschalter integriert ist, wird der Hilfeschalter von "HILFE" durch Berührung des Anzeigebereiches von "HILFE" ausgewählt. Hierbei ist der Berührungsschalter bevorzugt in der Anzeigeeinheit 5 so angeordnet, daß der Hilfeschalter problemlos durch einfaches Berühren angewählt werden kann. Eine leichte Handhabbarkeit des Berührungsschalters verbessert den Vorteil, der sich aus der Bereitstellung des Hilfeschalters ergibt.
  • Im Schritt 40 wird bestimmt, ob einer der Hilfeschalter ausgewählt oder angewählt worden ist. Wenn bestimmt wird, daß einer der Hilfeschalter angwählt worden ist, geht der Ablauf zum Schritt 50 weiter. Im Schritt 50 wird eine Hilfsfunktion entsprechend dem angewählten Hilfeschalter durchgeführt. Wenn hierbei z.B. der Schalter von "HILFE" gewählt worden ist, wird ein HILFE-Fenster für eine Spracherkennungsmanipulation (VR-Manipulation) gezeigt, welches eine Befehlsliste beinhaltet, welche über Spracheingabe erkennbar ist, wie auf einem Bildschirm im unteren Teil von 3 dargestellt ist. Wenn die Liste mehr Platz als auf einem einseitigen Fenster verfügbar benötigt, kann ein gewünschter Befehl, der in der Liste enthalten ist, unter Verwendung eines Bildlaufknopfes ausgewählt werden, der beispielsweise im untersten linken Abschnitt des HILFE-Fensters liegt.
  • Ein Schalter "MANIPULATIONSFÜHRER" ist auch in dem HILFE-Fenster dargestellt. Wenn dieser Schalter angewählt wird, kann eine Führung, beispielsweise die oben genannten Regeln für die Spracheingabemanipulation, gezeigt werden. Weiterhin ist ein Schalter "ENDE" in dem HILFE-Fenster gezeigt. Wenn dieser Schalter angewählt wird, wird das HILFE-Fenster gelöscht.
  • Zusammen mit dem Hilfeschalter von "HILFE" ist ein weiterer Hilfeschalter "STOP" zum Anhalten des Spracheingabemodus vorgesehen, der im Bildschirm im oberen Teil von 3 gezeigt ist. Typischerweise muß, nachdem der Spracheingabemodus begonnen worden ist, das Anhalten des Spracheingabemodus über Spracheingabe befohlen werden. Das Bereitstellen des Hilfeschalters "STOP" ermöglicht eine Verhinderung einer Fehlerkennung des Sprachbefehls und die Spracheingabe wird mit Sicherheit abgebrochen.
  • Weiterhin können die Hilfeschalter von "HILFE" und "STOP" auch über Spracheingabe angewählt werden. Wenn der Sprachbefehl "HILFE" oder "STOP", eingegeben über das Mikrofon 2, erkannt wird, wird die Anzeige des Manipulations-HILFE-Fensters für die Spracherkennung (VR) oder das Abbrechen des Spracheingabemodus entsprechend durchgeführt.
  • Wenn vom Benutzer ein Sprachbefehl eingegeben wird, während das Unterstützungsfenster oder das HILFE-Fenster auf dem Bildschirm der Anzeigeeinheit 5 gemäß obiger Erläuterung gezeigt ist, wird in dem Schritt 60 von 2 eine Verarbeitung der Spracherkennung durchgeführt. Bei der Spracherkennung wird der eingegebene Sprachbefehl mit Sprachinhalten abgestimmt, welche vorab als Referenzbefehls gespeichert worden sind, so daß ein Sprachinhalt entsprechend dem eingegebenen Sprachbefehl entnommen werden Mann.
  • Im Schritt 70 wird eine Funktion entsprechend dem entnommenen Sprachinhalt durchgeführt.
  • Nachfolgend werden bezugnehmend auf die 4 und 5 weitere Umstände des Unterstützungsfensters und der Hilfesschalter zur Unterstützung der Spracheingabemanipulation erläutert.
  • In dem Anzeigebeispiel von 4 ist eine Anzeige dargestellt, nachdem eine Zielbestimmung mit einer Adresse, einer Telefonnummer oder einem Gebäudenamen eingegeben worden ist. Beim Festsetzen eines Zielpunktes gibt es den Fall, daß die eingegebene Position oder das Gebäude als diese Zielposition nicht sofort direkt als Zielpunkt auf dem Bildschirm zusammen mit einer Überlagerung und mit der Karte (in 4 nicht gezeigt) dargestellt wird, um eine Bestätigung für den Benutzer darzustellen.
  • In diesem Fall wird "IST DIESER PUNKT ALS ZIELORT GE-SETZT?" im Unterstützungsfenster zusammen mit den Hilfeschaltern von "JA" und "NEIN" dargestellt. Obgleich hier ein kurzes Wort, nämlich "JA" oder "NEIN", als Spracheingabe eingegeben wird, kann dieses kurze Wort bei der Spracherkennung fehlerhaft erkannt werden. Obgleich somit der Benutzer den richtigen Zielort über die Spracheingabe eingibt, wird das Festlegen des Zielortes manchmal bei einem derartigen abschließenden Bestätigungsschritt entgegen der Absicht des Benutzers aufgehoben oder abgebro chen. Wenn ein kurzes Wort oder ein kurzer Befehl über die Spracheingabe eingegeben wird, kann somit die Hinzufügung einer Schalterbetätigung zusätzlich zur Spracheingabe verhindern, daß eine unbeabsichtigte Funktion durchgeführt wird.
  • Eine Sprachankündigung über den Lautsprecher 6 kann zusammen mit dem Unterstützungsfenster auf der Anzeigeeinheit 5 verwendet werden. Jedoch sollten Funktionen, welche durchzuführen sind, beispielsweise das Festlegen des Zielortes, bevorzugt auf dem Bildschirm der Anzeigeeinheit 5 dargestellt werden, so daß der Benutzer eine visuelle Bestätigung hat.
  • Ein weiterer Umstand in 5 ist eine Anzeige zur Annahme einer Telefonnummer über Spracheingabe. Diese Anzeige wird dargestellt, nachdem der Spracheingabemodus durch Drücken des Sprechschalters 3 begonnen worden ist und dann über Spracheingabe "SUCHE ÜBER TELEFONNUMMER" eingegeben wird, wie in 5 gezeigt.
  • In diesem Fall wird "FERNSPRECHNUMMER ZUERST" in dem Unterstützungsfenster dargestellt, um anzuzeigen, daß der Benutzer die Telefonnummer über die Spracheingabe eingeben kann. Hierbei sind die Hilfeschalter "STOP" und "HILFE" gleichzeitig gezeigt. Wenn der Schalter "STOP" angewählt wird, wird die Annahme der Telefonnummer unterbrochen und die Anzeige kehrt zu der Ausgangsanzeige zurück, die auf dem Bildschirm im oberen Bereich von 3 dargestellt ist.
  • Wenn der Schalter "HILFE" angewählt wird, wird "MANIPULATIONSFÜHRER" mit Anweisungen betreffend die Spracheingabe auf dem Bildschirm der Anzeigeeinheit 5 gezeigt. Genauer gesagt, es gibt Befehle wie "VORWAHL- UND ORTSNUMMER SEPARAT AUSSPRECHEN" oder "KEINE VOLLZIFFER- WAHL; SONDERN SERIELLES LESEN PRO EINZELZAHL" Der Benutzer gibt daher Sprachbefehle unter Berücksichtigung der Anweisungen ein. Dies führt zu einer Verbesserung des Erkennungsgrades der eingegebenen Telefonnummern, so daß es hiermit dem Benutzer möglich wird, die Spracheingabe problemlos zu handhaben.
  • Abwandlung
  • Das Unterstützungsfenster oder die Hilfeschalter sind nicht auf die oben erwähnten Umstände und Anwendungsfälle begrenzt.
  • Beispielsweise gibt es den Fall, daß die Telefonnummer eines Zielortes eingegeben wird, während besagter Zielort bereits festgesetzt ist. Hierbei zeigt sich dann ein Unterstützungsfenster, welches anfragt, ob der vorgewählte Zielort auf den neu eingegebenen Zielort geändert worden ist, oder ob der neu eingegebene Zielort als Durchfahrtsort hinzugefügt worden ist. Die Hilfeschalter können "ÄNDERN" oder "HINZUFÜGEN" sein.
  • Obgleich hierbei "ÄNDERN" oder "HINZUFÜGEN" fehlerhaft erkannt werden können, ermöglicht das Bereitstellen der Hilfeschalter, daß die jeweiligen Funktionen so durchgeführt werden, wie es der Benutzer wünscht.
  • In der obigen Ausführungsform ist die VR-Einheit 4 separ at von der Navigations-ECU 1 aufgebaut. Die VR-Einheit 4 kann jedoch in die Navigations-ECU 1 integriert werden.
  • Weiterhin ist die vorliegende Erfindung nicht nur auf eine Fahrzeugnavigationsvorrichtung gerichtet, sondern auch auf andere Vorrichtungen, beispielsweise elektrische Haushaltsgeräte oder einen Roboter, bei denen eine Spracherkennung angewendet werden kann.
  • Beschrieben wurde ein sprachgesteuertes System, welches beispielsweise bei einer Fahrzeugnavigationsvorrichtung anwendbar ist, und das beinhaltet: eine Anzeigeeinheit; ein Mikrofon; eine Spracherkennungseinheit zur Erkennung einer von einem Benutzer ausgegebenen Sprache als Befehl; und eine Navigations-ECU, an welche die Spracherkennungseinheit den Befehl ausgibt. Wenn der Benutzer die Sprache eingibt, werden auf der Anzeigeeinheit Hilfeschalter dargestellt. Wenn der Benutzer einen der Hilfeschalter anwählt, werden entsprechende Funktionen entsprechend den Hilfeschaltern durchgeführt. Diese Funktionen beinhalten die Darstellung einer Stimmbefehlsliste oder die Führung für eine Spracheingabe auf der Anzeigeeinheit oder die Ausgabe eines Stimmungsergebnisses an die Navigations-ECU, ob eine bestimmte Funktion, beispielsweise das Festlegen eines Zielortes, durchgeführt werden darf.
  • Es ergibt sich für einen Fachmann auf diesem Gebiet, daß unterschiedlichste Änderungen an den oben beschriebenen Ausführungsformen der Erfindung gemacht werden können, ohne vom Umfang der Erfindung abzuweichen, wie er in den nachfolgenden Ansprüchen und deren Äquivalenten definiert ist.

Claims (8)

  1. Ein sprachgesteuertes System, mit einer Spracheingabevorrichtung (2, 3, 4) zur Eingabe einer Sprache, die von einem Benutzer während einer Spracheingabemanipulation ausgegeben worden ist und einer Steuervorrichtung (1, 4) zur Erkennung der eingegebenen Sprache als bestimmten Sprachinhalt aus einer Mehrzahl von Sprachinhalten, und dadurch zum Durchführen einer Funktion abhängig von dem gewissen Sprachinhalt, wobei das sprachgesteuerte System dadurch gekennzeichnet ist, daß es aufweist: eine Anzeigevorrichtung (5) zur Anzeige; eine Anzeigesteuervorrichtung (1) für eine Anzeige eines Hilfeschalters (1, 8), der eine Hilfsfunktion für die Spracheingabemanipulation durchführt, wenn der Benutzer die Sprache eingibt; und einer Durchführvorrichtung (1) der Hilfsfunktion, wenn der Hilfeschalter angewählt wird.
  2. Sprachgesteuertes System nach Anspruch 1, wobei der Hilfeschalter einen Hilfeschalter (1, 8) umfaßt, der die Anzeige einer bestimmten Gruppe der Sprachinhalte entsprechend den durchführbaren Funktionen darstellt, welche über die Spracheingabemanipulation durchgeführt werden können; und wobei die Durchführvorrichtung dann, wenn der Hilfeschalter angewählt ist, die Anzeige der gegebenen Gruppe von Sprachinhalten auf der Anzeigevorrichtung durchführt.
  3. Sprachgesteuertes System nach Anspruch 1, wobei der Hilfeschalter einen Führungsschalter (1, 8) beinhaltet, der eine Führung für die Spracheingabemanipulation anzeigt; und wobei die Durchführungsvorrichtung, wenn der Führungsschalter angewählt wird, die Anzeige der Führung auf der Anzeigevorrichtung durchführt.
  4. Sprachgesteuertes System nach Anspruch 1, wobei der Hilfeschalter einen Stopschalter (1, 8) beinhaltet, der das Stoppen der Spracheingabemanipulation durchführt.
  5. Sprachgesteuertes System nach Anspruch 1, wobei die Steuervorrichtung dem Benutzer den Inhalt einer nachfolgenden Funktion mitteilt, welche nachfolgend durchzuführen ist und den Benutzer veranlaßt, zu bestimmen, ob der Inhalt der nachfolgenden Funktion erlaubt werden kann, und wobei die Anzeigesteuerungsvorrichtung auf der Anzeigevorrichtung einen Bestimmungsschalter (1, 8) darstellt, der die Bestimmung durchführt, ob der Inhalt der nachfolgenden Funktion erlaubt werden kann.
  6. Sprachgesteuertes System nach Anspruch 5, wobei die Steuervorrichtung dem Benutzer den Inhalt der nachfolgenden Funktion über eine Anweisung mitteilt, daß die Anzeigesteuervorrichtung den Inhalt der nachfolgenden Funktion auf der Anzeigevorrichtung darzustellen hat.
  7. Sprachgesteuertes System nach einem der Ansprüche 1 bis 6, wobei die Anzeigevorrichtung einen Bildschirm (5) und eine Erkennungsvorrichtung (1, 5, 8) aufweist, um auf dem Bildschirm einen Bereich zu erkennen, den der Benutzer berührt, und wobei, wenn der Benutzer einen bestimmten Bereich (5) entsprechend dem Hilfeschalter berührt, der auf dem Bildschirm der Anzeigevorrichtung dargestellt wird, dann die Durchführungsvorrichtung feststellt, daß der Hilfeschalter angewählt worden ist.
  8. Ein Spracheingabeverfahren in einem sprachgesteuerten System mit einer Anzeige (5), einer Spracheingabevorrichtung (2 , 3 , 4) zur Eingabe einer von einem Benutzer ausgegebenen Sprache und einer Steuervorrichtung (1, 4) zur Erkennung der eingegebenen Sprache als Sprachinhalt und hierdurch zum Durchführen einer Funktion entsprechend dem Sprachinhalt, wobei das Verfahren die folgenden Schritte aufweist: Anzeigen (S30) eines Hilfeschalters, der eine Hilfsfunkion zur Spracheingabemanipulation durchführt, wenn der Benutzer die Sprache eingibt (S10, S20); und Durchführen der Hilfsfunktion (S50) , wenn der Hilfeschalter angewählt worden ist (S40).
DE10330274A 2002-07-05 2003-07-04 Sprachgesteuertes System Ceased DE10330274A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-197262 2002-07-05
JP2002197262A JP2004037998A (ja) 2002-07-05 2002-07-05 音声制御装置

Publications (1)

Publication Number Publication Date
DE10330274A1 true DE10330274A1 (de) 2004-01-15

Family

ID=29728402

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10330274A Ceased DE10330274A1 (de) 2002-07-05 2003-07-04 Sprachgesteuertes System

Country Status (3)

Country Link
US (1) US7392194B2 (de)
JP (1) JP2004037998A (de)
DE (1) DE10330274A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008033441A1 (de) * 2008-07-16 2010-01-21 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177814B2 (en) * 2002-02-07 2007-02-13 Sap Aktiengesellschaft Dynamic grammar for voice-enabled applications
JP2006170769A (ja) * 2004-12-15 2006-06-29 Aisin Aw Co Ltd 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置
JP4659505B2 (ja) * 2005-04-04 2011-03-30 キヤノン株式会社 情報処理方法及び装置
US10882399B2 (en) 2005-11-17 2021-01-05 Invently Automotive Inc. Electric vehicle power management system
US11084377B2 (en) 2005-11-17 2021-08-10 Invently Automotive Inc. Vehicle power management system responsive to voice commands from a Gps enabled device
JP4650247B2 (ja) * 2005-12-07 2011-03-16 株式会社デンソー カーナビゲーションシステム
EP3043349B1 (de) * 2006-01-06 2019-10-30 Pioneer Corporation Worterkennungsvorrichtung
KR100707970B1 (ko) * 2006-03-10 2007-04-16 (주)인피니티 텔레콤 이동통신단말기를 이용한 통역 서비스 방법
JP4672686B2 (ja) * 2007-02-16 2011-04-20 株式会社デンソー 音声認識装置及びナビゲーション装置
US20100131481A1 (en) * 2008-11-26 2010-05-27 Honeywell International Inc. Methods for locating an item when a search mode is not selected
DE102010008368A1 (de) * 2009-02-27 2010-09-16 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
US20100250253A1 (en) * 2009-03-27 2010-09-30 Yangmin Shen Context aware, speech-controlled interface and system
KR101566379B1 (ko) * 2009-05-07 2015-11-13 삼성전자주식회사 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
KR101283210B1 (ko) * 2010-11-09 2013-07-05 기아자동차주식회사 카오디오 장치를 이용한 주행 경로 안내 시스템 및 그 카오디오 장치, 이를 이용한 경로 안내 방법
US8744771B2 (en) * 2012-03-26 2014-06-03 Navteq B.V. Reverse natural guidance
KR20140089861A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
JP2015129672A (ja) * 2014-01-07 2015-07-16 アルパイン株式会社 施設検索装置および方法
JP6146366B2 (ja) * 2014-04-04 2017-06-14 株式会社デンソー 音声入力装置
US9919694B1 (en) 2014-04-28 2018-03-20 Ball Aerospace & Technologies Corp. Control system for a complex mechanical system
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
US20180068313A1 (en) 2016-09-06 2018-03-08 Apple Inc. User interfaces for stored-value accounts
US11221744B2 (en) 2017-05-16 2022-01-11 Apple Inc. User interfaces for peer-to-peer transfers
KR102636696B1 (ko) 2017-05-16 2024-02-15 애플 인크. 피어 투 피어 전송들을 위한 사용자 인터페이스들
US10269350B1 (en) * 2017-10-16 2019-04-23 GM Global Technology Operations LLC Responsive activation of a vehicle feature
US11100498B2 (en) 2018-06-03 2021-08-24 Apple Inc. User interfaces for transfer accounts
KR102634632B1 (ko) 2018-06-03 2024-02-08 애플 인크. 트랜스퍼 계정들을 위한 사용자 인터페이스들
JP7193312B2 (ja) * 2018-11-13 2022-12-20 シャープ株式会社 情報処理装置、制御方法及びプログラム
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
JP7169921B2 (ja) * 2019-03-27 2022-11-11 本田技研工業株式会社 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP7415350B2 (ja) * 2019-07-08 2024-01-17 コニカミノルタ株式会社 音声操作システム、制御装置、および制御プログラム
CN111757007B (zh) * 2020-07-09 2022-02-08 深圳市欢太科技有限公司 图像拍摄方法、装置、终端及存储介质
KR20220085860A (ko) * 2020-12-15 2022-06-23 현대자동차주식회사 차량 및 그 제어방법
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US11784956B2 (en) 2021-09-20 2023-10-10 Apple Inc. Requests to add assets to an asset account

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57188190A (en) 1981-05-15 1982-11-19 Nissan Motor Co Ltd Multiplex operation switch device for car
JPS59157699A (ja) 1983-02-25 1984-09-07 電子計算機基本技術研究組合 音声登録方法
JPS6121526A (ja) 1984-07-10 1986-01-30 Nippon Signal Co Ltd:The 音声認識入力装置
JPS6184771A (ja) 1984-10-03 1986-04-30 Hitachi Ltd 音声入力装置
US4827520A (en) * 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
JPS6456428U (de) 1987-10-01 1989-04-07
JPH0376356A (ja) 1989-08-17 1991-04-02 Japan Steel Works Ltd:The 人声認識携帯電話機
JP3468824B2 (ja) * 1994-03-29 2003-11-17 本田技研工業株式会社 車両誘導装置
JPH07295586A (ja) 1994-04-27 1995-11-10 Kenwood Corp 音声認識装置
US6098015A (en) * 1996-04-23 2000-08-01 Aisin Aw Co., Ltd. Navigation system for vehicles and storage medium
KR100260760B1 (ko) * 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
DE19709518C5 (de) * 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
JP3588975B2 (ja) 1997-05-12 2004-11-17 日産自動車株式会社 音声入力装置
JP3419648B2 (ja) * 1997-05-27 2003-06-23 株式会社日立製作所 ナビゲーション装置
US6012030A (en) * 1998-04-21 2000-01-04 Nortel Networks Corporation Management of speech and audio prompts in multimodal interfaces
US6292718B2 (en) * 1999-01-28 2001-09-18 International Business Machines Corp. Electronic control system
US6324507B1 (en) 1999-02-10 2001-11-27 International Business Machines Corp. Speech recognition enrollment for non-readers and displayless devices
US6181996B1 (en) * 1999-11-18 2001-01-30 International Business Machines Corporation System for controlling vehicle information user interfaces
US6826472B1 (en) * 1999-12-10 2004-11-30 Tele Atlas North America, Inc. Method and apparatus to generate driving guides
JP2001282284A (ja) 2000-03-31 2001-10-12 Denso Corp 音声認識装置
DE60133902D1 (de) * 2000-07-28 2008-06-19 Siemens Vdo Automotive Corp
JP2002149192A (ja) 2000-11-07 2002-05-24 Fujitsu Ten Ltd 情報取得装置
GB0029573D0 (en) * 2000-12-02 2001-01-17 Hewlett Packard Co Activation of voice-controlled apparatus
EP1215658A3 (de) * 2000-12-05 2002-08-14 Hewlett-Packard Company Visuelle Aktivierung sprachgesteuerter Vorrichtungen
JP3919210B2 (ja) * 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
JP2003005897A (ja) * 2001-06-20 2003-01-08 Alpine Electronics Inc 情報入力方法および装置
KR100457509B1 (ko) * 2001-07-07 2004-11-17 삼성전자주식회사 터치스크린과 음성인식을 통해 동작 제어되는 정보단말기 및 그의 명령 실행 방법
US6965862B2 (en) * 2002-04-11 2005-11-15 Carroll King Schuller Reading machine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008033441A1 (de) * 2008-07-16 2010-01-21 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
DE102008033441B4 (de) * 2008-07-16 2020-03-26 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug

Also Published As

Publication number Publication date
US7392194B2 (en) 2008-06-24
JP2004037998A (ja) 2004-02-05
US20040006479A1 (en) 2004-01-08

Similar Documents

Publication Publication Date Title
DE10330274A1 (de) Sprachgesteuertes System
EP0905662B1 (de) Eingabesystem wenigstens für Orts- und/oder Strassennamen
EP1102037B1 (de) Navigationssystem mit verbesserter Objektauswahl
DE69726662T2 (de) Landfahrzeugsnavigationsgerät mit lokaler Routenführungsselektivität und Speichermedium dafür
DE19742415B4 (de) Automatische Wiederaufnahme der Fahrwegführung in einem Fahrzeug-Navigationssystem
DE112009000732T5 (de) Fahrzeug-Navigationsvorrichtung, tragbares Informationsterminal und Fahrzeug-Navigationssystem
DE69830763T2 (de) Verfahren und Vorrichtung zum Steuern einer Kartenanzeige
DE102019211681B4 (de) Verfahren eines Fahrzeugs zum automatisierten Parken
DE102010038174A1 (de) Emotive Vorrichtung zur Informationsübermittlung in einem Kraftfahrzeug
DE112009001449T5 (de) Fahrzeugnavigationsvorrichtung
DE10260678A1 (de) Verfahren zum Senden von Kartendaten sowie Kartenanzeigegerät und -system
DE19717601A1 (de) Navigationsverfahren und Vorrichtung dafür
DE10361407A1 (de) Navigationssystem und Programm und Speicherträger zur Verwendung in diesem
EP2951663B1 (de) Systeminitiierte hilfefunktion für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung - eingabe von leerzeichen
DE10241980A1 (de) Informationsverarbeitungssystem und -verfahren, welche mit einem Spracheingabebefehl betrieben werden
DE102014211834A1 (de) Verfahren und Vorrichtung zum Korrigieren eines Regelparameters für eine automatische Geschwindigkeitsregeleinrichtung eines Fahrzeugs
DE69726512T2 (de) Fahrzeugsnavigationssystem mit Beschleunigung von Stadtnamenselektion und Programmspeichermedium
DE102007047273A1 (de) Zeicheneingabevorrichtung und Zeicheneingabeprogramm
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
WO2017072307A1 (de) Verfahren und vorrichtung zur verbesserung der erkennungsgenauigkeit bei der handschriftlichen eingabe von alphanumerischen zeichen und gesten
WO2014117932A1 (de) Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung
DE102008033441B4 (de) Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
EP2138805A2 (de) Navigationsvorrichtung
EP1901037A2 (de) Verfahren zur Bestimmung einer Fahrzeit und Navigationssystem
WO2020200557A1 (de) Verfahren und vorrichtung zur interaktion mit einem umgebungsobjekt im umfeld eines fahrzeugs

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20120929